Πληροφορίες

16.2: Ταξινόμηση--Bayesian Techniques - Βιολογία

16.2: Ταξινόμηση--Bayesian Techniques - Βιολογία


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Εξετάστε το πρόβλημα της αναγνώρισης των μιτοχονδριακών πρωτεϊνών. Αν κοιτάξουμε το ανθρώπινο γονιδίωμα, πώς προσδιορίζουμε ποιες πρωτεΐνες εμπλέκονται στις μιτοχονδριακές διεργασίες ή γενικότερα ποιες πρωτεΐνες στοχεύουν στα μιτοχόνδρια1;1 Αυτό είναι ιδιαίτερα χρήσιμο γιατί αν γνωρίζουμε τις μιτοχονδριακές πρωτεΐνες, μπορούμε να μελετήσουμε πώς αυτές οι πρωτεΐνες μεσολαβούν στις διαδικασίες της νόσου και στις μεταβολικές λειτουργίες. Η μέθοδος ταξινόμησης που θα εξετάσουμε λαμβάνει υπόψη 7 χαρακτηριστικά για όλες τις ανθρώπινες πρωτεΐνες:

1. σήμα στόχευσης
2. πρωτεϊνικοί τομείς
3. συνέκφραση
4. φασματομετρία μάζας

5. ομολογία αλληλουχίας

6. επαγωγή

7. μοτίβα

Η συνολική μας προσέγγιση θα είναι να καθορίσουμε πώς αυτά τα χαρακτηριστικά κατανέμονται τόσο για τις μιτοχονδριακές όσο και για τις μη μιτοχονδριακές πρωτεΐνες. Στη συνέχεια, δεδομένου μιας νέας πρωτεΐνης, μπορούμε να εφαρμόσουμε πιθανολογική ανάλυση σε αυτά τα επτά χαρακτηριστικά για να αποφασίσουμε σε ποια κατηγορία ανήκει πιθανότατα.

Μεμονωμένα χαρακτηριστικά και κανόνας Bayes

Ας εστιάσουμε μόνο σε ένα χαρακτηριστικό στην αρχή. Πρέπει πρώτα να υποθέσουμε ότι υπάρχει μια κατανομή που εξαρτάται από την κλάση για τα χαρακτηριστικά. Πρέπει πρώτα να αντλήσουμε αυτήν την κατανομή από πραγματικά δεδομένα. Το δεύτερο πράγμα που χρειαζόμαστε είναι η a priori πιθανότητα να σχεδιάσουμε ένα δείγμα συγκεκριμένης τάξης πριν δούμε τα δεδομένα. Η πιθανότητα να πάρεις μια συγκεκριμένη τάξη είναι απλώς το σχετικό μέγεθος της τάξης. Μόλις έχουμε αυτές τις πιθανότητες, μπορούμε να χρησιμοποιήσουμε τον κανόνα Bayes για να πάρουμε την πιθανότητα ένα δείγμα να βρίσκεται σε μια συγκεκριμένη κατηγορία δεδομένων των δεδομένων (αυτό ονομάζεται οπίσθιο). Έχουμε παραγωγικές πιθανότητες προς τα εμπρός και χρησιμοποιούμε κανόνες Bayes για να εκτελέσουμε το συμπέρασμα προς τα πίσω. Σημειώστε ότι δεν αρκεί απλώς να εξετάσουμε την πιθανότητα το χαρακτηριστικό να προήλθε από κάθε κατανομή εξαρτώμενη από κλάση, επειδή εάν γνωρίζαμε εκ των προτέρων ότι μια κλάση (ας πούμε κατηγορία Α) είναι πολύ πιο κοινή από την άλλη, τότε θα έπρεπε να ληφθούν συντριπτικά στοιχεία ότι το χαρακτηριστικό αντλήθηκε από τη διανομή της κλάσης Β για να πιστέψουμε ότι το χαρακτηριστικό ήταν όντως από την κλάση Β. Ο σωστός τρόπος για να βρούμε αυτό που χρειαζόμαστε με βάση τόσο στοιχεία όσο και προηγούμενες γνώσεις είναι να χρησιμοποιήσουμε τον κανόνα Bayes:

[ P( Class mid feature )=left(frac{P( ext { feature } mid ext { Class }) P( ext { Class })}{P( ext { feature })} δεξιά) onumber ]

• Πίσω : P(Class|χαρακτηριστικό)

• Προηγούμενο : P(Class)
• Πιθανότητα : P(χαρακτηριστικό|Κλάση)

Αυτός ο τύπος μας δίνει ακριβώς τη σύνδεση που χρειαζόμαστε για να μετατρέψουμε τις πιθανότητες γνωστών χαρακτηριστικών σε πιθανότητες κλάσης για τον αλγόριθμό μας ταξινόμησης. Μας επιτρέπει να ενσωματώσουμε τόσο την πιθανότητα που αντλούμε από τις παρατηρήσεις μας όσο και την προηγούμενη γνώση μας σχετικά με το πόσο κοινό είναι κάτι. Στην περίπτωση του mtDNA, για παράδειγμα, μπορούμε να υπολογίσουμε ότι το μιτοχονδριακό DNA αποτελεί περίπου το 1500/21000 (δηλαδή λιγότερο από το 10%) του ανθρώπινου γονιδιώματος. Επομένως, εφαρμόζοντας τον κανόνα Bayes, ο ταξινομητής μας θα πρέπει να ταξινομήσει ένα γονίδιο ως μιτοχονδριακό μόνο εάν υπάρχει πολύ ισχυρή πιθανότητα με βάση τα παρατηρούμενα χαρακτηριστικά, καθώς η προηγούμενη πιθανότητα ότι οποιοδήποτε γονίδιο είναι μιτοχονδριακό είναι τόσο χαμηλή.

Με αυτόν τον κανόνα, μπορούμε τώρα να σχηματίσουμε έναν κανόνα μέγιστης πιθανότητας για την πρόβλεψη μιας κλάσης αντικειμένων με βάση ένα παρατηρούμενο χαρακτηριστικό. Θέλουμε να επιλέξουμε την κλάση που έχει τη μεγαλύτερη πιθανότητα δεδομένου του παρατηρούμενου χαρακτηριστικού, επομένως θα επιλέξουμε Class1 αντί για Class2 εάν:

[ left(frac{P( ext { feature } mid ext { Class } 1) P( ext { Class } 1)}{P( ext { feature })} ight)>left (frac{P( ext { feature } mid ext { Class } 2) P( ext { Class } 2)}{P( ext { feature })} ight) onumber ]

Παρατηρήστε ότι το P(feature) εμφανίζεται και στις δύο πλευρές, οπότε μπορούμε να το ακυρώσουμε εντελώς και απλώς να επιλέξουμε την κλάση με την υψηλότερη τιμή P(feature|Class)P(Class).

Ένας άλλος τρόπος για να το δούμε αυτό είναι ως συνάρτηση διάκρισης: Με την αναδιάταξη των παραπάνω τύπων και λαμβάνοντας τον λογάριθμο, θα πρέπει να επιλέξουμε Class1 αντί για Class2 ακριβώς όταν

[log left(frac{P(mathrm{X} mid mathrm{Class} 1) P( ext { Class } 1)}{P(mathrm{X} mid ext { Class } 2) P( ext { Class } 2)} ight)>0 onumber ]

Σε αυτή την περίπτωση η χρήση λογαρίθμων παρέχει ευδιάκριτα πλεονεκτήματα:

1. Αριθμητική σταθερότητα
2. Πιο εύκολα μαθηματικά (είναι πιο εύκολο να προσθέσετε τους διευρυμένους όρους παρά να τους πολλαπλασιάσετε)

3. Μονοτονικά αυξανόμενοι μεροληπτικοί.

Αυτή η διακριτική συνάρτηση δεν καταγράφει τις ποινές που σχετίζονται με την εσφαλμένη ταξινόμηση (με άλλα λόγια, είναι μια ταξινόμηση πιο επιζήμια από την άλλη). Σε αυτήν την περίπτωση, ουσιαστικά ελαχιστοποιούμε τον αριθμό των λανθασμένων ταξινομήσεων που κάνουμε συνολικά, αλλά δεν εκχωρούμε ποινές σε μεμονωμένες εσφαλμένες ταξινομήσεις. Από παραδείγματα που συζητήθηκαν στην τάξη και στο σύνολο προβλημάτων - εάν προσπαθούμε να ταξινομήσουμε έναν ασθενή ως πάσχοντα ή όχι, θα μπορούσε να υποστηριχθεί ότι είναι πολύ πιο επιβλαβές να ταξινομήσουμε εσφαλμένα έναν ασθενή ως υγιή εάν έχει καρκίνο παρά να ταξινομήσουμε εσφαλμένα έναν ασθενής ως πάσχων από καρκίνο εάν είναι υγιείς. Στην πρώτη περίπτωση, ο ασθενής δεν θα λάβει θεραπεία και θα έχει περισσότερες πιθανότητες να πεθάνει, ενώ το δεύτερο λάθος περιλαμβάνει συναισθηματική θλίψη αλλά όχι μεγαλύτερη πιθανότητα απώλειας ζωής. Για να επισημοποιήσουμε την ποινή της εσφαλμένης ταξινόμησης, ορίζουμε κάτι που ονομάζεται συνάρτηση απώλειας, Lkf , η οποία εκχωρεί μια απώλεια στην εσφαλμένη ταξινόμηση ενός αντικειμένου ως κλάσης j όταν η πραγματική κλάση είναι κλάση k (ένα συγκεκριμένο παράδειγμα μιας συνάρτησης απώλειας φάνηκε στο Σύνολο Προβλημάτων 2 ).

Συλλογή Δεδομένων

Το προηγούμενο μας λέει πώς να χειριστούμε τις προβλέψεις εάν γνωρίζουμε ήδη τις ακριβείς πιθανότητες που αντιστοιχούν σε κάθε τάξη. Αν θέλουμε να ταξινομήσουμε τις μιτοχονδριακές πρωτεΐνες με βάση το χαρακτηριστικό X, χρειαζόμαστε ακόμα τρόπους για να προσδιορίσουμε τις πιθανότητες P(mito), P(not mito), P(X|mito) και P(X|not mito). Για να γίνει αυτό, χρειαζόμαστε ένα σύνολο εκπαίδευσης: ένα σύνολο δεδομένων που είναι ήδη ταξινομημένα και τα οποία μπορεί να χρησιμοποιήσει ο αλγόριθμός μας για να μάθει τις κατανομές που αντιστοιχούν σε κάθε τάξη. ΕΝΑ σετ εκπαίδευσης υψηλής ποιότητας (ένα που είναι και μεγάλο και αμερόληπτο) είναι το πιο σημαντικό μέρος οποιουδήποτε ταξινομητή. Ένα σημαντικό ερώτημα σε αυτό το σημείο είναι, πόσα δεδομένα χρειαζόμαστε για γνωστά γονίδια για να δημιουργήσουμε έναν καλό ταξινομητή για άγνωστα γονίδια; Αυτή είναι μια δύσκολη ερώτηση της οποίας η απάντηση δεν είναι πλήρως γνωστή. Ωστόσο, υπάρχουν μερικές απλές μέθοδοι που μπορούν να μας δώσουν μια καλή εκτίμηση: όταν έχουμε ένα σταθερό σύνολο δεδομένων εκπαίδευσης, μπορούμε να κρατήσουμε ένα σύνολο που δεν χρησιμοποιούμε για τον αλγόριθμό μας και αντί να χρησιμοποιήσουμε αυτά τα (γνωστά) σημεία δεδομένων για να δοκιμάσουμε την ακρίβεια του αλγορίθμου μας όταν προσπαθούμε να τα ταξινομήσουμε. Δοκιμάζοντας διαφορετικά μεγέθη προπόνησης σε σχέση με το σετ κράτησης, μπορούμε να ελέγξουμε την καμπύλη ακρίβειας του αλγορίθμου μας. Σε γενικές γραμμές, έχουμε αρκετά δεδομένα προπόνησης όταν βλέπουμε την καμπύλη ακρίβειας να ισοπεδώνεται καθώς αυξάνουμε τον όγκο των δεδομένων προπόνησης (αυτό δείχνει ότι τα πρόσθετα δεδομένα είναι πιθανό να δώσουν μόνο μια ελαφρά οριακή βελτίωση). Το σύνολο διατήρησης ονομάζεται επίσης σύνολο δοκιμής, επειδή μας επιτρέπει να ελέγξουμε τη δύναμη γενίκευσης του ταξινομητή μας.

Ωστόσο, αν υποθέσουμε ότι έχουμε ήδη συλλέξει τα δεδομένα εκπαίδευσης, πώς πρέπει να μοντελοποιήσουμε την P(X|Class); Υπάρχουν πολλές δυνατότητες. Το ένα είναι να χρησιμοποιήσουμε την ίδια προσέγγιση που κάναμε με την ομαδοποίηση στην τελευταία διάλεξη και να μοντελοποιήσουμε το χαρακτηριστικό ως Gaussian, τότε μπορούμε να ακολουθήσουμε την αρχή της μέγιστης πιθανότητας για να βρούμε το καλύτερο κέντρο και διακύμανση. Αυτό που χρησιμοποιήθηκε στη μιτοχονδριακή μελέτη είναι μια απλή εκτίμηση της πυκνότητας: για κάθε χαρακτηριστικό, διαιρέστε το εύρος των δυνατοτήτων σε ένα σύνολο δοχείων (ας πούμε, πέντε κάδους ανά χαρακτηριστικό). Στη συνέχεια χρησιμοποιούμε τα δεδομένα για να υπολογίσουμε την πιθανότητα να πέσει ένα χαρακτηριστικό σε κάθε bin για μια δεδομένη κλάση. Η αρχή πίσω από αυτό είναι και πάλι η μέγιστη πιθανότητα, αλλά για μια πολυωνυμική κατανομή και όχι για μια Gaussian. Μπορούμε να επιλέξουμε να διακριτοποιήσουμε μια κατά τα άλλα συνεχή κατανομή επειδή η εκτίμηση μιας συνεχούς κατανομής μπορεί να είναι περίπλοκη.

Υπάρχει ένα ζήτημα με αυτήν τη στρατηγική: τι γίνεται αν ένας από τους κάδους έχει μηδενικά δείγματα; Μια πιθανότητα μηδέν θα παρακάμψει οτιδήποτε άλλο στους τύπους μας, έτσι ώστε αντί να πιστεύει ότι αυτός ο κάδος είναι απλώς απίθανος, ο ταξινομητής μας θα πιστεύει ότι είναι αδύνατο. Υπάρχουν πολλές πιθανές λύσεις, αλλά αυτή που λαμβάνεται εδώ είναι η εφαρμογή της Διόρθωσης Laplace: προσθέστε κάποια μικρή ποσότητα (ας πούμε, ένα στοιχείο) σε κάθε κάδο, για να τραβήξετε τις εκτιμήσεις πιθανοτήτων ελαφρώς προς το ομοιόμορφο και να λάβετε υπόψη το γεγονός ότι (στις περισσότερες περιπτώσεις) κανένας από τους κάδους δεν είναι πραγματικά αδύνατος. Ένας άλλος τρόπος για να αποφύγετε την εφαρμογή της διόρθωσης είναι να επιλέξετε κάδους που δεν είναι πολύ μικροί, έτσι ώστε οι κάδοι να μην έχουν μηδενικά δείγματα στην πράξη. Εάν έχετε πολλούς πολλούς πόντους, μπορείτε να έχετε περισσότερους κάδους, αλλά διατρέχετε τον κίνδυνο να προσαρμόσετε υπερβολικά τα δεδομένα προπόνησής σας.

Εκτίμηση Προηγούμενων

Τώρα έχουμε μια μέθοδο για την προσέγγιση της κατανομής χαρακτηριστικών για μια δεδομένη κλάση, αλλά πρέπει ακόμα να γνωρίζουμε τη σχετική πιθανότητα των ίδιων των κλάσεων. Υπάρχουν τρεις γενικές προσεγγίσεις:

  1. Υπολογίστε τα προηγούμενα μετρώντας τη σχετική συχνότητα κάθε τάξης στα δεδομένα εκπαίδευσης. Αυτό είναι επιρρεπές σε μεροληψία, ωστόσο, καθώς τα διαθέσιμα δεδομένα συχνά στρέφονται δυσανάλογα προς τις λιγότερο κοινές τάξεις (καθώς αυτές στοχεύουν συχνά για ειδική μελέτη). Ωστόσο, εάν έχουμε ένα υψηλής ποιότητας (αντιπροσωπευτικό) δείγμα για τα δεδομένα προπόνησής μας, αυτό λειτουργεί πολύ καλά.
  2. Εκτίμηση από τη γνώση των ειδικών—μπορεί να υπάρχουν προηγούμενες εκτιμήσεις που ελήφθησαν με άλλες μεθόδους ανεξάρτητες από τα δεδομένα εκπαίδευσης μας, τις οποίες μπορούμε στη συνέχεια να χρησιμοποιήσουμε ως πρώτη προσέγγιση στις δικές μας προβλέψεις. Με άλλα λόγια, μπορείτε να ρωτήσετε τους ειδικούς ποιο είναι το ποσοστό των μιτοχονδριακών πρωτεϊνών.
  3. Ας υποθέσουμε ότι όλες οι κλάσεις είναι εξίσου πιθανές, θα το κάναμε συνήθως αν δεν έχουμε καθόλου πληροφορίες για τις πραγματικές συχνότητες. Αυτό είναι ουσιαστικά αυτό που κάνουμε όταν χρησιμοποιούμε την αρχή της μέγιστης πιθανότητας: ο αλγόριθμος ομαδοποίησης μας βασικά χρησιμοποιούσε την ανάλυση Bayes, με την υπόθεση ότι όλα τα προηγούμενα είναι ίσα. Αυτή είναι στην πραγματικότητα μια ισχυρή υπόθεση, αλλά όταν δεν έχετε άλλα δεδομένα, αυτό είναι το καλύτερο που μπορείτε να κάνετε.

Για την ταξινόμηση του μιτοχονδριακού DNA χρησιμοποιούμε τη μέθοδο (2), αφού κάποιες εκτιμήσεις για τις αναλογίες του mtDNA ήταν ήδη γνωστές. Αλλά υπάρχει μια επιπλοκή, υπάρχουν περισσότερα από 1 χαρακτηριστικά.

Πολλαπλά χαρακτηριστικά και Naive Bayes

Κατά την ταξινόμηση του μιτοχονδριακού DNA, εξετάσαμε 7 χαρακτηριστικά και όχι μόνο ένα. Για να χρησιμοποιήσουμε τις προηγούμενες μεθόδους με πολλαπλές δυνατότητες, δεν θα χρειαζόμασταν μόνο ένα δοχείο για κάθε μεμονωμένο εύρος χαρακτηριστικών, αλλά ένα για κάθε συνδυασμό χαρακτηριστικών, αν δούμε δύο χαρακτηριστικά με πέντε εύρη το καθένα, δηλαδή ήδη 25 θέσεις. Και τα επτά χαρακτηριστικά μας δίνουν σχεδόν 80.000 κάδους και μπορούμε να περιμένουμε ότι οι περισσότεροι από αυτούς τους κάδους θα είναι άδειοι απλώς και μόνο επειδή δεν έχουμε αρκετά εκπαιδευτικά δεδομένα για να τους γεμίσουμε όλους. Αυτό θα προκαλούσε προβλήματα επειδή τα μηδενικά προκαλούν άπειρες αλλαγές στις πιθανότητες να είναι σε μια κλάση. Είναι σαφές ότι αυτή η προσέγγιση δεν θα κλιμακωθεί καλά καθώς προσθέτουμε περισσότερα χαρακτηριστικά, επομένως πρέπει να εκτιμήσουμε τις συνδυασμένες πιθανότητες με καλύτερο τρόπο.

Η λύση που θα χρησιμοποιήσουμε είναι να υποθέσουμε ότι τα χαρακτηριστικά είναι ανεξάρτητα, δηλαδή ότι μόλις γνωρίζουμε την κλάση, η κατανομή πιθανοτήτων οποιουδήποτε χαρακτηριστικού δεν επηρεάζεται από τις τιμές των άλλων χαρακτηριστικών. Αυτή είναι η υπόθεση Nave Bayes, και είναι σχεδόν πάντα ψευδής, αλλά χρησιμοποιείται συχνά ούτως ή άλλως για τους συνδυασμένους λόγους ότι είναι πολύ εύκολο να χειριστεί κανείς μαθηματικά και συχνά είναι αρκετά κοντά στην αλήθεια ώστε να δίνει μια λογική προσέγγιση. (Σημειώστε ότι αυτή η υπόθεση δεν λέει ότι όλα τα χαρακτηριστικά είναι ανεξάρτητα: αν δούμε το συνολικό μοντέλο, μπορεί να υπάρχουν ισχυρές συνδέσεις μεταξύ διαφορετικών χαρακτηριστικών, αλλά η υπόθεση λέει ότι αυτές οι συνδέσεις διαιρούνται από τις διαφορετικές κλάσεις και ότι μέσα σε κάθε άτομο κατηγορία δεν υπάρχουν περαιτέρω εξαρτήσεις.) Επίσης, εάν γνωρίζετε ότι ορισμένα χαρακτηριστικά είναι συζευγμένα, θα μπορούσατε να μάθετε την κοινή κατανομή μόνο σε ορισμένα ζεύγη χαρακτηριστικών.

Μόλις υποθέσουμε την ανεξαρτησία, η πιθανότητα συνδυασμένων χαρακτηριστικών είναι απλώς το γινόμενο των επιμέρους πιθανοτήτων που σχετίζονται με κάθε χαρακτηριστικό. Έχουμε λοιπόν τώρα:

[ Pleft(f_{1}, f_{2}, K, f_{N} mid ight. Class )=Pleft(f_{1} mid ight. Class ) Pleft(f_ {2} mid ight. Class ) KPleft(f_{N} mid ight. Class ) onumber ]

Όπου η f1 αντιπροσωπεύει το χαρακτηριστικό 1. Ομοίως, η συνάρτηση διάκρισης μπορεί να αλλάξει στον πολλαπλασιασμό

των προηγούμενων πιθανοτήτων:
[ Gleft(f_{1}, f_{2}, K, f_{N} ight)=log left(frac{Pi Pleft(f_{1} mid ext { Class } 1 ight) P( ext { Class } 1)}{Pi Pleft(f_{1} mid ext { Class } 2 ight) P( ext { Class } 2)} ight) μη αριθμός ]

Δοκιμή ταξινομητή

Ένας ταξινομητής πρέπει πάντα να δοκιμάζεται σε δεδομένα που δεν περιέχονται στο εκπαιδευτικό του σύνολο. Μπορούμε να φανταστούμε στη χειρότερη περίπτωση έναν αλγόριθμο που απλώς απομνημόνευε τα δεδομένα εκπαίδευσης του και συμπεριφερόταν τυχαία σε οτιδήποτε άλλο, ένας ταξινομητής που το έκανε αυτό θα είχε τέλεια απόδοση στα δεδομένα εκπαίδευσης, αλλά αυτό δεν δείχνει τίποτα για την πραγματική του απόδοση σε νέες εισόδους. Αυτός είναι ο λόγος για τον οποίο είναι σημαντικό να χρησιμοποιήσετε ένα τεστ, ή ένα σετ, όπως αναφέρθηκε προηγουμένως. Ωστόσο, ένα απλό ποσοστό σφάλματος δεν περιλαμβάνει όλες τις πιθανές συνέπειες ενός σφάλματος. Για έναν απλό δυαδικό ταξινομητή (ένα αντικείμενο βρίσκεται είτε σε μία κλάση στόχο είτε όχι), υπάρχουν τα ακόλουθα για τύπους σφαλμάτων:

1. Αληθινό θετικό (TP)

2. Αληθινό αρνητικό (TN)

3. Εσφαλμένα θετικά (FP)

4. Εσφαλμένο αρνητικό (FN)

Η συχνότητα αυτών των σφαλμάτων μπορεί να ενσωματωθεί σε μετρήσεις απόδοσης ενός ταξινομητή που ορίζονται ως:

  1. Ευαισθησία Ποιο κλάσμα αντικειμένων που βρίσκονται σε μια κλάση χαρακτηρίζονται σωστά ως αυτή η κλάση; Δηλαδή ποιο κλάσμα έχει αληθινά θετικά αποτελέσματα; Υψηλή ευαισθησία σημαίνει ότι τα στοιχεία μιας κλάσης είναι πολύ πιθανό να επισημανθούν ως αυτή η κλάση. Η χαμηλή ευαισθησία σημαίνει ότι υπάρχουν πάρα πολλά ψευδώς αρνητικά.
  2. Ειδικότητα Ποιο κλάσμα αντικειμένων που δεν ανήκουν σε μια κλάση επισημαίνονται σωστά ότι δεν ανήκουν σε αυτήν την κλάση; Δηλαδή ποιο κλάσμα έχει αληθινά αρνητικά αποτελέσματα; Υψηλή εξειδίκευση σημαίνει ότι τα στοιχεία που επισημαίνονται ως ανήκουν σε μια κλάση είναι πολύ πιθανό να ανήκουν πραγματικά σε αυτήν. Χαμηλή ειδικότητα σημαίνει ότι υπάρχουν πάρα πολλά ψευδώς θετικά.

Στους περισσότερους αλγόριθμους υπάρχει α αντιστάθμιση ευαισθησίας και ειδικότητας. Για παράδειγμα, μπορούμε να φτάσουμε σε μια ευαισθησία 100% επισημαίνοντας τα πάντα ως ανήκουν στην κατηγορία-στόχο, αλλά θα έχουμε μια ιδιαιτερότητα 0%, επομένως αυτό δεν είναι χρήσιμο. Γενικά, οι περισσότεροι αλγόριθμοι έχουν κάποια περικοπή πιθανότητας που χρησιμοποιούν για να αποφασίσουν εάν θα επισημάνουν ένα αντικείμενο ότι ανήκει σε μια κλάση (για παράδειγμα, η διάκριση συνάρτησή μας παραπάνω). Η αύξηση αυτού του ορίου αυξάνει την ειδικότητα αλλά μειώνει την ευαισθησία και η μείωση του κατωφλίου κάνει το αντίστροφο. Ο αλγόριθμος MAESTRO για την ταξινόμηση των μιτοχονδριακών πρωτεϊνών (που περιγράφεται σε αυτή τη διάλεξη) επιτυγχάνει 99% ειδικότητα και 71% ευαισθησία.

Ταξινόμηση μιτοχονδριακών πρωτεϊνών MAESTRO

Βρίσκουν μια κατανομή εξαρτώμενη από την τάξη για κάθε χαρακτηριστικό δημιουργώντας αρκετούς κάδους και αξιολογώντας την αναλογία μιτοχονδριακών και μη μιτοχονδριακών πρωτεϊνών σε κάθε δοχείο. Αυτό σας επιτρέπει να αξιολογήσετε το χρησιμότητα κάθε χαρακτηριστικού στην ταξινόμηση. Καταλήγετε με ένα σωρό ταξινομητές μέσης αντοχής, αλλά όταν τους συνδυάζετε μαζί, ελπίζουμε να καταλήξετε με έναν ισχυρότερο ταξινομητή. Calvo et al. [1] προσπάθησε να κατασκευάσει υψηλής ποιότητας προβλέψεις ανθρώπινων πρωτεϊνών που εντοπίζονται στο μιτοχόνδριο δημιουργώντας και ενσωματώνοντας σύνολα δεδομένων που παρέχουν συμπληρωματικές ενδείξεις σχετικά με τον εντοπισμό των μιτοχονδρίων. Συγκεκριμένα, για κάθε προϊόν ανθρώπινου γονιδίου p, αποδίδουν βαθμολογία sΕγώ(p), χρησιμοποιώντας καθένα από τα ακόλουθα επτά σύνολα δεδομένων κλίμακας γονιδιώματος που στοχεύουν τη βαθμολογία σήματος, τη βαθμολογία τομέα πρωτεΐνης, τη βαθμολογία cis-μοτίβου, τη βαθμολογία ομολογίας ζυμομύκητα, τη βαθμολογία καταγωγής, τη βαθμολογία συνέκφρασης και τη βαθμολογία επαγωγής (λεπτομέρειες για κάθε νόημα και περιεχόμενο καθένα από αυτά τα σύνολα δεδομένων μπορεί να βρεθεί στο χειρόγραφο). Κάθε μία από αυτές τις βαθμολογίες s1 − Σ7 μπορεί να χρησιμοποιηθεί μεμονωμένα ως ασθενής προγνωστικός δείκτης μιτοχονδριακού εντοπισμού σε όλο το γονιδίωμα. Η απόδοση κάθε μεθόδου αξιολογήθηκε χρησιμοποιώντας μεγάλα σετ προπόνησης με χρυσό πρότυπο - 654 μιτοχονδριακές πρωτεΐνες Τmito που διατηρείται από τη βάση δεδομένων MitoP21 και 2.847 μη μιτοχονδριακές πρωτεΐνες T mito σχολιασμένες για εντοπισμό σε άλλα κυτταρικά διαμερίσματα. Για να βελτιώσουν την ακρίβεια της πρόβλεψης, οι συγγραφείς ενσωμάτωσαν αυτές τις οκτώ προσεγγίσεις χρησιμοποιώντας έναν ταξινομητή Nave Bayes που εφαρμόστηκε ως πρόγραμμα που ονομάζεται MAESTRO. Έτσι μπορούμε να πάρουμε αρκετούς αδύναμους ταξινομητές και να τους συνδυάσουμε για να πάρουμε έναν ισχυρότερο ταξινομητή.

Όταν το MAESTRO εφαρμόστηκε σε όλο το ανθρώπινο πρωτεόμιο, 1451 πρωτεΐνες προβλέφθηκαν ως μιτοχονδριακές πρωτεΐνες και έγιναν 450 νέες προβλέψεις πρωτεϊνών. Όπως αναφέρθηκε στην προηγούμενη ενότητα, ο αλγόριθμος MAESTRO επιτυγχάνει ειδικότητα 99% και ευαισθησία 71% για την ταξινόμηση των μιτοχονδριακών πρωτεϊνών, υποδηλώνοντας ότι ακόμη και με την υπόθεση της ανεξαρτησίας χαρακτηριστικών, οι τεχνικές ταξινόμησης Nave Bayes μπορούν να αποδειχθούν εξαιρετικά ισχυρές για μεγάλης κλίμακας (π.χ. σε επίπεδο γονιδιώματος) ταξινόμηση κλίμακας.


1 Τα μιτοχόνδρια είναι ο μηχανισμός παραγωγής ενέργειας των κυττάρων. Πολύ νωρίς στη ζωή, τα μιτοχόνδρια καταποντίστηκαν από τους προκάτοχους των σύγχρονων ευκαρυωτών και τώρα, έχουμε διαφορετικά διαμερίσματα στα κύτταρά μας. Έτσι, το μιτοχόνριο έχει το δικό του γονιδίωμα, αλλά είναι πολύ εξαντλημένο από το δικό του γονιδίωμα των προγόνων - μόνο περίπου 11 γονίδια έχουν απομείνει. Αλλά υπάρχουν εκατοντάδες γονίδια που κάνουν τα μιτοχόνδρια να λειτουργούν, και αυτές οι πρωτεΐνες κωδικοποιούνται από γονίδια που μεταγράφονται στον πυρήνα και στη συνέχεια μεταφέρονται στα μιτοχόνδρια. Ο στόχος λοιπόν είναι να καταλάβουμε ποιες πρωτεΐνες που κωδικοποιούνται στο γονιδίωμα στοχεύουν στα μιτοχόνδρια. Αυτό είναι σημαντικό γιατί υπάρχουν πολλές ασθένειες που σχετίζονται με τα μιτοχόνρια, όπως η γήρανση.


Μπεϋζιανή ενοποίηση δεδομένων: μια λειτουργική προοπτική

Η ακριβής πρόβλεψη της πρωτεϊνικής λειτουργίας και των αλληλεπιδράσεων από διάφορα γονιδιωματικά δεδομένα είναι ένα βασικό πρόβλημα στη βιολογία των συστημάτων. Η ετερογενής ενοποίηση δεδομένων παραμένει μια πρόκληση, ιδιαίτερα λόγω των θορυβωδών πηγών δεδομένων, της ποικιλομορφίας της κάλυψης και των λειτουργικών προκαταλήψεων. Είναι επομένως σημαντικό να κατανοήσουμε τη συμπεριφορά και την ευρωστία των μεθόδων ολοκλήρωσης δεδομένων στο πλαίσιο διαφόρων βιολογικών λειτουργιών. Εστιάζουμε στην ικανότητα των δικτύων Bayes να προβλέπουν λειτουργικές σχέσεις μεταξύ πρωτεϊνών κάτω από ποικίλες συνθήκες. Αυτή η μελέτη εξετάζει την επίδραση της δομής του δικτύου και συγκρίνει τις εκτιμώμενες υπό όρους πιθανότητες από ειδικούς με αυτές που έχουν μάθει χρησιμοποιώντας μια μέθοδο παραγωγής (μεγιστοποίηση προσδοκιών) και μια διακριτική μέθοδο (εκτεταμένη λογιστική παλινδρόμηση). Λαμβάνουμε υπόψη τις συνεισφορές μεμονωμένων πηγών δεδομένων και ερμηνεύουμε αυτά τα αποτελέσματα τόσο σε παγκόσμιο επίπεδο όσο και στο πλαίσιο συγκεκριμένων βιολογικών διεργασιών. Διαπιστώνουμε ότι είναι κρίσιμο να λαμβάνεται υπόψη η διακύμανση μεταξύ βιολογικών λειτουργιών, ακόμη και όταν η συνολική απόδοση είναι ισχυρή, ορισμένες κατηγορίες προβλέπονται σταθερά καλά και άλλες είναι δύσκολο να αναλυθούν. Όλα τα μοντέλα που έχουν μάθει ξεπερνούν την απόδοση των ισοδύναμων μοντέλων που εκτιμούν οι ειδικοί, αν και αυτό το αποτέλεσμα μειώνεται καθώς μειώνεται ο όγκος των διαθέσιμων δεδομένων. Αυτές οι τεχνικές εκμάθησης δεν είναι συγκεκριμένες για τα δίκτυα Bayes, και επομένως τα συμπεράσματά μας θα πρέπει να γενικευτούν σε άλλες μεθόδους για την ενοποίηση δεδομένων. Συνολικά, η Bayesian μάθηση παρέχει σταθερό όφελος στην ενοποίηση δεδομένων, αλλά η απόδοσή της και ο αντίκτυπος των ετερογενών πηγών δεδομένων πρέπει να ερμηνεύονται από την οπτική γωνία των επιμέρους λειτουργικών κατηγοριών.


ΕΙΣΑΓΩΓΗ

Τα πολλαπλασιαζόμενα κύτταρα υφίστανται δυναμικές αλλαγές στην υποκυτταρική οργάνωση κατά τη διάρκεια του κυτταρικού κύκλου. Ενώ οι δραματικές δομικές αναδιατάξεις στη μίτωση είναι πιο εμφανείς, τα υποκυτταρικά συστατικά αναδιοργανώνονται επίσης εκτενώς κατά τη διάρκεια της μεσόφασης. Για παράδειγμα, το DNA αντιγράφεται κατά τη φάση S, με αποτέλεσμα τον διπλασιασμό της περιεκτικότητας σε χρωματίνη και την αρμονική ρύθμιση του πυρηνικού μεγέθους (Webster et al., 2009 Mukherjee et al., 2016). Οργανίδια όπως η συσκευή Golgi και το ενδοπλασματικό δίκτυο έχουν επίσης δυναμική εξαρτώμενη από τον κυτταρικό κύκλο σε αριθμό ή μέγεθος ώστε να ευθυγραμμίζονται με τη μιτωτική κατανομή και κληρονομικότητα (Lowe and Barr, 2007 Mascanzoni et al., 2019). Σε μοριακό επίπεδο, η αρχιτεκτονική των κυτταροσκελετικών συστατικών όπως οι μικροσωληνίσκοι και τα νήματα ακτίνης έχει χαρακτηρίσει τη δυναμική φάσης του κυτταρικού κύκλου (Champion et al., 2017 Τζόουνς et al., 2019). Αν και αυτές οι δυναμικές αλλαγές είναι εμπειρικά γνωστές, η ανάπτυξη προόδου σε ποσοτικές αναλύσεις μορφολογίας κυττάρων χωρίς αναφορά, βασισμένες σε εικόνα, έχει περιοριστεί λόγω της έλλειψης πληροφοριών σχετικά με το ποια υποκυτταρικά χαρακτηριστικά και συστατικά ευθυγραμμίζονται επιλεκτικά με συγκεκριμένες φάσεις του κυτταρικού κύκλου.

Παραδοσιακά, οι προσεγγίσεις κυτταρικής απεικόνισης χρησιμοποιούν δείκτες κυτταρικού κύκλου για την παρακολούθηση της φάσης του κυτταρικού κύκλου. Αυτοί οι δείκτες εντοπίζονται στον πυρήνα και αλλάζουν τα επίπεδα έκφρασής τους ανάλογα με τη φάση του κυτταρικού κύκλου (Sakaue-Sawano et al., 2008 Gookin et al., 2017). Ενώ τέτοιοι δείκτες είναι πρακτικά χρήσιμοι για πολλούς τύπους πειραμάτων, είναι επίσης προκατειλημμένοι στις συνθήκες της πειραματικής έκφρασης και κατανομής τους (Sobecki et al., 2017 Miller et al., 2018). Για πολλούς τύπους βιολογικών ή κλινικών δειγμάτων, μια λιγότερο επεμβατική και πιο αμερόληπτη προσέγγιση στην ταξινόμηση των υποκυτταρικών συστατικών θα ήταν χρήσιμη. Για παράδειγμα, θα ήταν χρήσιμο να εντοπιστούν υποκυτταρικά συστατικά που αλλάζουν τον εντοπισμό ή τη χωρική τους οργάνωση στις φάσεις του κυτταρικού κύκλου. Επιπλέον, εάν τέτοια κοινά παρατηρούμενα συστατικά μπορούσαν να χρησιμοποιηθούν απευθείας ως δείκτες κυτταρικού κύκλου χωρίς αναφορά, θα επέτρεπε απλές, αμερόληπτες ποσοτικές μεθόδους ταξινόμησης κυττάρων με βάση τα εγγενή συστατικά του κυτταρικού κύκλου.

Η μηχανική μάθηση είναι μια αποδεδειγμένη υπολογιστική προσέγγιση που μπορεί να είναι χρήσιμη για την εξαγωγή χαρακτηριστικών που εξαρτώνται από τον κυτταρικό κύκλο χωρίς να γνωρίζουμε εκ των προτέρων σε ποιες παραμέτρους πρέπει να εστιάσουμε. Μια αυξανόμενη βιβλιογραφία δείχνει την πιθανή χρησιμότητα της μηχανικής μάθησης σε αμερόληπτες αναλύσεις εικόνας για κυτταρικές βιολογικές εφαρμογές. Για παράδειγμα, η κατάτμηση και ταξινόμηση βάσει μηχανικής μάθησης πραγματοποιήθηκαν σε διάφορους τύπους κυττάρων, συμπεριλαμβανομένων των καλλιεργημένων κυττάρων ζυμομύκητα και θηλαστικών (Boland and Murphy, 2001 Conrad et al., 2004 Nanni and Lumini, 2008 Chong et al., 2015 Xu et al., 2015, 2019 Pärnamaa and Parts, 2017 Zhang et al., 2020). Επίσης, η ταξινόμηση βάσει εικόνας μπορεί να συνδυαστεί με κυτταρομετρία ροής για την επίτευξη κυτταρομετρίας απεικόνισης ενός κυττάρου (Eulenberg et al., 2017 Fang et al., 2019 Γκούπτα et al., 2019 Meng et al., 2019), αν και η ταξινόμηση εντός των φάσεων, δηλαδή των φάσεων G1, S και G2 με βάση τις εικόνες κυττάρων είναι δύσκολη (Eulenberg et al., 2017). Τέλος, η ταξινόμηση μηχανικής μάθησης των μοτίβων εντοπισμού υποκυτταρικών πρωτεϊνών χρησιμοποιώντας μεγάλα σύνολα δεδομένων εικόνας είναι μια πολλά υποσχόμενη τάση (Sullivan et al., 2018 Schormann et al., 2020). Ως εκ τούτου, η χρήση μιας μηχανικής μάθησης στην ταξινόμηση με βάση την εικόνα της φάσης του κυτταρικού κύκλου θα ήταν μια χρήσιμη πρόοδος.

Σε αυτή τη μελέτη, αναζητήσαμε δύο κύριους στόχους: 1) να χρησιμοποιήσουμε τη μηχανική εκμάθηση για τη δημιουργία μιας ταξινόμησης κυτταρικού κύκλου βάσει εικόνας και 2) να προσδιορίσουμε ποσοτικά τους ταξινομητές για τη φάση του κυτταρικού κύκλου με βάση βασικά χαρακτηριστικά που διαφέρουν από τους τρέχοντες δείκτες κυτταρικού κύκλου. Εφαρμόσαμε ένα συνελικτικό νευρωνικό δίκτυο (CNN) που είναι γνωστό ότι είναι αποτελεσματικό για ταξινόμηση εικόνων στην κυτταρική βιολογία (Dürr and Sick, 2016 Xu et al., 2017 Rodrigues et al., 2019) και στη συνέχεια καθιέρωσε έναν υπολογιστικό αγωγό όπου 1) οι μικροσκοπικές εικόνες σημασμένων με φθορισμό κυττάρων ταξινομούνται σύμφωνα με τη φάση του κυτταρικού κύκλου τους, 2) τα υποψήφια χαρακτηριστικά επιλέγονται με ερμηνεία μοντέλου και 3) η αναγνώριση βασικών χαρακτηριστικών που αντιπροσωπεύουν τη φάση του κυτταρικού κύκλου. Εστιάζουμε στα Hoechst (DNA), GM130 (Golgi) και EB1 (μικροσωληνίσκου συν-άκρα) και δείχνουμε ότι συνδυασμοί χαρακτηριστικών από αυτά τα υποκυτταρικά συστατικά αντιπροσωπεύουν ποσοτικά τις φάσεις G1/S και G2 των ανθρώπινων καλλιεργημένων κυττάρων. Η προσέγγιση απαιτεί μόνο συμβατικό εξοπλισμό μικροσκοπίου και τακτικές κυτταρικές προετοιμασίες, καθιστώντας εύκολη την εφαρμογή σε ένα ευρύ φάσμα μελετών που χρησιμοποιούν βιολογικές και ιατρικές εικόνες.


Αποψη

Η ευρεία υιοθέτηση των Μπεϋζιανών στατιστικών σε όλους τους κλάδους αποτελεί απόδειξη της δύναμης του Μπεϋζιανού παραδείγματος για την κατασκευή ισχυρών και ευέλικτων στατιστικών μοντέλων μέσα σε ένα αυστηρό και συνεκτικό πλαίσιο πιθανοτήτων. Οι σύγχρονοι επαγγελματίες του Bayes έχουν πρόσβαση σε πληθώρα γνώσεων και τεχνικών που επιτρέπουν τη δημιουργία εξατομικευμένων μοντέλων και υπολογιστικών προσεγγίσεων για συγκεκριμένα προβλήματα. Οι πιθανολογικές γλώσσες προγραμματισμού, όπως η Stan, μπορούν να αφαιρέσουν πολλές από τις λεπτομέρειες υλοποίησης για πολλές εφαρμογές, επιτρέποντας την εστίαση να παραμείνει στις βασικές αρχές της μοντελοποίησης και του σχεδιασμού.

Μια συνεχιζόμενη πρόκληση για τις Bayesian στατιστικές είναι οι συνεχώς αυξανόμενες απαιτήσεις που τίθενται από όλο και πιο πολύπλοκες εφαρμογές του πραγματικού κόσμου, οι οποίες συχνά συνδέονται με ζητήματα όπως μεγάλα σύνολα δεδομένων και αβεβαιότητες σχετικά με τις προδιαγραφές του μοντέλου. Όλα αυτά συμβαίνουν στο πλαίσιο της ραγδαίας προόδου στο υπολογιστικό υλικό, της εμφάνισης καινοτόμων προσεγγίσεων ανάπτυξης λογισμικού και της ανάπτυξης των επιστημών δεδομένων, η οποία έχει προσελκύσει ένα μεγαλύτερο και πιο ετερογενές επιστημονικό κοινό από ποτέ. Τα τελευταία χρόνια, η αναθεώρηση και η εκλαΐκευση του όρου τεχνητή νοημοσύνη για να συμπεριλάβει ένα ευρύ φάσμα ιδεών, συμπεριλαμβανομένων των στατιστικών και των υπολογισμών, έχει θολώσει τα παραδοσιακά όρια μεταξύ αυτών των κλάδων. Αυτό ήταν εξαιρετικά επιτυχές στη διάδοση πιθανοτικών μοντέλων και Μπεϋζιανών εννοιών έξω από τις παραδοσιακές τους ρίζες στη στατιστική, αλλά έχει δει επίσης μετασχηματισμούς στον τρόπο με τον οποίο εκτελείται το συμπέρασμα Μπεϋζιανό και νέα ερωτήματα σχετικά με το πώς οι Μπεϋζιανές προσεγγίσεις μπορούν να συνεχίσουν να βρίσκονται στην πρωτοποριακή γραμμή της έρευνας. στην τεχνητή νοημοσύνη.

Με γνώμονα την ανάγκη υποστήριξης εφαρμογών μεγάλης κλίμακας που περιλαμβάνουν σύνολα δεδομένων αυξανόμενης διαστάσεις και αριθμούς δειγμάτων, οι μπεϋζιανές έννοιες έχουν εκμεταλλευτεί την ανάπτυξη νέων τεχνολογιών με επίκεντρο τη βαθιά μάθηση. Αυτό περιλαμβάνει πλαίσια προγραμματισμού βαθιάς μάθησης (TensorFlow 203 , PyTorch 204 ), τα οποία απλοποιούν τη χρήση των DNN, επιτρέποντας την κατασκευή πιο εκφραστικών μοντέλων που βασίζονται σε δεδομένα που είναι άμεσα επιδεκτικά σε τεχνικές εξαγωγής συμπερασμάτων χρησιμοποιώντας αλγόριθμους βελτιστοποίησης off-the-shelf και υλικό τελευταίας τεχνολογίας. Εκτός από την παροχή ενός ισχυρού εργαλείου για τον καθορισμό ευέλικτων και σπονδυλωτών μοντέλων παραγωγής, τα DNN έχουν χρησιμοποιηθεί για την ανάπτυξη νέων προσεγγίσεων για κατά προσέγγιση συμπεράσματα και τονώνουν ένα νέο παράδειγμα για την Μπεϋζιανή πρακτική που βλέπει την ενοποίηση της στατιστικής μοντελοποίησης και του υπολογισμού στον πυρήνα της.

Ένα αρχετυπικό παράδειγμα είναι ο μεταβλητός αυτόματος κωδικοποιητής 205, ο οποίος έχει χρησιμοποιηθεί επιτυχώς σε διάφορες εφαρμογές, συμπεριλαμβανομένης της γονιδιωματικής ενός κυττάρου 190,191, παρέχοντας ένα γενικό πλαίσιο μοντελοποίησης που οδήγησε σε πολυάριθμες επεκτάσεις, συμπεριλαμβανομένης της αποσύμπλεξης λανθάνοντος παράγοντα 206,207,208. Το υποκείμενο στατιστικό μοντέλο είναι ένα απλό μοντέλο ιεραρχικής λανθάνουσας μεταβλητής Bayes, το οποίο χαρτογραφεί παρατηρήσεις υψηλών διαστάσεων σε λανθάνουσες μεταβλητές χαμηλής διάστασης που υποτίθεται ότι κατανέμονται κανονικά μέσω συναρτήσεων που ορίζονται από DNN. Το συμπέρασμα μεταβλητής χρησιμοποιείται για την προσέγγιση της μεταγενέστερης κατανομής στις λανθάνουσες μεταβλητές. Ωστόσο, στο τυπικό συμπέρασμα μεταβλητής θα εισάγαμε μια τοπική μεταβλητή παράμετρο για κάθε λανθάνουσα μεταβλητή, στην οποία περίπτωση οι υπολογιστικές απαιτήσεις θα κλιμακωθούν γραμμικά με τον αριθμό των δειγμάτων δεδομένων. Οι αυτόματες κωδικοποιητές παραλλαγών χρησιμοποιούν μια περαιτέρω διαδικασία προσέγγισης γνωστή ως απόσβεση για να αντικαταστήσουν το συμπέρασμα σε πολλές μεμονωμένες παραμέτρους μεταβλητής με ένα ενιαίο σύνολο παραμέτρων - γνωστό ως δίκτυο αναγνώρισης - που χρησιμοποιούνται για την παραμετροποίηση ενός DNN που εξάγει τις τοπικές παραμέτρους μεταβλητότητας για κάθε σημείο δεδομένων .

Αξιοσημείωτο είναι ότι όταν το μοντέλο και το συμπέρασμα συνδυάζονται και ερμηνεύονται μαζί, ο αυτόματος κωδικοποιητής μεταβλητών έχει μια κομψή ερμηνεία ως αλγόριθμος κωδικοποίησης-αποκωδικοποίησης: αποτελείται από έναν πιθανό κωδικοποιητή - ένα DNN που αντιστοιχίζει κάθε παρατήρηση σε μια κατανομή στον λανθάνοντα χώρο - και πιθανοτικός αποκωδικοποιητής — ένα συμπληρωματικό DNN που αντιστοιχίζει κάθε σημείο στον λανθάνοντα χώρο σε μια κατανομή στο χώρο παρατήρησης. Έτσι, οι προδιαγραφές και τα συμπεράσματα του μοντέλου έχουν μπλέξει μέσα στον αυτόματο κωδικοποιητή μεταβλητών, αποδεικνύοντας τα ολοένα και πιο θολά όρια μεταξύ της βασισμένης Bayesian μοντελοποίησης και των αλγοριθμικών τεχνικών βαθιάς μάθησης. Άλλα πρόσφατα παραδείγματα περιλαμβάνουν τη χρήση DNN για την κατασκευή πιθανοτικών μοντέλων που ορίζουν κατανομές σε πιθανές συναρτήσεις 209.210.211, δημιουργούν πολύπλοκες κατανομές πιθανοτήτων εφαρμόζοντας μια ακολουθία αντιστρέψιμων μετασχηματισμών 212.213 και ορίζουν μοντέλα για δεδομένα ανταλλάξιμων ακολουθιών 214.

Η εκφραστική ισχύς των DNN και η χρησιμότητά τους σε αλγόριθμους κατασκευής μοντέλων και συμπερασμάτων συνοδεύονται από συμβιβασμούς που θα απαιτήσουν Μπεϋζιανή έρευνα. Η τάση για εμπλοκή μοντέλων και συμπερασμάτων έχει διαδώσει αυτές τις τεχνικές για προβλήματα δεδομένων μεγάλης κλίμακας, ωστόσο, οι θεμελιώδεις μπεϋζιανές έννοιες παραμένουν να ενσωματωθούν πλήρως σε αυτό το παράδειγμα. Οι προσεγγίσεις θεωρητικής απόφασης που ολοκληρώνουν και υπολογίζουν τον μέσο όρο του μοντέλου βασίζονται σε ακριβή οπίσθιο χαρακτηρισμό, ο οποίος παραμένει άπιαστος λόγω της πρόκλησης που τίθεται από τους χώρους παραμέτρων νευρωνικών δικτύων υψηλών διαστάσεων 215 . Παρόλο που οι Bayesian προσεγγίσεις για τη μάθηση νευρωνικών δικτύων υπάρχουν εδώ και δεκαετίες 216.217.218.219, απαιτείται περαιτέρω διερεύνηση προηγούμενων προδιαγραφών για σύγχρονα μοντέλα βαθιάς μάθησης Bayes που περιλαμβάνουν πολύπλοκες δομές δικτύου για να κατανοηθεί πώς τα priors μεταφράζονται σε συγκεκριμένες λειτουργικές ιδιότητες 220.

Πρόσφατες συζητήσεις στον τομέα της τεχνητής νοημοσύνης έχουν αμφισβητήσει την απαίτηση για Μπεϋζιανές προσεγγίσεις και έχουν επισημάνει πιθανές εναλλακτικές. Για παράδειγμα, τα βαθιά σύνολα 221 έχουν αποδειχθεί ότι είναι εναλλακτικές σε Μπεϋζιανές μεθόδους για την αντιμετώπιση της αβεβαιότητας του μοντέλου. Ωστόσο, πιο πρόσφατη εργασία έχει δείξει ότι τα βαθιά σύνολα μπορούν στην πραγματικότητα να ερμηνευθούν εκ νέου ως κατά προσέγγιση Μπεϋζιανό μοντέλο με μέσο όρο 222 . Ομοίως, η εγκατάλειψη είναι μια προσέγγιση τακτοποίησης που διαδόθηκε για χρήση στην εκπαίδευση των DNN για τη βελτίωση της ευρωστίας με την τυχαία εγκατάλειψη κόμβων κατά τη διάρκεια της εκπαίδευσης του δικτύου 223 . Η εγκατάλειψη έχει αποδειχθεί εμπειρικά ότι βελτιώνει τη γενίκευση και μειώνει την υπερπροσαρμογή. Μπεϋζιανές ερμηνείες της εγκατάλειψης έχουν προκύψει, συνδέοντάς το με μορφές Μπεϋζιανής προσέγγισης πιθανοτικών βαθιών Gaussian διεργασιών 224 . Αν και η πλήρης έκταση των Μπεϋζιανών αρχών δεν έχει ακόμη γενικευθεί σε όλες τις πρόσφατες εξελίξεις στην τεχνητή νοημοσύνη, είναι ωστόσο επιτυχία που η μπεϋζιανή σκέψη είναι βαθιά ενσωματωμένη και κρίσιμη για πολλές καινοτομίες που έχουν προκύψει. Η επόμενη δεκαετία είναι βέβαιο ότι θα φέρει ένα νέο κύμα συναρπαστικών καινοτόμων εξελίξεων για τη νοημοσύνη του Μπεϋζιάν.


Δες το βίντεο: Bayesian posterior sampling (Φεβρουάριος 2023).