bayes classifiers

64
Bayes Classifiers

Upload: felton

Post on 29-Jan-2016

50 views

Category:

Documents


0 download

DESCRIPTION

Bayes Classifiers. Θεώρημα Bayes. T ο θεώρημα Bayes εκφράζεται ως: όπου ω j η κλάση j και x το διάνυσμα χαρακτηριστικών Ένας τυπικός κανόνας απόφασης είναι να επιλέγουμε την κλάση με τη μέγιστη P[ ω j |x] P[ ω j ] εκ των προτέρων πιθανότητα P[ ω j | x] εκ των υστέρων πιθανότητα - PowerPoint PPT Presentation

TRANSCRIPT

Page 1: Bayes  Classifiers

Bayes Classifiers

Page 2: Bayes  Classifiers

Θεώρημα Bayes

Tο θεώρημα Bayes εκφράζεται ως:

– όπου ωj η κλάση j και x το διάνυσμα χαρακτηριστικών

Ένας τυπικός κανόνας απόφασης είναι να επιλέγουμε την κλάση με τη μέγιστη P[ωj|x]– P[ωj] εκ των προτέρων πιθανότητα– P[ωj|x] εκ των υστέρων πιθανότητα– P[x|ωj] πιθανοφάνεια– P[x] σταθερά κανονικοποίησης

Page 3: Bayes  Classifiers

Λόγος Πιθανοφάνειας

Δεδομένου του θεωρήματος Bayes:

H P(x) μπορεί να απλοποιηθεί και μετά από ανακατάταξη της σχέσης προκύπτει ο λόγος πιθανοφάνειας Λ(x) και ο κανόνας απόφασης του Bayes:

Page 4: Bayes  Classifiers

Κανόνας Απόφασης Bayes - Άσκηση

Δεδομένου προβλήματος ταξινόμησης με τις πιο κάτω υπό συνθήκη πιθανότητες και υποθέτοντας ίσες εκ των προτέρων πιθανότητες, εξάγετε κανόνα απόφασης.

Page 5: Bayes  Classifiers

Κανόνας Απόφασης Bayes - Λύση

Αντικαθιστώντας στον κανόνα:

Απλοποιώντας

Λογαριθμόντας

Page 6: Bayes  Classifiers

Κανόνας Απόφασης Bayes - Λύση

Page 7: Bayes  Classifiers

7

Πιθανότητα λάθους

22

11

in If

in If

xRx

xRx

0

0

)()( 12

x

x

e dxxpdxxpP

Συμπέρασμα

Page 8: Bayes  Classifiers

Gaussian συνάρτηση πυκνότητας πιθανότητας

Σύμφωνα με το θεώρημα κεντρικού ορίου, η συνάρτηση πυκνότητας πιθανότητας του αθροίσματος ενός πλήθους στατιστικώς ανεξάρτητων τυχαίων μεταβλητών, τείνει στη Gaussian συνάρτηση πυκνότητας πιθανότητας, όταν το πλήθος των όρων τείνει στο άπειρο.

Page 9: Bayes  Classifiers

9

Gaussian pdf πολλών μεταβλητών

όπου

Και ο Πίνακας συνδιασποράς

Gaussian συνάρτηση πυκνότητας πιθανότητας

Page 10: Bayes  Classifiers

10

Ταξινομητές Ελάχιστης Απόστασης

Ο Βέλτιστος Bayesian ταξινομητής, απλοποιείται σημαντικά όταν:– Οι κλάσεις είναι ισοπίθανες– Τα δεδομένα σε όλες τις κλάσεις

ακολουθούν κανονική κατανομή– Το μητρώο συνδιασποράς είναι το ίδιο για

όλες τις κλάσεις– Το μητρώο συνδιασποράς είναι διαγώνιο

με όλα τα στοιχεία ίσα S=σ2Ι

Page 11: Bayes  Classifiers

11

Αν ισχύουν οι περιορισμοί ο Βayes classifier γίνεται: Euclidean Distance:

Αν δεν ισχύει ο τελευταίος περιορισμός γίνεται:

Mahalanobis Distance:

Ταξινομητές Ελάχιστης Απόστασης

Page 12: Bayes  Classifiers

Επιβλεπόμενη vs Μη-Επιβλεπόμενη Μάθηση

Μέχρι τώρα θεωρήσαμε μεθόδους αναγνώρισης με classification όπου το πρότυπο χαρακτηρίζεται από τα μεγέθη {x,ω}

Αυτά τα προβλήματα αναγνώρισης ονομάζονται Επιβλεπόμενα (supervised) αφού διατίθενται και το χαρακτηριστικό διάνυσμα και η σωστή απάντηση.

Υπάρχουν όμως περιπτώσεις όπου δίνεται το χαρακτηριστικό διάνυσμα χωρίς την κλάση.

Αυτές οι μέθοδοι καλούνται Μη-Επιβλεπόμενες (unsupervised) λόγω του ότι δεν χρησιμοποιούν τη σωστή απάντηση.

Page 13: Bayes  Classifiers

Επιβλεπόμενη vs Μη-Επιβλεπόμενη Μάθηση

Αν και η μέθοδοι μη επιβλεπόμενης μάθηση φαίνονται περιορισμένων δυνατοτήτων υπάρχουν πολλές περιπτώσεις που επιβάλλεται η χρήση τους:

Ο χαρακτηρισμός πολλών δεδομένων μπορεί να αποβεί δαπανηρός (π.χ. αναγνώριση ομιλίας)

Το είδος της κλάσης μπορεί να μην είναι γνωστό εξ’αρχής.

Page 14: Bayes  Classifiers

Κατηγοριοποιήση των μη-επιβλεπόμενων μεθόδων εκμάθησης

Παραμετρικές (μείγματα κατανομών): Αυτές οι μέθοδοι μοντελοποιούν την υπό συνθήκη πυκνότητα πιθανότητας με ένα μίγμα παραμετρικών πυκνοτήτων με σκοπό να βρουν τις παραμέτρους του μοντέλου.

Μη-παραμετρικές (clustering): Δεν γίνεται υπόθεση για την πυκνότητα πιθανότητα αλλά επιχειρείται διαχωρισμός των δεδομένων σε clusters.

Page 15: Bayes  Classifiers

Μοντέλα Μίξης Θεωρήστε το πρόβλημα μοντελοποίησης

συνάρτησης πυκνότητας πιθανότητας δεδομένου ενός συνόλου δεδομένων X={x(1, x(2, …, x(N}

Αν η μορφή πυκνότητας ήταν γνωστή το πρόβλημα θα λύνονταν με το κριτήριο της Μέγιστης Πιθανότητας

Αν η μορφή πυκνότητας ήταν άγνωστη, θα μπορούσε να λυθεί με τα παράθυρα Parzen

Page 16: Bayes  Classifiers

Μοντέλα Μίξης Εδώ θα θεωρήσουμε μια εναλλακτική

μέθοδο εκτίμησης της πυκνότητας, μέσω μείγματος παραμετρικών πυκνοτήτων

Page 17: Bayes  Classifiers

Ο αλγόριθμος ΕΜ (Expectation Maximization -μεγιστοποίηση

αναμονής) Ο ΕΜ είναι γενική μέθοδος για την εκτίμηση

της μέγιστης πιθανότητας όταν λείπουν δεδομένα.

Χρησιμοποιείται όταν όντως έχουν καταστραφεί ή λείπουν δεδομένα ή ότι η υπόθεση ότι λείπουν δεδομένα απλοποιεί τη συνάρτηση πιθανότητας

Υποθέστε σύνολο δεδομένων που περιέχει δύο είδη χαρακτηριστικών: τα Χ που είναι γνωστά και τα Ζ που είναι άγνωστα

Page 18: Bayes  Classifiers

Ο αλγόριθμος ΕΜ (Expectation Maximization -μεγιστοποίηση

αναμονής) Ορίζουμε μια συνάρτηση κατανομής

πιθανότητας όλων των δεδομένων p(X,Z|θ) όπου θ={μ,Σ}

Η συνάρτηση είναι τυχαίας μεταβλητής ως προς Ζ δηλ. p(X,Z|θ)=hX,θ(Z)

Ο ΕΜ έχει δύο λειτουργίες που επαναλαμβάνει:– Μια λειτουργία αναμονής (Expectation)– Μια λειτουργία μεγιστοποίησης

(Maximization)

Page 19: Bayes  Classifiers

Ο αλγόριθμος ΕΜ (Expectation Maximization -μεγιστοποίηση

αναμονής)ANAMONH Υπολόγισε την αναμενόμενη τιμή της

πιθανότητας log[p(X,Z|θ)] ως προς τα άγνωστα δεδομένα Ζ, δεδομένων των Χ και την τρέχουσα τιμή θ(i-1

ΜΕΓΙΣΤΟΠΟΙΗΣΗ Υπολόγισε το όρισμα θ

Αποδεικνύεται ότι ο ΕΜ συγκλίνει σε τοπικό μέγιστο της συνάρτησης πιθανότητας

Page 20: Bayes  Classifiers

Ο αλγόριθμος ΕΜ (Expectation Maximization -μεγιστοποίηση

αναμονής) Κατά την Ε λειτουργία τα χαρακτηριστικά Ζ

διώχνονται με ολοκλήρωση Κατά την Μ λειτουργία υπολογίζονται οι τιμές

των παραμέτρων που μεγιστοποιούν την αναμενόμενη τιμή.

Αφού το Ζ είναι άγνωστο μεγιστοποιούμε τη λογαριθμική συνάρτηση πιθανότητας για όλες τις πιθανές τιμές του Ζ

Page 21: Bayes  Classifiers

Ο αλγόριθμος ΕΜ και μίγμα μοντέλων

Έχοντας ορίσει τον αλγόριθμο ΕΜ μπορούμε να λύσουμε το πρόβλημα μίγματος παραμετρικών κατανομών

Για λόγους απλοποίησης θα θεωρήσουμε πρόβλημα μιας μεταβλητής όπου όλα τα μέρη έχουν γνωστή τυπική απόκλιση σ.

Page 22: Bayes  Classifiers

Ο αλγόριθμος ΕΜ και μίγμα μοντέλων

Δεδομένου του συνόλου δεδομένων X={x(1, x(2, …, x(N}, ζητείται να υπολογίσουμε τις παραμέτρους του μοντέλου θ={µ1, µ2, …µC}

Θεωρούμε ότι κάθε μεταβλητή x(n δημιουργήθηκε με τον εξής τρόπο:– Αρχικά μια κατανομή Gauss επιλέγεται

βάσει των συντελεστών του μίγματος P(ωc)

– Τότε, το x(n δημιουργείται βάσει της πιθανότητας p(x|µc) του συγκεκριμένου συστατικού

Σε ένα τέτοιο πρόβλημα, οι κρυφές μεταβλητές Z={z1

(n,z2(n,…zC

(n} χρησιμοποιούνται για να δείξουν ποια από τις C κατανομές Gauss παρήγαγε το x(n

Page 23: Bayes  Classifiers

Ο αλγόριθμος ΕΜ και μίγμα μοντέλων

Η πιθανότητα p(x,z|θ) για ένα συγκεκριμένο δείγμα είναι:

Μόνο ένα από τα zc(n μπορεί να είναι

1.

Page 24: Bayes  Classifiers

Ο αλγόριθμος ΕΜ και μίγμα μοντέλων

Η λογαριθμική συνάρτηση πιθανότητας για όλο το σύνολο θα είναι

Για να υπολογίσουμε το Q(θ|θ(i-1) πρέπει να πάρουμε τη μέση τιμής ως προς Ζ

E[zc(n] είναι η πιθανότητα το

παράδειγμα x(n να δημιουργήθηκε από τη c-στη κατανομή Gauss δεδομένων των παραμέτρων θ(i-1

Page 25: Bayes  Classifiers

Ο αλγόριθμος ΕΜ και μίγμα μοντέλων

Αυτές οι δύο εκφράσεις δίνουν την Q συνάρτηση:

Page 26: Bayes  Classifiers

Ο αλγόριθμος ΕΜ και μίγμα μοντέλων

Το δεύτερο βήμα (Maximization) είναι ο υπολογισμός των τιμών {µ1,µ2,…,µC} όπου μεγιστοποιεί τη συνάρτηση Q

Και υπολογίζοντας τα μηδενικά της μερικής παραγώγισης:

Page 27: Bayes  Classifiers

Ιστόγραμμα

Η πιο απλή μορφή μη παραμετρικής εκτίμησης πυκνότητας είναι το ιστόγραμμα

Χωρίζει το δειγματοχώρο σε μικρές περιοχές και προσεγγίζει την πυκνότητα από το πλήθος των δειγμάτων που εμπίπτουν στην κάθε περιοχή.

Page 28: Bayes  Classifiers

Ιστόγραμμα - Μειονεκτήματα

Το τελικό σχήμα της συνάρτησης πυκνότητας πιθανότητας εξαρτάται από το σημείο εκκίνησης των περιοχών

Η φαινομενική συνέχεια στα δεδομένα εξαρτάται από την επιλογή των περιοχών

Σε προβλήματα πολλών διαστάσεων θα απαιτούνται πολλά δείγματα αλλιώς ο σχηματισμός θα είναι ελλιπής.

Page 29: Bayes  Classifiers

Γενική διατύπωση εκτίμησης

Η πιθανότητα ένα διάνυσμα x, με κατανομή p(x), να ανήκει σε μια περιοχή είναι:

Αν υποθέσουμε ότι Ν είναι τα δείγματα της κατανομής, η πιθανότητα να ανήκουν k στην περιοχή , είναι:

R

dxxpP ')'(

kNk PPk

NkP

)1()(

Page 30: Bayes  Classifiers

Γενική διατύπωση εκτίμησης

Από τις ιδιότητες των διωνυμικών κατανομών έχουμε:

Που σημαίνει ότι όταν Ν→∞ η κατανομή γίνεται πιο αιχμηρή, άρα μπορούμε να θεωρήσουμε ότι μία καλή εκτίμηση της P είναι το μέσο των σημείων που εμπίπτουν στην :

PN

kE

N

kP

N

PPP

N

kE

N

kVar

)1(2

Page 31: Bayes  Classifiers

Γενική διατύπωση εκτίμησης

Αν υποθέσουμε ότι η περιοχή είναι τόσο μικρή που η p(x) δεν αλλάζει:

Και συνδυάζοντας με το προηγούμενο αποτέλεσμα:

Ο υπολογισμός είναι πιο ακριβής όσο αυξάνει το πλήθος των δειγμάτων Ν και μικραίνει ο όγκος V

R

Vxpdxxp )(')'(

NV

kxp

N

kP

VxpdxxpPR

)(

)(')'(

Page 32: Bayes  Classifiers

Γενική διατύπωση εκτίμησης

Στην προηγούμενη σχέση ο συνολικός αριθμός δειγμάτων Ν είναι σταθερός

Για να βελτιωθεί η ακρίβεια στην εκτίμηση του p(x) μπορούμε να ελαχιστοποιήσουμε τον όγκο (σχεδόν 0), αλλά τότε η περιοχή θα γίνει τόσο μικρή που δεν θα περιέχει πρακτικά δείγματα

Άρα θα πρέπει να γίνει ένας συμβιβασμός ώστε το V να είναι αρκετά μεγάλο για να περιέχει αρκετά δείγματα και αρκετά μικρό ώστε να στηρίζεται η υπόθεση ότι το p(x) παραμένει σταθερό εντός της

Page 33: Bayes  Classifiers

Γενική διατύπωση εκτίμησης

Στην πράξη δύο προσεγγίσεις ακολουθούνται:– Μπορούμε να επιλέξουμε μια σταθερή τιμή

για τον όγκο V και να υπολογίσουμε τα περιεχόμενα δείγματα από τα δεδομένα (Εκτίμηση Πυκνότητας Kernel)

– Μπορούμε να ορίσουμε σταθερό αριθμό δειγμάτων k και να υπολογίσουμε τον αντίστοιχο όγκο V από τα δεδομένα (k-Nearest Neighbours)

Αποδεικνύεται ότι και οι δύο πιο πάνω προσεγγίσεις συγκλίνουν στην πραγματική τιμή της συνάρτησης πυκνότητας πιθανότητας όταν N→∞, δεδομένου ότι ο όγκος V συρρικνώνεται και το k μεγαλώνει με το N,

Page 34: Bayes  Classifiers

Παράθυρα Parzen Αν υποθέσουμε ότι η περιοχή που

περικλείει k δείγματα είναι ένας κύβος πλευράς h κεντραρισμένος στο σημείο εκτίμησης x, ο όγκος είναι V=hD.

Για να βρούμε τον αριθμό των δειγμάτων στην περιοχή ορίζουμε την Kernel συνάρτηση:

Dju

uK j,...,12/1

0

1)(

Page 35: Bayes  Classifiers

Παράθυρα Parzen

Αυτή η συνάρτηση, μοναδιαίου υπερκύβου κεντραρισμένο στο x, ονομάζεται παράθυρο Parzen

Η ποσότητα K((x-x(n)/h) ισούται με τη μονάδα αν το σημείο x(n βρίσκεται μέσα στον κύβο.

Page 36: Bayes  Classifiers

Παράθυρα Parzen Ο συνολικός αριθμός

δειγμάτων μέσα στον κύβο είναι:

Και αν αντικαταστήσουμε στην έκφραση εκτίμησης της πυκνότητας πιθανότητας:

N

n

n

D h

xxK

Nhxp

1

1)(

N

n

n

h

xxKk

1

(

Page 37: Bayes  Classifiers

Παράθυρα Parzen - Άσκηση

Βάσει των δεδομένων που ακολουθούν, χρησιμοποίησε τα παράθυρα Parzen να υπολογίσετε τη συνάρτηση πυκνότητας πιθανότητας στα σημεία y=3,10,15. Χρησιμοποιήστε h=4

17,16,15,15,14,12,6,5,5,4,...,, (2(1( NxxxX

Page 38: Bayes  Classifiers

Παράθυρα Parzen - Λύση

Αν παραστήσουμε τα δεδομένα σε έναν άξονα, έχουμε:

Page 39: Bayes  Classifiers

Εκτίμηση Πυκνότητας με k-NN

Επιλέγοντας σταθερή τιμή για το k και ορίζοντας ελάχιστο όγκο V στο σύνολο δεδομένων που περικλείει τα k σημεία, εφαρμόζουμε τη μέθοδο του k πλησιέστερου γείτονα (k Nearest Neighbor kNN)

Page 40: Bayes  Classifiers

Εκτίμηση Πυκνότητας με k-NN

Στη μέθοδο k-NN μεγαλώνουμε τον όγκο που περικλείει το σημείο εκτίμησης x εωσότου περικλείει k σημεία δεδομένων.

Τότε η εκτίμηση πυκνότητας γίνεται:

Όπου Rk(x) είναι η απόσταση μεταξύ του σημείου εκτίμησης και του k-στού πλησιέστερου γείτονα.

cD είναι ο όγκος της μοναδιαίας σφαίρας στις D διαστάσεις, και είναι:

c1=2, c2=π, c3=4π/3 κλπ

)()(

xRcN

k

NV

kxP

DkD

!2/

2/

Dc

D

D

Page 41: Bayes  Classifiers

Εκτίμηση Πυκνότητας με k-NN

2RVol

2)(

RN

kxP

Page 42: Bayes  Classifiers

Εκτίμηση Πυκνότητας με k-NN

Η εκτίμηση με k-NN δεν είναι πολύ ικανοποιητική καθώς:– Η προσέγγιση επηρεάζεται από τοπικό

θόρυβο– Καθώς η συνάρτηση Rk(x) δεν είναι

παραγωγίσιμη θα υπάρχουν ασυνέχειες.– Το αποτέλεσμα θα αποκλίνει σε όλο το

δειγματοχώρο

Page 43: Bayes  Classifiers

Εκτίμηση Πυκνότητας με kNN για δύο Gaussians

4,102/11,02/1)( NNxP

Page 44: Bayes  Classifiers

Εκτίμηση Πυκνότητας με k-NN

Για δύο Gaussians όπου:

Εκτίμηση για k=10 γείτονες και Ν=200 δείγματα

),(2

1),(

2

1)( 2211 NNxp

4

1

1

12

1

1

1

05

50

2

1

2

1

Page 45: Bayes  Classifiers

Εκτίμηση Πυκνότητας με k-NN

Πραγματικά περιγράμματα Eκτίμησης με kNN

Page 46: Bayes  Classifiers

k-NN vs Bayes classifier

Το μεγαλύτερο πλεονέκτημα της μεθόδου k-NN είναι ότι αποτελεί μια πολύ απλή προσέγγιση του Bayes classifier

Ας υποθέσουμε ότι έχουμε ένα σύνολο δεδομένων με N δείγματα και Ni ανήκουν στην κλάση ωi και θέλουμε να ταξινομήσουμε άγνωστο δείγμα xu

Θεωρούμε όγκο V γύρω από το xu με k δείγματα συνολικά και έστω ki από ωi.

Page 47: Bayes  Classifiers

kNN vs Bayes classifier

Μπορούμε να προσεγγίσουμε τη συνάρτηση πιθανότητας με k-NN ως:

Παρόμοια η συνάρτηση πυκνότητας θα είναι:

Και οι εκ των προτέρων πιθανότητα

Αν τα βάλουμε όλα μαζί στο ταξινομητή Bayes

VN

kxP

i

ii |

NV

kxP )(

N

NP i

i )(

k

k

NVkNN

VNk

xP

PxPxP i

i

i

i

iii

||

Page 48: Bayes  Classifiers

Ο κανόνας ταξινόμησης του k πλησιέστερου γείτονα (k-NN)

Ο κανόνας του k Nearest Neighbor Rule (kNN) είναι διαισθητική μέθοδο που ταξινομεί άγνωστα δείγματα με βάσει την ομοιότητα τους με τα δείγματα εκπαίδευσης.

Για δεδομένο άγνωστο πρότυπο xu βρες τα k «κοντινότερα» δείγματα από τα δεδομένα εκπαίδευσης και απέδωσε το xu στην κλάση που εμφανίζεται πιο πολύ στο k-υποσύνολο

Page 49: Bayes  Classifiers

Κανόνας k-NN

Απαιτεί μόνο: Έναν ακέραιο k Ένα σετ γνωστών δειγμάτων

(σύνολο εκπαίδευσης) Ένα μέτρο «απόστασης»

Page 50: Bayes  Classifiers

Κανόνας k-NN

Στο παράδειγμα έχουμε 3 κλάσεις και άγνωστο δείγμα xu

Χρησιμοποιείται Ευκλείδεια απόσταση και k=5 γείτονες

4 γείτονες ανήκουν στην ω1 και 1 ανήκει στην ω3

Το xu κατατάσσεται στην ω1

Page 51: Bayes  Classifiers

k-NN - παράδειγμα Έχουμε δεδομένα για διδιάστατο

πρόβλημα 3 κλάσεων όπως φαίνεται στο δείγμα

Χρησιμοποιούμε k=5 και

Ευκλείδεια απόσταση

Page 52: Bayes  Classifiers

k-NN - παράδειγμα

Το ίδιο για άλλη διάταξη δεδομένων

Χρησιμοποιούμε k=5 και Ευκλείδεια απόσταση

Page 53: Bayes  Classifiers

O k-NN ως χαλαρός (lazy) αλγόριθμος

Ο kNN ανήκει στην κατηγορία των χαλαρών αλγορίθμων:– Επεξεργάζεται τα δεδομένα εκπαίδευσης

αφού ζητηθεί ταξινόμηση– Απαντάει στο αίτημα ταξινόμησης

συνδυάζοντας τα αποθηκευμένα δεδομένα εκπαίδευσης

– Δεν λαμβάνει υπόψη λογική ή άλλα αποτελέσματα.

Page 54: Bayes  Classifiers

lazy αλγόριθμοι

Tradeoffs χαλαρών αλγορίθμων Έχουν μικρότερο υπολογιστικό κόστος κατά την

εκπαίδευση Έχουν μεγαλύτερες απαιτήσεις αποθήκευσης και

υπολογιστικό κόστος κατά την κλήση τους.

Page 55: Bayes  Classifiers

Χαρακτηριστικά του k-NN

Πλεονεκτήματα Απλή υλοποίηση Πολύ καλά αποτελέσματα για μεγάλο αριθμό

δειγμάτων (N→∞)

Μειονεκτήματα Μεγάλη απαίτηση σε αποθηκευτικό χώρο Υπολογιστικό κόστος στην κλήση Ευάλωτος στην «κατάρα πολυδιάστατων

προβλημάτων»

Page 56: Bayes  Classifiers

k-NN vs1-ΝΝ

Μεγάλο k σημαίνει πιο ομαλές περιοχές αποφάσεων

Δίνει πιο σωστές πιθανοτικά πληροφορίες Ωστόσο πολύ μεγάλο k μπορεί να χαλάσει την

τοπικότητα της απόφασης Αυξάνει το υπολογιστικό κόστος

Page 57: Bayes  Classifiers

k-NN vs1-ΝΝ

Page 58: Bayes  Classifiers

Άσκηση 1

Κατηγοριοποίησε τα σημεία A, B και C χρησιμοποιώντας για κατηγοριοποίηση τον κανόνα 5-ΝΝ και Ευκλείδεια απόσταση

Page 59: Bayes  Classifiers

Λύση

Για το Α, για κάθε σημείο η Ευκλείδειος απόσταση θα είναι:

2)(2)(2

2)(1)(1 )( iAiAi yyyyd

Page 60: Bayes  Classifiers

Άσκηση 2Αν εφαρμόσουμε τον k-NN κανόνα απόφασης στο σχήμα της προηγούμενης άσκηση, θα πάρουμε περιοχές απόφασης και όριο απόφασης για τις δύο κλάσεις. Αν y(i) είναι τα χαρακτηριστικά διανύσματα της κλάσης 1 και s(i) της κλάσης 2, τότε σύμφωνα με τον ορισμό, κάθε σημείο του ορίου απόφασης θα πρέπει ικανοποιεί τη σχέση:

Υποθέστε Ευκλείδεια απόστασηΑ) ποια είναι η σχέση που καθορίζει το όριο απόφασης για

μια περιοχή κοντά στο όριο αν ένα διάνυσμα y(i) είναι πιο κοντά στο όριο για την κλάση 1 και το s(j) για την κλάση 2

Β) σχεδιάστε ένα όριο απόφασης για τις δύο κλάσειςΓ) βρείτε τα στοιχεία που η μετακίνηση τους δεν αλλάζει

το όριο

ii

i

isydyyd ,ˆmin,ˆmin

Page 61: Bayes  Classifiers

Λύση Για κάθε σημείο στο διάγραμμα

ισχύει:

Για σημείο του ορίου απόφασης

222

2

11

2

22

2

11 ˆˆˆˆ jjii sysyyyyy

02ˆ2ˆ2

2

2

2

2

1

2

1222111 jijiijij sysyysyysy

y

jjjiii sssyyy 2121 ,

ji sydyyd ,ˆ,ˆ

Page 62: Bayes  Classifiers

Λύση Θέτοντας

Έχουμε

02ˆ2ˆ2

2

2

2

2

1

2

1222111 jijiijij sysyysyysy

)(2 )(1

)(1

ij ysa )(2 )(2

)(2

ij ysb

2)(2

2)(2

2)(1

2)(1 )()()()( jiji sysyc

0ˆˆ 21 cybya

Page 63: Bayes  Classifiers

Λύση

Page 64: Bayes  Classifiers

64

Έστω και ο στόχος είναι να εκτιμηθείi = 1, 2, ..., Μ. Για μια «καλή» εκτίμηση της κατανομής θα χρειαστούν Νℓ σημεία.

Έστω x1, x2, ..., xℓ ανεξάρτητες μεταξύ τους μεταβλητές. Τότε

Σε αυτή την περίπτωση, κάποιος θα χρειαστεί, κατά προσέγγιση, Ν σημεία για κάθε pdf. Αρα συνολικά N · θα αρκούσαν.ℓ

x ixp |

1

||j

iji xpxp

NAIVE – BAYES CLASSIFIER