des mod¨les graphiques probabilistes aux modeles graphiques de dur©e

Download Des mod¨les graphiques probabilistes aux modeles graphiques de dur©e

If you can't read please download the document

Post on 04-Jul-2015

160 views

Category:

Education

0 download

Embed Size (px)

DESCRIPTION

journée Automates Probabilistes LINA, 8 nov. 2013, Nantes, France - introduction aux modèles graphiques probabilistes (MGP) - et aux MGP dynamiques - un exemple original : les modèles graphiques de durée

TRANSCRIPT

  • 1. Des mod`eles graphiques probabilistes aux mod`eles graphiques de duree Philippe LERAY philippe.leray@univ-nantes.fr Equipe COnnaissances et Decision LINA UMR 6241 Site de lEcole Polytechnique de lUniversite de Nantes

2. Introduction Mod`eles dynamiques Introduction Idee de depart des liens entre Automates Probabilistes et Mod`eles Graphiques Probabilistes Dynamiques je ny connais pas grand chose en Automates Probabilistes donc je vais parler de ce que je connais :-) Contenu introduction aux MGP MGP dynamiques un exemple original : mod`ele graphique de duree Philippe Leray MGP - RB - HMM - MGD 2/26 3. Introduction Mod`eles dynamiques Principe des MGP Representation des connaissances un noeud = une variable aleatoire (v.a.) un graphe comme mod`ele dindependance entre les v.a. Raisonnement des algorithmes dinference probabiliste tirant partie de la structure graphique du mod`ele Construction des connaissances a priori pouvant determiner tout ou partie de la structure graphique des algorithmes dapprentissage determinant le reste du mod`ele `a partir de donnees Philippe Leray MGP - RB - HMM - MGD 3/26 4. Introduction Mod`eles dynamiques Principe des MGP Representation des connaissances un noeud = une variable aleatoire (v.a.) un graphe comme mod`ele dindependance entre les v.a. 3 familles de mod`eles graphes diriges : reseaux bayesiens graphes non diriges : reseaux de Markov (MRF) graphes partiellement diriges : chain graphs Philippe Leray MGP - RB - HMM - MGD 4/26 5. Introduction Mod`eles dynamiques Reseaux bayesiens [Pearl 88] Grade Letter SAT IntelligenceDifculty d1 d0 0.6 0.4 i1i0 0.7 0.3 i0 i1 s1s0 0.95 0.2 0.05 0.8 g1 g2 g2 l1 l0 0.1 0.4 0.99 0.9 0.6 0.01 i0,d0 i0 ,d1 i0 ,d0 i0,d1 g2 g3g1 0.3 0.05 0.9 0.5 0.4 0.25 0.08 0.3 0.3 0.7 0.02 0.2 Philippe Leray MGP - RB - HMM - MGD 5/26 6. Introduction Mod`eles dynamiques Extensions A de nombreux probl`emes causalite : RB causal variables continues : RB gaussien, hybride (CG) temporalite : RB temporel , HMM, Filtre de Kalman decision : Diagramme dinuence classication : Naive Bayes, multinets, ... Obs0 Weather0 Velocity0 Location0 Failure0 Obs0 Weather0 Velocity0 Location0 Failure0 Obs1 Weather1 Velocity1 Location1 Failure1 Obs2 Weather2 Velocity2 Location2 Failure2 Obs' Weather Weather' Velocity Velocity' Location Location' Failure Failure' (c) DBN unrolled over 3 steps(b) 0(a) Time slice t Time slice t+1 Time slice 0 Time slice 0 Time slice 1 Time slice 2 Philippe Leray MGP - RB - HMM - MGD 6/26 7. Introduction Mod`eles dynamiques Reseaux de Markov [Kindermann&Snell 80] A2,1 A2,2 A3,1 A3,2 A3,3 A3,4 A4,1 A4,2 A4,3 A4,4 A2,3 A2,4 A1,1 A1,2 A1,3 A1,4 Philippe Leray MGP - RB - HMM - MGD 7/26 8. Introduction Mod`eles dynamiques Extensions A de nombreux probl`emes des structures historiques : mod`ele dIsing, machine de Boltzmann + var. latentes : Deep Belief Networks variables continues : Gaussian MRF temporalite : Dynamic MRF classication : Conditional Random Field Mrs. Green spoke today in New York Green chairs the nance committee B-PER I-PER OTH OTH OTH B-LOC I-LOC B-PER OTHOTHOTHOTH KEY Philippe Leray MGP - RB - HMM - MGD 8/26 9. Introduction Mod`eles dynamiques Chains graphs [Lauritzen 96] D BA IF G EC H D A F G C Philippe Leray MGP - RB - HMM - MGD 9/26 10. Introduction Mod`eles dynamiques Principe des MGP Raisonnement P(X|E)? des algorithmes dinference probabiliste tirant partie de la structure graphique du mod`ele RB, MRF, ... meme combat probl`eme NP-dicile heureusement, cest dans le pire des cas pour des probl`emes reels, il existe des algorithmes ecaces Algorithmes inference exacte : arbre de jonction, ... inference approche simulation : MCMC, ltrage particulaire, ... approximations variationnelles : Mean eld, ... Philippe Leray MGP - RB - HMM - MGD 10/26 11. Introduction Mod`eles dynamiques Exemple : arbre de jonction Principe convertir le MGP en un arbre de jonction de cliques faire circuler des messages dans cet arbre A noter generalisation dun vieux principe HMM : forward-backward [Rabiner 89] BN Polyarbres : Message Passing [Pearl 88] complexite : exponentielle par rapport `a la taille des cliques Philippe Leray MGP - RB - HMM - MGD 11/26 12. Introduction Mod`eles dynamiques Principe des MGP Construction des connaissances a priori pouvant determiner tout ou partie de la structure graphique des algorithmes dapprentissage determinant le reste du mod`ele `a partir de donnees Apprentissage generatif approcher P(X, Y ) pas de variable cible mod`ele plus general biais meilleur traitement des donnees incompl`etes Apprentissage discriminant approcher P(Y |X) une variable cible Y privilegiee mod`ele plus specique meilleurs resultats si donnees importantes Philippe Leray MGP - RB - HMM - MGD 12/26 13. Introduction Mod`eles dynamiques Taxonomie des taches dapprentissage MGP = un graphe et des param`etres apprentissage des param`etres / structure donnee apprentissage de la structure ... `a partir de donnees donnees compl`etes : maximum de vraisemblance donnees incompl`etes : exemple Expectation Maximisation [Dempster 77] variables latentes ? Philippe Leray MGP - RB - HMM - MGD 13/26 14. Introduction Mod`eles dynamiques Mod`eles dynamiques Quelques exemples chane de Markov mod`ele de Markov cache (HMM) reseaux bayesiens temporels mod`eles graphiques de duree Philippe Leray MGP - RB - HMM - MGD 14/26 15. Introduction Mod`eles dynamiques Chane de Markov Principe : mod`ele stochastique dun processus aleatoire X processus aleatoire = Xt variable aleatoire t discret (t = 1, 2, ...) X discret, decrit par n etats distincts pour estimer Xt, il faudrait connatre tout lhistorique X1 `a Xt1, et calculer P(Xt|X1...Xt1) Philippe Leray MGP - RB - HMM - MGD 15/26 16. Introduction Mod`eles dynamiques Chane de Markov Chane de Markov du premier ordre letat courant ne depend que de letat precedent P(Xt|X1...Xt1) = P(Xt|Xt1) cette loi de transition dun etat au suivant est independante de t P(Xt = j|Xt1 = i) = Aij A : matrice de transition : loi dinitialisation de la chane (P(X1)) X1 X2 XT-1 XT ... A A A Philippe Leray MGP - RB - HMM - MGD 16/26 17. Introduction Mod`eles dynamiques Autre representation Dans lespace des etats une autre mani`ere de representer la matrice de transition Dormir Jouer Manger 0.9 0.05 0.7 0.3 0.2 0.8 0.05 Philippe Leray MGP - RB - HMM - MGD 17/26 18. Introduction Mod`eles dynamiques Mod`ele de Markov Cache (HMM) Principe la variable observee Ot nest plus un processus markovien par contre, elle est generee par une variable non mesuree Ht et Ht processus markovien A : matrice de transition de H, P(Ht|Ht1) B : matrice demission P(Ot|Ht), independante de t : loi dinitialisation de la chane (P(H1)) HT HT-1 A OT OT-1 B H2 H1 A O2 O1 B ... B B A Philippe Leray MGP - RB - HMM - MGD 18/26 19. Introduction Mod`eles dynamiques Utilisation Prediction P(Ot+1|O1...Ot) ? algorithme Forward-Backward == Message Passing des RB Explication argmaxH1...Ht P(H1...Ht|O1...Ot) ? algorithme Viterbi == Inference abductive dans un RB Apprentissage ? D : on observe un (ou plusieurs) sequences O1...OT donnees incompl`etes : H jamais mesure quels sont les param`etres , A, B qui maximisent la vraisemblance ? algorithme Baum & Welch == adaptation de EM Philippe Leray MGP - RB - HMM - MGD 19/26 20. Introduction Mod`eles dynamiques Extensions des HMM Factorial HMM Input Output HMM HT HT-1 A OT OT-1 B H2 H1 A O2 O1 ... B B A HMM with transition emission Philippe Leray MGP - RB - HMM - MGD 20/26 21. Introduction Mod`eles dynamiques Extensions des RB 2TBN = 2-time-slice bayesian network generalisation des mod`eles precedents une tranche pour t = 1 une tranche pour t (= un graphe reliant les Xt) des relations entre t et t + 1 Philippe Leray MGP - RB - HMM - MGD 21/26 22. Introduction Mod`eles dynamiques Inference dans les 2TBN Inference exacte adaptation du Forward-backward conversion du 2TBN en HMM, pratique si NH petit unrolled junction tree derouler le 2TBN sur T et appliquer algo statique, pb = grandes cliques Frontier algorithm [Zweig 96] Interface algorithm [Murphy 01] ltrage et lissage de Kalman [Minka 98] Inference approchee algorithmes deterministes algorithmes stochastiques (echantillonnage) Philippe Leray MGP - RB - HMM - MGD 22/26 23. Introduction Mod`eles dynamiques Apprentissage des 2TBN Apprentissage de la structure Adaptation des algos / mod`eles statiques recherche gloutonne [Friedman 98] algorithmes genetiques [Gao et al. 07] recherche globale + optimisation globale [Dojer 06] [Vinh et al. 12] [Trabelsi et al. 13] + EM si donnees incompl`etes (complique) Apprentissage des param`etres Adaptation des algos / mod`eles statiques maximum de vraisemblance + EM si donnees incompl`etes (plus facile) Philippe Leray MGP - RB - HMM - MGD 23/26 24. Introduction Mod`eles dynamiques Mod`eles graphiques de duree Point de depart chane de Markov : la loi de duree (temps de sejour) dans un etat est geometrique mod`eles graphiques de duree : considerer le temps de sejour directement dans le mod`ele [Murphy 02] extensions + travaux dans le domaine de la abilite [Donat 09] Philippe Leray MGP - RB - HMM - MGD 24/26 25. Introduction Mod`eles dynamiques Mod`eles graphiques de duree tat du systme Var. exognes Temps de sjour Dclencher une transition Philippe Leray MGP - RB - HMM - MGD 25/26 26. Introduction Mod`eles dynamiques Conclusion ... ... qui nen est pas une plusieurs moyens de modeliser un processus aleatoire de plus en plus complexe introduction aux mod`eles graphiques probabilistes dynamiques des liens etroits avec les automates probabilistes une ouverture ? des mod`eles quil faudrait confronter ? des liens quil faudrait creuser ? Philippe Leray MGP - RB - HMM - MGD 26/26