usan - physique, information statistique et complexité algorithmique

26
Philosophia Scientiæ 11-2 (2007) Varia ................................................................................................................................................................................................................................................................................................ Pierre Uzan Physique, information statistique et complexité algorithmique ................................................................................................................................................................................................................................................................................................ Avertissement Le contenu de ce site relève de la législation française sur la propriété intellectuelle et est la propriété exclusive de l'éditeur. Les œuvres figurant sur ce site peuvent être consultées et reproduites sur un support papier ou numérique sous réserve qu'elles soient strictement réservées à un usage soit personnel, soit scientifique ou pédagogique excluant toute exploitation commerciale. La reproduction devra obligatoirement mentionner l'éditeur, le nom de la revue, l'auteur et la référence du document. Toute autre reproduction est interdite sauf accord préalable de l'éditeur, en dehors des cas prévus par la législation en vigueur en France. Revues.org est un portail de revues en sciences humaines et sociales développé par le Cléo, Centre pour l'édition électronique ouverte (CNRS, EHESS, UP, UAPV). ................................................................................................................................................................................................................................................................................................ Référence électronique Pierre Uzan, « Physique, information statistique et complexité algorithmique », Philosophia Scientiæ [En ligne], 11-2 | 2007, mis en ligne le 27 juin 2011, consulté le 14 juin 2015. URL : http:// philosophiascientiae.revues.org/347 ; DOI : 10.4000/philosophiascientiae.347 Éditeur : Université Nancy 2 http://philosophiascientiae.revues.org http://www.revues.org Document accessible en ligne sur : http://philosophiascientiae.revues.org/347 Document généré automatiquement le 14 juin 2015. La pagination ne correspond pas à la pagination de l'édition papier. Tous droits réservés

Upload: patricia-netto

Post on 16-Dec-2015

223 views

Category:

Documents


0 download

DESCRIPTION

Algoritmo e teoria da informação

TRANSCRIPT

  • Philosophia Scienti11-2 (2007)Varia

    ................................................................................................................................................................................................................................................................................................

    Pierre Uzan

    Physique, information statistique etcomplexit algorithmique................................................................................................................................................................................................................................................................................................

    AvertissementLe contenu de ce site relve de la lgislation franaise sur la proprit intellectuelle et est la proprit exclusive del'diteur.Les uvres figurant sur ce site peuvent tre consultes et reproduites sur un support papier ou numrique sousrserve qu'elles soient strictement rserves un usage soit personnel, soit scientifique ou pdagogique excluanttoute exploitation commerciale. La reproduction devra obligatoirement mentionner l'diteur, le nom de la revue,l'auteur et la rfrence du document.Toute autre reproduction est interdite sauf accord pralable de l'diteur, en dehors des cas prvus par la lgislationen vigueur en France.

    Revues.org est un portail de revues en sciences humaines et sociales dvelopp par le Clo, Centre pour l'ditionlectronique ouverte (CNRS, EHESS, UP, UAPV).

    ................................................................................................................................................................................................................................................................................................

    Rfrence lectroniquePierre Uzan, Physique, information statistique et complexit algorithmique, PhilosophiaScienti [En ligne], 11-2|2007, mis en ligne le 27 juin 2011, consult le 14 juin 2015. URL: http://philosophiascientiae.revues.org/347; DOI: 10.4000/philosophiascientiae.347

    diteur : Universit Nancy 2http://philosophiascientiae.revues.orghttp://www.revues.org

    Document accessible en ligne sur :http://philosophiascientiae.revues.org/347Document gnr automatiquement le 14 juin 2015. La pagination ne correspond pas la pagination de l'ditionpapier.Tous droits rservs

  • Physique, information statistique et complexit algorithmique 2

    Philosophia Scienti, 11-2 | 2007

    Pierre Uzan

    Physique, information statistique etcomplexit algorithmiquePagination de ldition papier : p. 121-162

    Introduction: Comment parler dinformation en physique?1 Le concept dinformation se trouve au cur de la physique actuelle. En physique quantique, le

    concept dinformation constitue le fondement mme de linterprtation minimale incontestede la notion de vecteur dtat comme outil prdictif contextuel. En effet, selon cetteinterprtation qui a t explore en profondeur par M. Bitbol, linformation dont disposelobservateur sur une situation exprimentale et qui permet le calcul des prdictions estencode dans le vecteur dtat (ou plus gnralement loprateur densit) reprsentatif de saprparation [Bitbol 1996].

    2 En mcanique statistique, classique ou quantique, le concept dinformation sest introduitlorsquon a cherch justifier la loi de croissance monotone de lentropie dun systme isol.Certains physiciens ont mme t jusqu interprter lentropie thermodynamique en termede manque dinformation, comme une mesure de notre ignorance de ltat microscopiquedu systme. Selon ce point de vue, qui a t introduit et dvelopp par Szillard, Shannon,Brillouin [Szillard 1929] [Shannon et Weaver 1949] [Brillouin 1956] et dvelopp de faonsystmatique par Jaynes et, plus rcemment, par Balian [Jaynes 1957] [Balian 1982 ;2005], le second principe de la thermodynamique ne modliserait que le processus de pertedinformation corrlatif de lvolution dun systme vers son tat dquilibre.

    3 Plus gnralement, les interprtations informationnelles de la physique, voire les tentatives dereconstruction de la physique dun point de vue informationnel, ne cessent de se dvelopperet savrent prometteuses, comme nous le montrent plusieurs travaux rcents traitant delinformation quantique [Nielsen 1998] [Timpson 2004] [Grinbaum 2004].

    4 Cependant, si la place du concept dinformation en physique semble pleinement acquise,cest la manire dont ce concept est dfini et utilis qui pose problme. En effet, le conceptdinformation qui a t adopt en mcanique statistique depuis les travaux de Jaynes [Jaynes1957] renvoie ce que connat ou ce que peut connatre lobservateur. Il sagit dun conceptdinformation-connaissance formul en terme dinformation (ou dentropie) statistique, cedernier concept tant issu de la thorie de la communication de Shannon et Weaver [Shannon& Weaver 1949]. Le concept dinformation statistique a, il est vrai, permis de dvelopperune interprtation cohrente de la thermodynamique en fournissant une justification de ladfinition de lentropie thermodynamique introduite par Boltzmann et Gibbs en mcaniquestatistique. Son succs semble dailleurs tre pleinement confirm par la fcondit du postulatdentropie statistique maximale permettant de calculer les distributions dquilibre dunsystme thermodynamique. Ce principe stipule que parmi toutes les distributions statistiquescompatibles avec les donnes exprimentales, on doit reprsenter le macro-tat du systme parcelle qui correspond la plus grande valeur de lentropie statistiquecest--dire par cellequi, tout en tant compatible avec les contraintes macroscopiques, nintroduit aucune autreinformation-connaissance arbitraire [Jaynes 1957] [Balian 1982; 2005].

    5 Mais, y regarder de prs, les succs de la mcanique statistique ne doivent rien cettesur-interprtation subjectiviste de la notion dentropie thermodynamique. Par exemple,de nombreuses prsentations de la mcanique statistique, comme celles de Reiff, deHakim ou de Cou-lon et Moreau [Reiff 1965] [Hakim 1996] [Coulon & Moreau 2000],nous montrent que la dfinition statistique de lentropie thermodynamique dun systmephysique donne par Boltzmann, en terme de micro-tats accessibles, cest--dire compatiblesavec les contraintes macroscopiques, ne ncessite en rien dtre identifie un manquedinformation-connaissance de ltat microscopique de ce systme. Cette dfinition nerequiert a priori aucune interprtation subjectiviste des (densits de) probabilits quelle

  • Physique, information statistique et complexit algorithmique 3

    Philosophia Scienti, 11-2 | 2007

    utilise. Ces dernires peuvent toujours, aprs Boltzmann, tre penses comme des rapportsde nombre de configuration physiques compatibles avec les contraintes macroscopiques.Corrlativement, la recherche des distributions dquilibre ne ncessite en rien de se rfrer ce que lon connat (ou ce que lon pourrait connatre) ou pas de ltat microscopiquedun systme physique puisque celles-ci peuvent tre calcules partir dun dcompte desconfigurations microscopiques physiques accessibles (voir, par exemple, [Coulon & Moreau2000 2.3.2]). Par consquent, sil ny a, a priori, aucune raison pour identifier lentropiethermodynamique dun systme physique avec un manque dinformation-connaissance de sontat microscopique, cest bien lide suggre par Boltzmann selon laquelle elle constitue unemesure de son organisation intrinsque (de son dsordre molculaire ) quil nous fautprivilgier. C est cette ide qui sera soutenue ici.

    6 En outre, linterprtation subjectiviste de la notion dentropie thermodynamique sembledboucher sur une impasse conceptuelle : la suppose quivalence entre entropiethermodynamique et manque dinformation-connaissance, qui mne lide de convertibilitentre nguentropie et information-connaissance, permet de soutenir celle dun cot entro-pique de lacquisition dinformation-connaissance [Szillard 1929] [Bril-louin 1956] [Costade Beauregard 1963]. Or, cette dernire ide, qui a t propose comme solution au clbreparadoxe du dmon de Maxwell, est aujourdhui fortement remise en question. Ce dbatcrucial sera rapport brivement dans la sectionIII.1 partir des textes rassembls par Leff etRex [Leff & Rex 2003] et de ses dveloppements plus rcents dus Norton [Norton 2005],Bennett [Bennett 2003] et Shenker [Shenker 2000].

    7 Enfin, dun point de vue plus technique (sectionIII.2), lutilisation de la notion statistiquedinformation en physique quantique rencontre trs vite dimportantes limites. Il sagit dj desa rfrence problmatique une notion de mesure qui en fait une grandeur relative certainesobservables particulires. Mais surtout, par le fait que linformation statistique associe untat quantique nvalue que sa dviation par rapport la puret, elle est incapable de donnerun sens et, a fortiori, dvaluer linformation encode dans un tat pur alors quune tellevaluation savre tout fait essentielle pour le dveloppement des thories de linformationquantique.

    8 Cet article se propose donc, dans un premier temps, de mettre en vidence les limites delutilisation de la notion statistique dinformation en physique. Pour cela, nous commenceronspar analyser la faon dont sest introduit en physique le concept dinformation-connaissance(section I), et, plus prcisment, celui dinformation statistique (section II), avant demettre en vidence ses limites dordre conceptuelle et technique (section III). Puis, dansun deuxime temps, nous montrerons, partir de la section IV, comment la notion decomplexit algorithmique, introduite par Solomonoff, Kolmogorov et Chaitin [Solomonoff1964] [Kolmogorov 1965] [Chaitin 1977], permet de surmonter ces limitations en proposantune dfinition structurelle ou organisationnelle de l information . Une telle notiondinformation est, en effet, dgage de tout subjectivisme excessif puisque quelle nvalue pasla connaissance ou le manque de connaissance de lobservateur concernant ltat dun systmephysique mais, mme si cest une certaine prcision prs (comme cest en fait le cas pourtoute grandeur physique), son organisation intrinsque. Comme nous le prciserons dans lessectionsV.2 et VI partir des recherches de Zurek et Caves [Zurek 1989] [Caves 1990], ellepermet de proposer une interprtation structurelle de la notion dentropie thermodynamique.Enfin, elle peut tre utilise de faon satisfaisante pour valuer le contenu informationnel duntat quantique pur, ce que ne peut faire la notion statistique dinformationnotons quelapplication de la thorie de la complexit algorithmique au domaine quantique, qui requiertdes prcisions conceptuelles et techniques supplmentaires, sera examine part, dans lasectionVI, partir des recherches rcentes de Vitnyi, Berthiaume et al., Gcs, Mora et Briegel[Vitnyi 2001] [Gcs 2001] [Berthiaume et al. 2000] [Mora and Briegel 2004].

    9 Lintroduction de cette notion structurelle dinformation en physique permettrait doncdasseoir sur des bases plus saines et plus fcondes la direction de recherche actuelle qui lie defaon troite physique et information, tant dans le domaine de la physique statistique (classiqueet quantique) que celui de la thorie de linformation quantique. Ces dveloppements

  • Physique, information statistique et complexit algorithmique 4

    Philosophia Scienti, 11-2 | 2007

    pourraient, selon nous, constituer les prmisses dune vritable thermodynamique delinformation base sur le concept dinformation structurelle dont la mesure nous est donneen terme de complexit algorithmique.

    I. Le second principe de la thermodynamique et sesinterprtations dans le cadre de la mcanique statistique

    10 La relation entre physique et information semble stre noue lorsqu on a essay dinterprterle second principe de la thermodynamique dans le cadre de la mcanique statistique.

    11 Le second principe de la thermodynamique a une origine purement phnomnologiquepuisquil a t formul, au XIXe sicle, partir de lobservation du fonctionnement desmachines thermiques. Ses premiers noncs, relatifs au domaine spcifiquement thermique,sont dus Clausius (la chaleur ne passe pas spontanment dun corps froid sur un corpschaud), Thomson (un systme en contact avec une seule source de chaleur ne peut, aucours dun cycle, que recevoir du travail et fournir de la chaleur) ou Carnot (si une machinefournit du travail au cours dun cycle, elle change ncessairement de la chaleur avec deuxsources de tempratures diffrentes). Ces noncs sont quivalents et peuvent tre drivesdun nonc plus gnral1, de type axiomatique, qui stipule que:

    12 Pour tout systme thermodynamique, ouvert ou ferm, il est possible de dfinir une fonctiondtat S, appele entropie 2, qui vrifie les proprits suivantes : S est une grandeurextensive, et sa variation lors dune transformation quelconque sexprime sous la forme dunesomme de deux termes:

    S=Se+Si,

    o Se est un terme algbrique d aux changes de chaleur et de matire avec le milieuextrieur. Pour un systme ferm recevant une quantit de chaleur Q la temprature Tconstante, Se=Q /T, alors que Si rsulte des modifications internes du systme associes des phnomnes irrversibles.

    13 On postule alors que Si>0, en affirmant que lirrversibilit interne est source dentropie.14 Par consquent, selon le second principe de la thermodynamique, lentropie dun systme

    isol ne peut quaugmenter puisque dans ce cas Q=0 alors que Si>0. Ltat dquilibrethermodynamique sera celui pour lequel S est maximale, compte tenu des contraintes imposesau systme.

    15 Malheureusement, la notion dentropie thermodynamique ne peut trouver dinterprtation dansle cadre strict de la mcanique Hamiltonienne. En effet, Henri Poincar a montr quil nexisteaucune fonction S(qj, pi, t) des coordonnes gnralises qj et pi du point reprsentatif deltat dun systme dans lespace des phases et du paramtre temps t qui puisse interprterla notion dentropie thermodynamique. Plus exactement, lvolution thermodynamique dunsystme physique, caractrise par lexistence dune telle fonction monotone croissante (avect), est incompatible avec son volution mcanique qui est rgie par les quations de Hamilton-Jacobi3 [Poincar 1889]. Poincar a tabli ce rsultat partir des lois Hamiltoniennes et deconsidrations tout fait gnrales sur les dveloppements en srie entire de lnergie E(qj,pi, t) et de lhypothtique fonction entropie S(qj, pi, t) et sans utiliser lobjection derversibilit de Loschmidt qui traduit linvariance temporelle des lois de la mcanique.

    16 On pourrait croire, comme il est souvent dit et crit un peu rapidement, que lirrversibilitthermodynamique peut alors tre explique par la seule utilisation de la mcanique statistiquequi procde dune description probabiliste des systmes physiques de grande taille tablissantun lien entre les grandeurs macroscopiques mesurables et les valeurs moyennes des propritsde ses constituants microscopiques. Cependant, comme le rappellent les dveloppementsci-dessous, si une interprtation satisfaisante des phnomnes thermodynamiques ncessiteeffectivement, cause de la taille macroscopique des systmes physiques considrs,lutilisation de la mcanique statistique, cest toujours par lintroduction dhypothsesposant au dpart de la dmonstration lasymtrie quil faut tablir et, en outre, au prixdapproximations, que lirrversibilit trouve une justification.4

  • Physique, information statistique et complexit algorithmique 5

    Philosophia Scienti, 11-2 | 2007

    1.1. Lhypothse du chaos molculaire [Boltzmann 1867, 1872]17 Historiquement, les premires tentatives pour tablir un pont entre mcanique statistique

    et thermodynamique sont dues Boltzmann. Pour modliser lvolution dun systme Nparticules, Boltzmann utilise des fonctions de rpartition rduites p(p, q, t), o p et q sontles vecteurs quantit de mouvement et position des constituants du gaz, dans lespace une particule o lensemble de N particules est reprsent par un nuage de N points 6coordonnes (trois despace et trois de quantit de mouvement). Cest--dire que le nombre:

    (p, q, t)d3pd3q,

    est le nombre moyen de particules se trouvant, linstant t, dans le volume lmentaire d3qcentr autour du point q et qui possdent la quantit de mouvement p d3p prs.

    18 Cest pour valuer le terme de collision (collisions supposes binaires) entre les molculesdun gaz parfait, suppos isol et homogne, que Boltzmann a introduit l hypothse duchaos molculaire. Cette hypothse, que Boltzmann justifie par lexistence de perturbationsextrieures (le systme ne serait donc pas vraiment isol), postule de faon vidente uneasymtrie temporelle [Boltzmann, in Brush 1966]:

    (CM) Les molcules ne sont pas corrles avant dentrer en collisionalors quelles le sont justeaprs.

    19 Formellement, lhypothse (CM) implique lindpendance des nombres de molculessusceptibles dentrer en collision dans un certain volume linstant t et se traduit parla destruction rapide des relations de phase entre tats. Lvolution macroscopique estalors modlise par un processus stochastique (description en termes de probabilits),Markovien (les probabilits de transitions ne dpendent pas des tats microscopiques passs) etstationnaire (par linvariance des quations de la mcanique par translation temporelle). Cestg rce ltablissement de cette quation cintique approche que Boltzmann peut montrerquune certaine fonctionnelle, appele H (et que nous nommons HBoitzmann pour la distinguerde celle dfinie par Gibbs ci-aprs):

    est monotone dcroissante jusqu ltat dquilibre thermodynamique, et donc que lagrandeur:

    SBoltzmann=kBHBoltzmann,

    o kB est la constante de Boltzmann, peut interprter la notion dentropie thermodynamique.Notons que cette dernire fonctionnelle entropie scrit, selon la clbre formule due Boltzmann,

    SBoltzmann= kB ln ,

    o est le nombre de configurations possibles ou dtats physiques accessibles, dans lecas dun gaz parfait lquilibre (et sous lhypothse dquiprobabilit des tats accessibles).

    I.2. Lhypothse des phases alatoires [Pauli 1928]20 En physique quantique, von Neumann [von Neumann 1955] a dfini lentropie dun oprateur

    densit D par:

    SVN[D] =kBTrD ln D. (1)

    21 Lentropie quantique SVN[D], qui peut tre vue comme une gnralisation de lentropiedfinie par Gibbs en mcanique statistique classique (voir ci-aprs), reste constante si Dsuit une volution Hamilto-nienne (quation de Liouville-von Neumann). Cest aussi grce lutilisation dune approximation (ici, lhypothse des phases alatoires) que la questionde linterprtation mcanique de lirrversibilit thermodynamique a t rsolue par Paulidans le cadre quantique.

  • Physique, information statistique et complexit algorithmique 6

    Philosophia Scienti, 11-2 | 2007

    22 Lhypothse des phases alatoires propose par Pauli [Pauli 1928] peut tre considrecomme la rplique quantique de lhypothse du chaos molculaire de Boltzmann. Seloncette hypothse, qui est justifie par lexistence de perturbations extrieures incontrlablessubies par le systme, les relations de phase entre ses micro-tats possibles sont rparties defaon alatoire et sont alors trs rapidement dtruites, en des temps trs petits lchelle destemps dvolution macroscopique. Cette hypothse permet de substituer loprateur densitD exact , soumis lvolution Hamiltonienne (quation de Liouville-von Neumann),un oprateur densit approch Ddiag pour lequel les termes non-diagonaux de la matricereprsentant D dans une certaine base (de relevance) sont gomms. Loprateur approchvrifie alors une quation matresse Markovienne (lquation de Pauli) du mme genre quecelle obtenue par Boltzmann dans le cadre de la mcanique statistique classique.

    23 Pour notre propos qui est de prciser le concept d information utilis en physique etden dvoiler ses limites, un premier commentaire simpose cet endroit. Lvolution dunsystme vers son tat dquilibre thermodynamique, quil soit modlis par lquation deBoltzmann ou celle de Pauli a t, aprs coup, dcrite en termes dinformation ou mme demmoire. Par exemple, le thorme H de Boltzmann sinterprterait comme un transfertcontinu d information des fonctions de rpartitions une particule vers les corrlationscres chacune des collisions [Balian 2005, 21]. Dans le mme esprit, nous pouvons lireque lors de son volution vers son tat dquilibre, le systme macroscopique perd lammoire de ses tats microscopiques antrieurs au bout dun temps t trs court par rapport lchelle de temps caractristique de son volution macroscopique [Diu et al. 1989, 597].Cependant, quel est exactement le statut des notions d information et de mmoireutilises par ces auteurs (et par bien dautres encore) pour dcrire lvolution spontane dunsystme vers son tat dquilibre thermodynamique? Sagit-il vraiment dune informationpouvant tre attribue de faon intrinsque au systme physiqueet de mme pour la notionde mmoire, et, si oui, comment? Ou bien faut-il, comme cest gnralement le cas,comprendre ces notions de faon subjective en faisant rfrence un observateur impersonnelqui disposerait ou non de cette information-connaissance? Malheureusement, il sembleraitque ce soit la deuxime option qui ait t choisie par les physiciens jusqu trs rcemment. Leconcept dinformation renvoie, chez ces auteurs, une notion dobservateur susceptibledacqurir ou non cette information et cest mme ce critre l qui dfinit la relevancedune telle information-connaisance. Les observables relevantes sont, en effet, dfiniescomme celles qui peuvent tre mesures ou contrles par ce mme observateur alors quelentropie relevante correspondante value le manque dinformation(-connaissance) surltat microscopique du systme compte tenu du fait que ne peuvent tre observes oucontrles que cet ensemble de variables macroscopiques relevantes [Balian 2005]5. Enoutre, cette drive subjectiviste est amplifie dans les autres propositions rapportes ci-aprs,qui sont tout aussi incontournables que les prcdentes, puisque celles-ci font explicitementappel ce que connat ou ne connat pas lobservateur ou lexprimentateur du systmephysique considr.

    I.3. Lhypothse du coarse-graining [Gibbs 1902]24 Lentropie dfinie par Boltzmann, laide de la densit une particule, ne prenant pas

    en compte les interactions entre les composants du fluide (sauf au moment des chocs),elle ne convient donc que pour des gaz parfaits et non pas pour des fluides rels [Jaynes1965]. Cest ce qui avait amen Gibbs considrer une dfinition plus gnrale de lentropiethermodynamique utilisant la densit en phase (p(N), q(N), t) dans lespace des phases 6Ndimensions, o la fonction H est alors dfinie, pour un gaz N particules, par:

    o p(N)=p1, , pN et q(N)=q1, , qN sont les coordonnes des N particules dans q(N),, alors qued est llment de volume de autour du point de coordonnes (p(N), q(N)).Notons que lentropie de Gibbs:

  • Physique, information statistique et complexit algorithmique 7

    Philosophia Scienti, 11-2 | 2007

    SGibbs=kBHGibbs (2)

    est obtenu partir de lexpression quantique de lentropie (1) par passage la limite: lorsquelaction caractristique du systme trs grande devant h, la constante de Planck, les oprateursimpulsion et position sont remplacs par des variables relles (coordonnes de point de ), lesobservables deviennent des fonctions de ces variables et lopration trace se rduit bien uneintgrale de volume sur lespace des phases .

    25 Comme ctait le cas pour lentropie de von Neumann, lors de lvolution Hamiltonienne(classique) rgie par lquation de Liouville, lentropie SGibbs reste constante. Pour interprterla croissance monotone de lentropie thermodynamique jusqu ltat dquilibre, Gibbsa introduit lhypothse de dcoupage grossier de lespace des phases, dite de coarse-graining [Gibbs 1902, chapXII]:

    (CG) Lespace est dcoup en petits lments de volume vj pour lesquels la prcision de nosobservations ne permet pas de distinguer entre deux de leurs points.

    26 La distribution approche cg est donc obtenue par moyennage de la densit exacte surchacun des vj, si le point reprsentatif du systme se trouve dans vj. Cette densit coarse-grained approximative vrifie une quation cintique Markovienne qui traduit ici de faonexplicite le processus de perte progressive dinformation-connaissance de lexprimentateur(ou de lobservateur) sur ltat microscopique du systme, perte dinformation qui est dueau caractre limit de la prcision de ses observations. Lentropie correspondante ScgGibb, quiest, comme SGibbs, maximise par les distributions dquilibre micro-canoniques, canoniques etgrand-canoniques, est bien, en effet, une fonction non dcroissante du temps.

    I.4. Lhypothse dimprvisibilit de lvolution27 Signalons enfin, pour terminer cette brve revue, un procd dun autre type qui a t

    utilis pour tablir un pont entre mcanique statistique et thermodynamique et qui reposeaussi de faon explicite sur le concept dinformation-connaissance. Ce procd est bassur lide que lirrversibilit thermodynamique traduirait notre manque de connaissance delvolution effectivement suivie par un systme physique et non sur lutilisation dune densiten phase ou dun oprateur densit approximatif (relevant), comme dans les propositionsprcdentes. Cette incertitude ou absence de prvisibilit de lvolution fait appel ce quelon pourrait appeler lhypothse de lHamiltonien mal connu qui permet dintroduireun lment de stochasticit dans lvolution dynamique [Jaynes 1957] [Balian, 1982]. Onsuppose, en effet, que plusieurs volutions sont possibles pour le systme physique considr,volutions qui dpendent de la valeur du terme perturbatif Hj , pondr par la probabilitpj, dans lHamiltonien Hj = H + Hj relatif lvolution j. Pour chacune des volutionsj, loprateur densit du systme est rgi par la loi dvolution Hamiltonienne et suit doncune volution conservative, cest--dire que lentropie statistique SVN dfinie par lexpression(1) ci-dessus reste constante, cest--dire que SVN [Dj (t)] = SVN [D(0)]. Cependant, par laproprit de concavit de lentropie statistique [Balian 1982], loprateur densit rsultant decet ensemble dvolutions possibles, qui doit tre calcul t comme la moyenne pondrepar les probabilits pj des oprateurs Dj(t), suit une volution dissipative. Lhypothse delHamiltonien mal connu permet ainsi dtablir la croissance monotone de lentropiequantique jusqu sa valeur maximale (dquilibre).

    28 Dautre part, Prigogine et ses collaborateurs ont propos une modification des loisHamiltoniennes de faon y incorporer la sensibilit de certains systmes dit mlangeantsaux conditions initiales, systmes considrs alors comme tant intrinsquement instables[Prigogine 1980]. Cependant, bien que cette proposition soit fonde sur la limitation de notreconnaissance des conditions initiales (mme si cest de faon plutt cache) et non sur celle delHamiltonien, elle revient en fait interprter lirrversibilit selon lide prsente ci-dessusdimprvisibilit de lvolution due un manque dinformation-connaissance (ici, ce manquedinformation concerne les conditions initiales et non lHamiltonien).

  • Physique, information statistique et complexit algorithmique 8

    Philosophia Scienti, 11-2 | 2007

    II. Lintroduction du concept dinformation statistique enphysique

    29 Cest ici que lon a franchi un pas supplmentaire dcisif (et souvent accept sans discussion).On ne sest pas seulement content dintroduire, de faon souvent implicite, des considrationsrelatives l information dont nous disposons sur ltat microscopique dun systmepour expliquer la croissance monotone de lentropie thermodynamique que ce soit enutilisant lhypothse du chaos molculaire, un concept de coarse graining, en dfinissantplus gnralement une densit dtat ou un oprateur densit relevant(e) , ou mmeen voquant un manque de prvisibilit de lvolution. Les dfinitions statistiques delentropie thermodynamique propose par Boltzmann, Gibbs et von Neumann, qui sontpleinement justifie par la taille macroscopique des systmes considrs, ont t exploitesplus radicalement encore : par une interprtation sub-jectiviste du concept de probabilitinhrent ces dfinitions, certains ont propos une pure et simple identification de la notiondentropie thermodynamique avec celle d entropie statistique issue de la thorie dela communication de Shannon et Weaver [Shannon & Weaver 1948] et applique aucontexte physique dont il est question. C est--dire quils ont propos lide selon laquellelentropie thermodynamique dun systme physique ne serait finalement quune mesure denotre ignorance de son tat microscopique.

    30 Prcisons ce point essentiel. Lentropie statistique, quil vaudrait mieux appeler manquedinformation-connaissance pour la distinguer a priori des interprtations donnes parBoltzmann, Gibbs ou von Neumann de lentropie thermodynamique dans le cadre de lamcanique statistique, est dfinie de la faon suivante : pour un ensemble dvnementspossibles E={e1 ..., ej, ..., en} pouvant survenir avec des probabilits p1, ..., pj, ..., pn, lentropiestatistique Sstat(E) de lensemble E, qui value linformation manquante sur cet ensemble (oula quantit dinformation moyenne qui peut tre acquise lors de lobservation que lun de cesvnements se ralise), est dfinie par:

    o K est un facteur multiplicatif choisi selon lunit dinformation adopte.31 En thorie de la communication, Sstat(E) sinterprte comme lincertitude sur lensemble de

    tous les messages j qui peuvent tre reus. On choisit K=1 avec des logarithmes en base 2 defaon dire que la quantit dinformation obtenue par un tirage pile ou face (quiprobable)est de 1bit (ou binary digit), ce qui dfinit lunit dinformation. Avec ce choix, la quantitdinformation associe un message de n caractres crit dans un langage binaire est denbits. En physique statistique, il suffit de choisir K=kB, la constante de Boltzmann, et deslogarithmes npriens pour tablir une parfaite identification formelle avec la dfinition delentropie propose par Gibbs en physique classique (expression (2)) ou von Neumann enphysique quantique (expression(1)).

    32 En fait, une remarque importante simpose ici : afin dappliquer ce dernier conceptdinformation statistique au domaine de la physique quantique, il faut dfinir lensemble desvnements de mesure qui sont susceptibles de nous informer sur ltat dun systme et nonsur un tat modifi (rduit) par ces mesures. Il ne faut donc sintresser qu des mesuresdobservables qui commutent avec loprateur densit D reprsentatif de cet tat6. Moyennantce choix, lobservation des diffrents rsultats possibles de la mesure dune telle observabledcrit un ensemble dvnements (exclusifs) nous informant sur ltat microscopique dusystme et linformation statistique (3) associe cette distribution dvnements scrit alorscomme lentropie quantique (1) de ce mme tat (et donc comme sa limite classique (2)introduite par Gibbs).

    33 Cette analogie formelle entre entropie thermodynamique (classique ou quantique), dfinie dansle cadre de la mcanique statistique, et entropie statistique, dfinie dans le cadre de lathorie de la communication, a conduit trop rapidement une pure et simple identificationconceptuelle de la notion dentropie thermodynamique avec celle de manque dinformation-

  • Physique, information statistique et complexit algorithmique 9

    Philosophia Scienti, 11-2 | 2007

    connaissance. En effet, selon ce point de vue, lentropie thermodynamique dun systmephysique se rduiraient ntre quune valuation purement subjective de notre connaissancede son tat microscopique. Et, par consquent, le second principe de la thermodynamique, aulieu de rgir lvolution intrinsque dun systme physique, ne traduirait que lvolution denotre connaissance des dtails fins de ce systme.

    34 Les succs de la mcanique statistique ne sont plus dmontrer puis-qu elle permetdinterprter la notion dentropie thermodynamique, de calculer les distributions dquilibre et,plus gnralement, de retrouver la thermodynamique laide de rgles de correspondanceadquates [Balian 1982, chap. 5]. Cependant, lidentification de la dfinition statistique delentropie thermodynamique, donne par Boltzmann, Gibbs ou von Neumann (rappeles dansla section I), l entropie statistique la Shannon, comme mesure de linformation-connaissance manquante, semble constituer une sur-interprtation qui nest pas ncessaire.Cette drive subjectiviste est bien sr lie linterprtation subjective de la notion deprobabilit inhrente la description statistique des systmes physiques qui est faite enmcanique statistique. En effet, en mcanique statistique (classique) les tats microscopiquespossibles dun systme physique forment un continuum dans lespace des phases qui luiest associ, tandis que son tat macroscopique est dfini par la donne dune densit deprobabilit ), w(p(N), q(N), t) dans cet espace, densit partir de laquelle peuvent tre dfinies lesfonctions de distribution des particules7. Mais les probabilits de la mcanique statistiquemesurent tout dabord des rapports entre des nombres de configurations (ou de microtats)physiques, et linterprtation de la dfinition statistique de lentropie thermodynamique enterme dinformation manquante, cest--dire selon la formule de Shannon, ne simpose pas dutout! Par exemple, la probabilit doccurrence dun micro-tat caractris par les valeursp0 et q0, d3p et d3q prs, est dfinie comme le rapport du nombre de microtats physiquespossibles satisfaisant ces conditions sur le nombre total de micro-tats accessibles, cest--dire compatibles avec les contraintes macroscopiques. Il serait, par consquent, beaucoup pluspertinent (et aussi plus conforme lide des pres fondateurs de la mcanique statistique)de relier la notion dentropie thermodynamique la structure ou lorganisation intrinsquedes systmes physiques considrs, et non notre manque de connaissance de leur micro-tat.En outre, comme nous allons le voir dans la sectionsuivante, linterprtation subjectiviste dela notion dentropie thermodynamique mne certaines confusions et trouve rapidement seslimites.

    35 Enfin, comme nous le montrerons aussi, lutilisation exclusive du concept statistiquedinformation rencontre trs vite dimportantes limitations en physique quantique. Parexemple, elle ne peut servir dfinir le contenu informationnel dun tat quantique puret, en particulier, dun tat intriqu.

    III. Critiques de lutilisation de la notion dinformationstatistique en physique

    III. 1. Subjectivit de lentropie thermodynamique: une source deconfusion

    36 Les interprtations de la notion dentropie thermodynamique en terme dinformationstatistique se rfrent une notion dobservateur puisquelles valuent son ignorancedes dtails fins du systme. Ce sont donc des mesures de linformation-connaissancedont dispose (ou non) lobservateur sur le systme et non des grandeurs qui pourraienttre associes de faon intrinsque ce dernier. Comment lentropie thermodynamique,qui est dfinie en thermodynamique partir des paramtres physiques macroscopiquesintrinsques dun systme (volume, nergie, temprature, nombre de particules), pourrait-elle, paradoxalement, se rduire ntre quune grandeur purement subjective dont la valeurdpend de ce que sait ou ne sait pas lobservateur? Doit-on accepter lide selon laquellelvolution dun systme vers son tat dquilibre thermodynamique dpendrait de ce que lonsait ou non de son tat microscopique?

  • Physique, information statistique et complexit algorithmique 10

    Philosophia Scienti, 11-2 | 2007

    37 Cette identification entre entropie thermodynamique et entropie statistique conduit,en outre, certaines conclusions trs critiquables. Il sagit de lide, avance par Szilard,Brillouin ou Costa de Beauregard, dun cot entropique de linformation , ide selonlaquelle toute acquisition dinformation se payerait par une augmentation dentropie ce qui permettrait ainsi de rsoudre le paradoxe du dmon de Maxwell [Szillard 1929][Brillouin 1956] [Costa de Beauregard 1963]. Rappelons que le dmon de Maxwell estun tre intelligent microscopique qui serait capable de mettre en dfaut le second principede la thermodynamique en diminuant lentropie dun systme isol grce linformationquil acquiert sur ses composants microscopiques. Selon la version originale imagin parMaxwell [Maxwell 1871], le systme est une enceinte contenant un gaz et spare en deuxcompartiments C et D par une cloison munie dune porte microscopique. Le dmon ouvriraitalors la porte aux molcules de D qui se dirigent vers C et la fermerait aux molculesde C qui veulent schapper. Ce qui augmenterait lnergie interne du compartiment Cet diminuerait celle du compartiment D, entranant, par consquent, une diminution delentropie thermodynamique du systme8. Lintroduction dun cot entropique de lacquisitiondinformation permettrait alors, selon Szillard et Brillouin, de rsoudre ce paradoxe encompensant la diminution dentropie du systme due au travail du dmon. Par exemple, cecot entropique se traduirait par le rchauffement du gaz conscutif lutilisation par le dmondune lampe-torche pour voir les molcules afin de dterminer leur direction et ainsi deles rpartir dans les compartiments C ou D.

    38 Mais cette dernire conclusion a tout dabord t remise en question par Landauer et Bennett:selon ces auteurs, ce serait la destruction dinformation (permettant la r-initialisation de lammoire du dmon avant chaque nouveau cycle) qui a un cot thermodynamique et non sonacquisition qui peut tre, elle, rendue rversible. Plus prcisment, selon le principe deLandauer, la destruction d1bit dinformation la temprature T causerait une dissipationdnergie minimum de kBT ln 2, et donc une augmentation dentropie correspondante dekBln2 [Landauer 1961] [Bennett 1988]. Car, selon Landauer, la destruction dtats logiques aucours dun calcul (irrversibilit logique) saccompagne ncessairement dune augmentationdu nombre dtats physiques de lenvironnement afin de compenser la compression destats physiques correspondant aux tats logiques dtruits. A dfaut, toujours selon cetauteur, ce calcul saccompagnerait dune diminution de lentropie thermodynamique quiconstitue (selon linterprtation statistique quen a donne Boltzmann) une mesure du nombredtats physiques accessibles. Or cette diminution est interdite par le second principe de lathermodynamique.

    39 Comme nous lavons signal dans lintroduction, les discussions passionnes autour duparadoxe du dmon de Maxwell ont t rassembles dans le livre de Leff et Rex [Leff &Rex 2003]. Notons simplement ici, pour illustrer lampleur de ce dbat, que le principede Landauer a incit certains auteurs, comme Zurek ou Li et Vitanyi [Zurek 1989] [Li &Vitnyi 1993, section8.4], proposer une notion alternative dentropie thermodynamiquequi prend explicitement en compte le contenu de la mmoire de lobservateur. En effet, cesauteurs ont propos une notion d entropie physique (ou d entropie algorithmique pour Li et Vita-nyi) comme la somme de lentropie statistique (dont la variation mesurelinformation-connaissance tire des observations) et de la place-mmoire ncessaire pourencoder dans la mmoire du dmon les donnes acquises par ces mmes observations (cetemplacement mmoire est valu en terme de complexit algorithmiquedont la dfinitionest donne la section suivante). Ces auteurs montent que cest partir de cette notiondentropie physique (ou algorithmique) et non de la seule entropie statistique que doittre calcul le travail utile que le dmon peut extraire de ses observations (et, corrlativement,laccroissement de la quantit de chaleur du systme global).

    40 Cependant, plus rcemment, il semble que le principe de Landauer ait aussi t remis enquestion. Norton a tout dabord remarqu que ce principe ne peut exorciser le dmon deMaxwell que dans certains cas [Norton 2005]. Dans son article, Norton conoit par exempleune machine cyberntique qui ferait le travail du dmon sans procder ncessairement leffacement de sa mmoire. Ce qui a men Bennett proposer une version plus gnrale

  • Physique, information statistique et complexit algorithmique 11

    Philosophia Scienti, 11-2 | 2007

    du principe de Landauer, selon laquelle ce serait toute opration de fusion de cheminscomputationels , se traduisant par une rduction dtats logiques au mme titre queleffacement de la mmoire, qui aurait un cot entropique. [Bennett 2003]

    41 Mais plus fondamentalement, Norton et Shenker doutent que le principe de Landauer ou sagnralisation puissent vraiment exorciser le dmon de Maxwell car les justifications qui sontgnralement donnes ce principe qui associe la compression dtats logiques avec celledtats physiques utiliserait de faon illicite la notion densembles statistiques [Norton 2005][Shenker 2000]. Pour montrer ce point, Norton reprend lillustration que font Leff et Rex duprincipe de Landauer9, o ils modlisent la mmoire du dmon comme une bote contenantune seule molcule et place en contact avec un thermostat temprature T. Cette bote estspare en deux compartiments par une cloison amovible et la position de cette dernire (dansle compartiment de droite ou de gauche) dtermine alors ltat de la mmoire du dmon [Leff& Rex 2003, 1].

    42 Le calcul des entropies thermodynamiques de la bote (ou cellule mmoire) donn par Leffet Rex assigne (a) la mme valeur dans le cas o la molcule peut se trouver indiffremmentdans le compartiment de droite ou celui de gauche et dans le cas o la cloison de sparationentre les deux compartiments a t enleve puisque, selon ces auteurs, dans ce dernier cas lamolcule a toujours autant de chance de se trouver droite ou gauche (p.21)ce quilfaut comprendre comme nous ne savons pas plus dans le deuxime cas que dans le premiero se trouve la molcule. En outre, (b) cette dernire valeur serait suprieure de kBln2 celle calcule dans le cas o la position de la molcule est dtermine, en particulier lorsquela mmoire a t efface et r-initialise, cest--dire lorsque la molcule se trouve dans uneposition dtermine (cest--dire connue), par exemple toujours gauche. Ce qui fait que lacompression dtats logiques, de la situation o la molcule peut se trouver indiffremment droite ou gauche (o deux cases-mmoires sont ncessaires) la situation o elle se trouveobligatoirement gauche (o une seule case-mmoire est ncessaire), se traduirait bien parune rduction dentropie thermodynamique de la cellule-mmoire de kBln2 et donc par uneaugmentation au moins gale kBln2 de lentropie de lenvironnement (ici, le rservoir latemprature T), conformment au principe de Landauer.

    43 Norton montre alors (section3.2) que ce calcul est tout simplement faux car (a)lenlvementde la cloison donne en fait lieu une augmentation de lentropie thermodynamique de kBln2puisque le volume accessible de lespace des phases est doubl lors de cette opration,alors que (b)lentropie thermodynamique est la mme que lon sache ou non o se trouvela molcule dans le cas o la bote est spare en deux compartiments, et en particulieraprs effacement et r-initialisation de la mmoire, lorsque la molcule se retrouve dansle compartiment de gauche. Norton prcise alors que (l)entropie thermodynamique estune proprit de la cellule et de son tat physique; elle nest pas affecte par notre faondimaginer larrangement des cellules entre elles [Norton 2005, 20]. La raison de cetteerreur est, selon Norton, une utilisation illicite de la notion densembles canoniques chez Leffet Rex. En effet, la collection de cellules-mmoire pour laquelle est dfinie la probabilitdoccurrence de la molcule dans lun ou lautre des deux compartiments est considre, parLeff et Rex, comme un ensemble canonique au mme titre que lest, en mcanique statistique,une collection de systme similaires placs dans le mme tat macroscopique et qui sont donccaractriss par la mme fonction de distribution de lnergiece qui donne, en effet, un sensphysique lexpression de la probabilit canonique [Norton

    p(x)=exp(E(x)/kBT)/Z,

    o E(x) est lnergie du systme au point de coordonnes gnralises (dans lespace desphases relatif au systme considr)

    x=(x1, x2, , xn),

    alors que Z est la fonction de partition canonique qui se dfinit aussi laide de luniquefonction E(x). Or, dans lexemple de Leff et Rex repris par Norton, les cellules-mmoire ontdes fonctions nergie diffrentes selon la position de la molcule: si la molcule se trouve

  • Physique, information statistique et complexit algorithmique 12

    Philosophia Scienti, 11-2 | 2007

    droite, lnergie est finie dans la partie droite de lespace des phases relatif cette collection etinfinie gauche, de faon ce que sa probabilit de prsence sannule; et dans lautre cas cestle contraire qui est vrai. La collection de cellules-mmoire constitu par un mme nombre decellules avec la molcule droite ou gauche ne peut donc dfinir un ensemble canonique ausens de la mcanique statistique [Norton 2005, 18].

    44 De faon plus directe, nous pouvons dire que la notion d entropie utilise chez lesdfenseurs du principe de Landauer, et en particulier dans lillustration donne par Leff et Rex,mesure un manque dinformation-connaissance partir de probabilits subjectivescommenous pouvons le constater dans largumentation de Leff et Rex (points (a) et (b) ci-dessus).Or, ces probabilits subjectives ne peuvent, en aucun cas, tre identifies aux probabilitsphysiques de la mcanique statistique qui valuent, elles, des rapports entre nombres deconfigurations physiques accessibles, ces dernires servant dfinir les ensembles statistiquesde la mcanique statistique. Comme le montre Norton, lutilisation densembles statistiquesest donc bien illicite dans ce cas.

    45 Bien que le dbat sur le paradoxe du dmon de Maxwell ne soit peut-tre pas dfinitivementclos aujourdhui, ce que lon peut affirmer est que sa rsolution, propose initialement parSzillard puis reformule ensuite par Landauer et Bennett en termes de cot entropique deleffacement de la mmoire, est srieusement remise en cause aujourdhui. L ide dunequivalence, quelle soit directe ou non, entre nguentropie et information-connaissancene peut plus tre soutenue: soit sa justification est base sur des exemples particuliers quicontiennent dj une tape thermodynamiquement irrversible [Norton 2005, sectionII.3], soitelle utilise de faon illicite la notion densemble statistique, en identifiant implicitement lesprobabilits introduites par Boltzmann ou Gibbs en mcanique statistique des probabilitssubjectives.

    46 Cette remise en question des solutions proposes au paradoxe du dmon de Maxwell sur la basedune suppose identification entre entropie thermodynamique et manque dinformation-connaissance semble donc confirmer les doutes formuls au dbut de cette section : il estdifficile de croire que lentropie thermodynamique, qui est dfinie partir des paramtresphysiques macroscopiques intrinsques dun systme (volume, nergie, nombre de particules,temprature... ), pourrait se rduire ntre quune grandeur purement subjective dont la valeurdpend de ce que sait ou ne sait pas lobservateur. Lide selon laquelle lvolution dunsystme vers son tat dquilibre thermodynamique dpendrait de ce que lon sait ou non deson tat microscopique semblerait relever en fin de compte dune conception plutt nave denotre relation au monde physique.

    III. 2. Critiques plus techniquesIII. 2. 1. La rfrence la notion de mesure est problmatique

    47 Linformation statistique Sstat dfinie par lexpression(3) mesure linformation-connaissancemoyenne qui peut tre acquise lors de lobservation que lun des vnements de lensembleE des vnements possibles se ralise. Cette notion fait donc rfrence une notiond observation (ou de rception dun message dans le contexte de la thorie dela communication o cette dfinition a t propose), sans laquelle sa dfinition nauraitdailleurs aucun sens. Ceci a une consquence fcheuse pour sa contrepartie formelle enphysique quantique, lentropie SVN dun oprateur (rappele dans la section I). En effet,lentropie SVN dun oprateur densit D:

    peut bien scrire sous la forme dune entropie statistique:

    o les probabilits pj sont les valeurs propres de D:

    48 Mais ce nest que dans le cas dobservables qui commutent avec D , du type:

  • Physique, information statistique et complexit algorithmique 13

    Philosophia Scienti, 11-2 | 2007

    que les probabilits dobtention des rsultats possibles bj sont gales aux pj . Ce nest, en effet,que dans ce cas (mesure non perturbative) que la mesure de B va nous renseigner sur ltat Det non un tat rduit. Par consquent, SVN[D] nvalue que lincertitude relative la mesuredobservables qui commutent avec D et non lincertitude relative la mesure de nimportequelle observable.

    49 Dailleurs, si lon considre la mesure (complte) dune observable B qui ne commute pasavec D, le gain moyen dinformation serait paradoxalement plus grand que linformationmanquante SVN[D] avant la mesure! En effet, dans ce cas la mesure de B ne nous informepas sur ltat initial D du systme mais sur un tat tronqu (rduit) D'=jPjDPj, o lesPj sont les projecteurs sur les sous-espaces associs aux rsultats possibles bj de la mesure deB, et on montre que [Balian 1982, 105]:

    SVN[D']>SVN[D].

    50 Par consquent, lentropie SVN dun oprateur donne par von Neumann en physique quantique,dont la dfinition se rfre, comme celle de Sstat, une notion dobservation ou de mesure, nepeut, en outre, valuer que lincertitude relative la mesure des observables qui commutentavec cet oprateur. Son utilisation nest donc justifie que relativement cette dernire classedobservable.

    III. 2. 2. Quelle mesure pour linformation quantique?51 Lentropie SVN dun oprateur densit, comme l entropie statistique Sstat est dfinie

    ngativement , comme une incertitude (ou un manque dinformation ) lie unedistribution dvnements ou dtats possibles. Ce qui a pour consquence que lentropie Sstatdfinie par:

    SVN[D]=kBTrDlnD (1)

    ne mesure que le degr de puret de D mais nest pas dfinie pour un tat pur: en fait, pourun tat pur elle est prise nulle par convention ou par construction. Elle ne peut donc, enaucun cas, tre utilis pour valuer le contenu informationnel dun tat pur.

    52 Il serait bien sr possible de dfinir une notion dinformation statistique pour un systmeprpar dans un tat pur en considrant lensemble des mesures que lon pourrait effectuersur ce systme. Cette grandeur, appele par Pomeransky entropie informationnelle [Po-meransky 2004], value la quantit moyenne dinformation-connaissance que lon pourraitobtenir en effectuant ces mesures. Mais, comme nous lavons remarqu ci-dessus, la rfrence une notion de mesure nest pas satisfaisante puisqu une mesure ne fournit en gnralquune information trs partielle dun tat quantique (celle de ltat rduit)10. Et le faitde considrer un ensemble de mesures possibles ne permet pas plus de dfinir une grandeurintrinsque cet tat purmais seulement une grandeur relative ces mesures.

    53 En particulier, il faudrait pouvoir valuer le contenu informationnel dun tat intriququi joue un rle fondamental dans les phnomnes typiquement quantiques (corrlationsEPR) et qui constitue une ressource essentielle pour la ralisation de diverses tchesspcifiquement quantiques, comme le codage superdense, la tlportation quantique, lacryptographie quantique ou le calcul effectu par un ordinateur quantique [Nielsen 1998][Delahaye 2002] [Le Bellac 2005]. Une proposition a bien t faite par Everett (et confirmepar la suite) pour valuer une information de corrlation ou information mutuelle dedeux observables dfinies, respectivement, sur deux parties d un systme prpar dans untat pur [Everett 1973] [Schumacher 1990, 33-34]. Mais, comme son nom lindique, cetteinformation de corrlation value le degr de corrlation entre deux observables, en termede quantit moyenne dinformation-connaissance que peut apporter la mesure de lune desdeux observables sur la distribution des valeurs possible de lautre. Par consquent, commectait le cas ci-dessus pour lentropie informationnelle de Pomeransky, linformation decorrlation renvoie une notion de mesure (ou dobservable) et ne peut donc constituer une

  • Physique, information statistique et complexit algorithmique 14

    Philosophia Scienti, 11-2 | 2007

    valuation satisfaisante de linformation dintrication caractristique dun tat quantique pur.Cette information dintrication qui est utilise comme ressource et qui est manipule dansles diffrentes applications de la thorie de l information quantique devrait tre considrecomme une entit part entire, dfinie indpendamment des observables quil serait possibleou non de mesurer sur un systme physique prpar dans cet tat.

    54 Les critiques prcdentes suggrent donc quil faudrait dfinir une mesure individuelle delinformation encode dans un tat quantique qui ne soit pas de nature statistique (pasdutilisation des probabilits) et qui ne soit pas relative certaines variables relevantes quelon pourrait mesurer ou contrler. Cest--dire une information structurelle qui caractrisede faon intrinsque ltat d un systme physique individuel. Ce qui permettrait, par lamme occasion, de surmonter les difficults conceptuelles (subjectivisme) dues lutilisationexclusive dun concept dinformation-connaissance pour dfinir l entropie physique.

    IV. La notion de complexit algorithmique [Solomonoff1964] [Kolmogorov 1965] [Chaitin 1977] [Li & Vitnyi 1993]IV. 1 Complexit algorithmique dune suite binaire

    55 Si sest une suite de symboles d un langage binaire (ne contenant, par exemple, que 0 et 1),la complexit algorithmique k(s) dune suite sest la longueur du plus petit programme auto-dlimit d ordinateur (machine de Turing universelle) capable de produire la suite s.11

    56 La longueur dun programme est mesure en binary digits (bits classiques ). Parailleurs, le programme est dit auto-dlimit car il contient linformation relative sataille, ce qui permet larrt de la machine de Turing universelle lorsque le programme est lu.Cette condition, qui permet une lecture (unique et) instantane dun programme, joue unrle important dans la dmonstration de la double ingalit fondamentale liant la notion decomplexit algorithmique celle dinformation statistique qui sera introduite et utilise dansles sectionssuivantes.

    57 La complexit algorithmique dune suite est une mesure de son contenu incompressibledinformation. Par exemple, la complexit algorithmique dune suite rgulire, comme10101010101010101010, qui peut tre engendre par le programme simple crire 10 fois10, est plus petite que la complexit algorithmique de la suite moins rgulire de mmelongueur 10011010001100000111. La notion de complexit algorithmique capture doncla diffrence intuitive entre suite rgulire pouvant tre engendre par un programme courtet suite purement alatoire qui ne peut tre engendre que par elle-mme12.

    58 Ce qui est essentiel pour notre propos est que la notion de complexit algorithmique ne faitpas appel aux probabilits, contrairement celle dinformation statistique, et, en outre, ne serfre pas une quelconque notion de mesure ou dobservation. Elle nest pas une valuationde linformation-connaissance qui pourrait tre obtenue par lobservation dun vnementpris dans un ensemble dvnements possibles (ici, ce serait lobtention dune suite parmi unensemble de suites possibles). La complexit algorithmique value linformation structurellepouvant tre associe de faon intrinsque une suite binaire et donc nimporte quelle entitpouvant tre dcrite laide dune suite binairecomme, par exemple, ltat dun systmephysique (voir ci-aprs les sectionsV et VI).

    59 Notons enfin quil est possible de dfinir les notions de complexit algorithmique jointe(mesurant la longueur du plus petit programme capable de dcrire la concatnation de deuxsuites binaires), conditionnelle (mesurant la longueur du plus petit programme capable dedcrire une suite partir dune autre) et mutuelle (mesurant le degr de corrlation entre deuxsuites).

    IV. 2. Relation fondamentale liant complexit algorithmique etinformation statistique

    60 La thorie de linformation algorithmique permet dtablir la double ingalit fondamentalesuivante liant lentropie statistique et la complexit algorithmique [Levin 1976] [Chaitin1977] [Zurek 1989] [Caves 1990] [Li & Vitnyi 1993]:

  • Physique, information statistique et complexit algorithmique 15

    Philosophia Scienti, 11-2 | 2007

    o E est lensemble des suites Sj associes aux probabilits doccurrence pj, Sstat(E)=jpjlog2pjest lentropie statistique de lensemble E, exprime en units naturelles dinformations(voir la section II), E = j pj k (sj) est la valeur moyenne sur E de la taille desprogrammes les plus courts qui dcrivent les suites sj; k(E) est la taille du programme le pluscourt qui dcrit lensemble des suites sj et leurs probabilits doccurrence pj,et 0(1) est uneconstante caractrisant la machine de Turing universelle choisie pour valuer les valeurs de k.

    61 En particulier, pour des ensembles E dont la description peut se faire de faon concise,cest--dire laide de quelques bits dinformation, le terme k(E) est ngligeable devant Sstat(E)et lingalit (4) se rduit alors lgalit suivante, la constante 0(1) prs:

    62 Cependant, mme si cette dernire hypothse (k(E)

  • Physique, information statistique et complexit algorithmique 16

    Philosophia Scienti, 11-2 | 2007

    65 Comme application directe de ce rsultat, citons le calcul de lentropie dun gaz parfait lquilibre effectu par Zurek [Zurek 1989]. Dans ce cas, E est la longueurmoyenne du plus petit programme qui produit lune des suites sj (relative au micro-tat j) partir du programme pE/ qui dcrit lensemble des suites sj et la distribution de probabilitassocie compte tenu de linformation pralable sur le systme (les paramtres dfinissant lemacro-tat du systme et la thorie physique qui permet lnumration des micro-tats j etdes probabilits associes). Or, si W est le nombre de ces micro-tats, la spcification de lundeux parmi les W possibles requiert de donner son adresse dans cet ensemble, qui est unnombre plus petit ou gal W. Dautre part, la longueur du plus petit programme qui produitle nombre W est de lordre de log2 W (qui est approximativement le nombre de bits quil faututiliser pour sa reprsentation binaire, pour W suffisamment grand)13.

    66 Par consquent, on calcule dans ce cas (toujours en units naturelle dinformation) que:

    On retrouve donc la formule introduite par Boltzmann sans faire appel la notiondinformation statistique dfinie par lexpression (3)! laide de cette valuation on retrouveeffectivement la formule de Sackur-Tetrode donnant lentropie dun gaz parfait (classique) lquilibre en valuant le nombre de micro-tats possibles W compatibles avec les contraintesmacroscopiques [Zurek 1989, 4736].

    67 Par consquent, dans la mesure o cela fait sens de parler de lensemble E des micro-tats (classiques) possibles compatibles avec la description macroscopique du systme, lathermodynamique peut tre base sur la notion de complexit algorithmique qui ne mesure pasnotre manque dinformation sur ltat microscopique dun systme (ni sur son Hamiltonienou les conditions initiales) mais linformation structurelle moyenne de ses configurationsmicroscopiques possibles, mme si cest une certaine prcision prs. En fait, un tel ensembleE de micro-tats peut bien sr tre dfini ltat dquilibre thermodynamique, comme danslapplication ci-dessus, mais aussi ds quune description locale de ltat macroscopique dunsystme physique peut tre donne, ce qui est possible lorsqu il peut tre dcoup ensous-systmes ( lquilibre local et) en quilibre mutuel, sous-systmes pour lesquels il estpossible de dfinir des ensembles pondrs de micro-tats tels que E, par exemple laide dela distribution de Maxwell-Boltzmann pour chacune des parties dun gaz parfait lquilibrelocal. Mais, en fait, ces conditions ne sont, ni plus ni moins, celles qui doivent tre satisfaites sion veut donner un sens la notion dentropie thermodynamique et donc au second principede la thermodynamique (voir sectionI, note2). La dfinition algorithmique(5) de lentropiethermodynamique nintroduit donc aucune contrainte supplmentaire.

    68 Linterprtation de la notion dentropie thermodynamique en terme de complexitalgorithmique permet donc une interprtation structurelle de la notion dentropiethermodynamique qui saccorde mieux avec celle donne initialement par Boltzmann, enterme de dsordre molculaire [Boltzmann 1876, in Brush 1966], quavec celle, plustardive, donne par Jaynes ou Balian, en terme de manque d information-connaissance. Il nya en fait plus de confusion possible entre entropie thermodynamique dun systme physiqueet manque dinformation-connaissance de son tat microscopique puisque, par sa dfinitionalgorithmique (5), lentropie thermodynamique value le degr dorganisation intrinsque dece systme (mme si cest moyennant une certaine prcision). En outre, le second principe de lathermodynamique acquiert une interprtation structurelle: pour un systme isol, la croissancemonotone de la valeur moyenne E de la complexit algorithmique conditionnelledes micro-tats possibles jusqu ce que soit atteint ltat dquilibre thermodynamique signifieque la description de ltat microscopique dun systme physique requiert de plus en plusdinformation lorsque ce systme tend vers son tat dquilibre. Ce qui se traduit ici, en termede complexit algorithmique, par le caractre de plus en plus alatoire (et donc de moins enmoins compressible) des suites de symboles utilises pour encoder les tats microscopiques

  • Physique, information statistique et complexit algorithmique 17

    Philosophia Scienti, 11-2 | 2007

    accessibles. Cette ide saccorde aussi avec lintuition des fondateurs de la mcaniquestatistique selon laquelle ltat dquilibre (macroscopique) est le plus dsordonn.

    VI. Physique quantique et complexit algorithmique69 Nous avions not dans la sectionIV que les micro-tats classiques dun systme physique

    peuvent tre considrs comme des configurations spatiales instantanes de ce systme,descriptibles en terme de suites binaires. Cependant, nous pouvons nous demander si lestats quantiques peuvent vraiment tre considrs comme tels. Il y a en effet un sens prcis considrer la description de ltat microscopique dun systme physique en physique classique,par exemple (description purement mcanique) en se donnant la position et la quantitde mouvement de chacune des particules qui le composent. Mais, comme nous le montrelabondante littrature sur le sujet (voir, en particulier, [dEspagnat 1994, 4.3 ou chap.11] et[Bitbol 1996]), ltat quantique d un systme ne constitue pas la simple descriptiondune ralit spatio-temporelle pr-existante aux mesures que lon peut faire sur ce systme.Il ne peut, malgr certaines propositions pour interprter la thorie quantique de faon raliste[Bohm & Hiley 1993], tre considr comme une vritable description dun systmephysique au mme titre quun tat classique, cest--dire en terme de proprits dobjets quiseraient dfinies chaque instant. Ltat quantique doit, avant tout, tre considr commeune entit mathmatique encodant linformation relative un contexte exprimental ou une prparation, information permettant le calcul des prdictions relativement ce contexte(cest un outil prdictif contextuel selon les mots de Bitbol). La notion de complexitalgorithmique peut-elle alors sappliquer aux tats quantiques?

    70 Il est en fait possible de rpondre positivement cette question. Nous allons donc chercher prciser comment une complexit algorithmique quantique peut tre dfinie et que celle-cipeut tre aussi utilise, comme dans le cas classique, pour dfinir lentropie thermodynamique.

    71 Une premire classe de propositions pour dfinir une notion de complexit algorithmique pourun qubit14 ou une suite de qubits se rfre au travail dun ordinateur quantique, cherchant ainsi gnraliser le dfinition classique donne la sectionIV. Dans cet ordre dides, Vitnyi[Vitnyi 2001] dfinit la complexit algorithmique du qubit |> comme la longueur, en bitsclassiques, du plus petit programme d un ordinateur quantique susceptible de produire oude calculer exactement un qubit approch |> de |>, qui serait, lui, calculable, touten prenant en compte la fidlit du calcul, cest--dire son degr dapproximation qui peut trevalu par la quantit ||2 . De leur ct, Berthiaume, van Dam et Laplante [Berthiaumeet al. 2000] proposent de considrer comme mesure de la complexit algorithmique dune suitedonne de qubits (et donc, en particulier, dun seul qubit) la longueur, mesure en qubits15, dela plus petite entre quantique (qui est aussi une suite de qubits) dun ordinateur quantique quiproduit ou calcule la suite de qubits donne initialement (ou le qubit unique donn),et en prenant toujours en compte la fidlit16 du calcul. La diffrence essentielle entre cesdeux approches est que Vitnyi propose une mesure de la complexit algorithmique quantiquedun qubit en bits classiques, comme mesure de la longueur dun programme classiquefonctionnant sur un ordinateur quantique, alors que Berthiaume et al. en donnent une mesureen termes de qubits, mesurant la longueur de lentre quantique dun tel ordinateur.

    72 Cependant, ces propositions soulvent la question essentielle suivante : que veut direproduire ou calculer un qubit? Dans le cas classique, calculer un mico-tat dunsystme physique revenait dcrire sa configuration spatio-temporelle, par exemple en termesdes positions et quantit de mouvement de ses constituants, cest--dire dcrire ce quil estvraiment, indpendamment de toute autre considration comme nos moyens daccs laconnaissance de cet tat. Mais, comme nous lavons remarqu ci-dessus, un tat quantiquene peut tre considr comme tel. Il est avant tout une entit abstraite qui encode l informationrelative une prparation donne et qui permet de prdire les rsultats de mesure quil seraitpossible dobtenir en mesurant telle ou telle observable.

    73 La description dun tat quantique pur pourrait-elle alors dsigner, ainsi que le suggreaussi Vitnyi [Vitnyi 2001, 3-4], celle de ses deux coefficients complexes dans une certainebase? Ces derniers tant dfinis laide de quatre nombres rels, il faudrait donc considrer

  • Physique, information statistique et complexit algorithmique 18

    Philosophia Scienti, 11-2 | 2007

    la longueur du plus petit programme qui crit ces quatre nombres rels. Or, tous les nombresrels ne sont pas calculables17. Par contre, on peut montrer que tout nombre algbrique, quiest racine d un polynme coefficients entiers, est calculable (alors que les autres rels,qui sont qualifis de transcendants, comme nou e, la base des log npriens, ne le sont pasforcment). Par consquent, il y aurait un sens parler du plus petit programme qui calculeou produit un tat approch |> de |> dont tous les coefficients sont calculables (cest--dire quils sont constitus par des couples de rels calculables au sens prcis dfini ici, pourdes nombres).

    74 Mais une telle proposition, qui est intressante dun point de vue purement algorithmique, nestpas trs significative du point de vue de la physique. Il est difficile de croire que la complexitnumrique des coefficients utiliss pour crire le vecteur reprsentatif de ltat quantiquedun systme physique nous informerait sur la complexit physique des phnomnes quipeuvent tre observs. Comme le montre lapplication de la thorie quantique des situationsparadigmatiques, telle les phnomnes dinterfrences ou les corrlations EPR, des tatsquantiques peuvent scrire laide de nombres entiers ou rationnels, cest--dire laide denombres algorithmiquement simples, et donner cependant lieu des phnomnes typiquementquantiques rvlant une grande complexit physique, cest--dire en fait dune grande richesse informationnelle. II est donc souhaitable de dfinir autrement que selon la conceptionpurement numrique mentionne ici la complexit algorithmique dun tat quantique.

    75 Ces remarques nous mnent considrer une deuxime approche18 qui se base sur lideexpose au dbut de la sectionVI, plus proche de la ralit exprimentale, ide selon laquelleun tat quantique doit, avant tout, tre considr comme une entit mathmatique dfinierelativement un processus de prparation donn. Selon cette conception, Mora et Briegelproposent de dfinir la complexit algorithmique d un tat quantique de la faon suivante[Mora & Briegel 2005]:

    76 Ces auteurs suggrent que la complexit dun tat quantique est lie la complexitdu processus de sa prparation qui peut tre dcrit classiquement , cest--dire parlintermdiaire dun canal de communication classique qui nutilise que de linformationclassique. Ce processus exprimental peut tre idalis comme une suite finie de porteslogiques. Les portes logiques (quantiques) formalisent les oprations lmentaires partirdesquelles peut tre gnre toute prparation, prparation qui se traduit en fin de compte parune manipulation de qubits. Par exemple, outre les portes logiques qui modifient la phase duqubit dentre ou qui induisent une rotation, on utilise couramment lopration de Hadamardqui agit sur lun des qubits d une base standard (|0>,|1>) et calcule, respectivement, unesuperposition linaire poids gaux ou opposs de ces vecteurs de base:

    ou la porte CNOT qui change les tats |0> et |1> du qubit cible |y> dun 2-qubit detype |x,y>, o x et y peuvent prendre les valeurs 0 ou 1, mais seulement dans le cas o lequbit contrle, |x> , est |1>:

    [Nielsen 1998].

    77 Une procdure de prparation donne pour un tat quantique utilise donc une suite finiede portes logiques d une base B donne. Pour coder le circuit ainsi dfini, nomm CB,il faut se donner un code qui va assigner chaque circuit possible une suite de bits qui estdiffrente de celle assign aux autres circuits. Mora et Briegel dfinissent alors la complexit

  • Physique, information statistique et complexit algorithmique 19

    Philosophia Scienti, 11-2 | 2007

    algorithmique (classique) d un tat quantique |> relativement la base B, au code et au circuit CB par [Mora & Briegel 2005, 7]:

    o (CB) est le code associ au circuit CB et kcl( (CB)) dsigne la longueur du plus petitprogramme, en bits classiques, capable de gnrer (CB).

    78 Puisqu il existe gnralement plusieurs procdures pour prparer un tat quantique donn,la complexit algorithmique de |> relativement la base B et au code sera en fait dfiniepar la valeur minimale de la quantit dfinie par lexpression (6) sur tous les circuits possiblesCB:

    79 Une remarque importante concernant la cohrence de cette dfinition : il est possible demontrer une proprit dinvariance par changement de code, une constante additive prs.Plus prcisment, pour deux codes et la diffrence de complexit dfinie ainsi est uneconstante ne dpendant que de et [Mora & Briegel 2005, 7-8].

    80 Enfin, la dfinition ci-dessus suppose, idalement, que ltat |> peut tre prpar exactement partir dun circuit CB. Dans le cas gnral, les circuits utiliss permettent la prparation de| > une certaine prcision . Par consquent, plus gnralement encore, la complexitalgorithmique de ltat quantique |> relativement la base B, au code et au paramtrede prcision est dfinie par:

    o CB(|>) est le circuit qui prpare |> avec la prcision .81 La dpendance de la dfinition ci-dessus par rapport la base B pourrait faire croire que

    le circuit le plus court servant prparer un tat quantique donn peut toujours tre renduaussi simple que lon veut en choisissant correctement la base B, ce qui ferait perdre cettedfinition beaucoup de son intrt. En fait, comme le montrent Mora et Briegel, il nen estrien [Mora and Briegel 2005, 11-12]: de mme que le nombre de suites binaires de longueurn compressibles, dont la complexit est infrieure un nombre entier donn, est petit parrapport au nombre total des suites binaires de longueur n, le nombre dtats quantiques dont lacomplexit algorithmique relative une base quelconque et une prcision donne est infrieure un nombre entier donn est petit par rapport au nombre total dtats pouvant tre prpar laide de cette mme base et avec la mme prcision.

    82 La possibilit de dfinir une notion de complexit algorithmique dun tat quantiqueindividuel permet en particulier de dfinir linformation dintrication dun qubit en termede complexit algorithmique. Ce qui ne pouvait se faire laide de la notion statistiquedinformation (sectionIII.2). Une telle dfinition algorithmique de linformation dintricationpermettrait une valuation quantitative des quantits dinformation manipules et (ou)transmises dans des tches typiquement quantiques (codage superdense, tlportationquantique, calcul quantique), ce qui conduirait alors en prciser les possibilits et leslimites.

    83 Pour cette dfinition, on peut utiliser la notion de complexit algorithmique mutuelle. Lacomplexit algorithmique mutuelle de deux suite set s, qui est une mesure de leur degr decorrlation, est dfinie de la faon suivante:

    k(s: s)=k(s)+k(s)k(ss)

    o k(ss) mesure la complexit de la suite jointe ss. Linformation dintrication dunsystmeS1,2 prpar dans ltat |1,2>, S1,2 tant compos de deux sous-systmes S1 et S2 dontcertaines des observables sont corrles (peu importe lesquelles), peut alors tre dfinie par:

    kintri(S1,2)=k(D1)+k(D2)k(D1,2)

  • Physique, information statistique et complexit algorithmique 20

    Philosophia Scienti, 11-2 | 2007

    84 o D1,2=|1,2> auquel est associ une distribution de probabilits {pj}. Or, daprs lesdveloppements prcdents, chaque tat |J> peut tre considr, relativement une base Bdonne, comme le rsultat dune certaine prparation exprimentale correspondant un certaincircuit (de longueur minimale) CB, lequel pouvant tre cod par une suite de symbolespour laquelle est dfini de faon tout fait classique une notion de complexit algorithmique.Lensemble des circuits prparant les micro-tats | J> associs aux probabilits pj peutdonc tre dcrit classiquement, comme un ensemble statistique de suites binaires, de lamme manire que lensemble des micro-tats classiques de la sectionV. Par consquent, lesrsultats rapports de cette sectionsont applicables tels quels.

    86 Dailleurs, titre dapplication de cette quivalence dans le cadre de la mcaniquestatistique quantique, Caves a ainsi retrouv lexpression de lentropie microcanonique [Caves1990] : Le nombre de microtats accessibles Pj, considrs comme quiprobables,dun systme dnergie E, la rsolution E prs, est (E) E, o (E) est la densitdtat. Par consquent, utilisant lquivalence fondamentale (4) entre entropie statistiqueconditionnelle et complexit algorithmique conditionnelle moyenne des micro-tats Pj, lacomplexit algorithmique du nombre (E)E tant de lordre de log2(E)E, on retrouvelentropie microcanonique19Smicro=log2(E)E, expression qui se rduit, pour un systme detaille macroscopique, log2(E).

    Conclusion: Vers une thermodynamique delinformation

    87 Les dveloppements prcdents montrent que la notion de complexit algorithmique peut treutilise pour valuer, dun point de vue dgag de tout subjectivisme excessif, linformationstructurelle encode dans un tat physique, que cet tat soit considr dans le cadre classiqueou quantiquela notion dtat faisant, dans ce dernier cas, rfrence un processus deprparation exprimentale. Cette valuation de linformation structurelle dun tat physique,qui ne se dfinit pas par rfrence la connaissance (ou au manque de connaissance) quen alobservateur, permet dinterprter la notion dentropie thermodynamique en terme de degrdorganisation, cest--dire comme une grandeur pouvant tre assigne de faon intrinsqueau systme physique considr. En outre, une telle valuation du contenu informationnel duntat quantique individuel, qui ne se rfre ni une notion densemble statistique (via unedistribution de probabilits) ni des processus de mesure, peut donner lieu un traitementquantitatif des phnomnes de transport et de manipulation dinformation qui interviennent defaon essentielle dans les applications de la thorie de linformation quantique.

    88 Il semblerait, par consquent, que la notion de complexit algorithmique rende possible laconstruction dune vritable thermodynamique de linformation rgissant les changes,la manipulation et les transformations de linformation-organisation des systmes physiques,une science de linformation dgage de tout subjectivisme excessif.

    Je remercie Roger Balian pour sa critique dtaille et trs stimulante de la premire versionde ce manuscrit, ainsi que Jean Paul Delahaye pour ses remarques constructives et sessuggestions intressantes. Je remercie aussi un referee anonyme pour son expertise sur lapartie de ce manuscrit concernant lapplication de la notion de complexit algorithmique la

  • Physique, information statistique et complexit algorithmique 21

    Philosophia Scienti, 11-2 | 2007

    physique quantique. Enfin, je suis trs reconnaissant envers Guido Baccagaluppi de mavoirinvit exposer les ides dveloppes dans ce texte au sminaire de Philosophie des Sciencesde lIHPST, ainsi que pour nos discussions fructueuses sur le sujet.

    Bibliographie

    BALIAN, R. 1982 Du microscopique au macroscopique. Cours de physique statistique de lEcole Polytechnique,Tome1, d.Ellipses. 2005 Information in statistical physics, Studies in Histories and Philosophy of Modern Physics 36.

    BENNETT, C. H. 1988 Notes on the History of Reversible Computation, IBM J. Res. Dev., Vol.32, p.16.

    BERTHIAIJME, A., VANDAM W. & LAPLANTE, S. 2000 Quantum Kolmogorov Complexity, ArXiv:quant-ph/0005018 v1, 3 May 2000

    BITBOL, M. 1988 The concept of measurement and time symmetry in quantum mechanics, Philosophy of Science,55, 349-375. 1996 Mcanique Quantique. Une introduction philosophique, dition Flammarion.

    BOHM, D. & HILEY, B. J. 1993 The Undivided Universe, Routledge.

    BOLTZMANN, L. IN BRUSH S. G. 1966 Kinetic Theory, Vol. 2 (Irreversible Processes), Oxford: Pergamon.

    BRILLOUIN, L. 1956 Science and Information Theory, New York: Academic Press.

    CALLEN, H. B. 1975 Thermodynamics, New York: Willey.

    CAVES, C. M. 1990 Entropy and Information: How much Information is Needed to Assign a Probability?, inComplexity, Entropy and the Physics of Information, Zurek, W.H. (ed) Addisson-Wesley Pub. Co.

    CHAITIN, G. J. 1977 Algorithmic Information Theory, IBM J. Res. Dev. , Vol.21, p.350.

    COSTADEBEAUREGARD, O. 1963 Le Second Principe de la Science du Temps, dition du Seuil.

    COULON, C. & MOREAU, S. 2000 Physique statistique et thermodynamique, Dunod.

    DELAHAYE, J. P. 2002 Lintelligence et le calcul, Belin. Collection Pour la Science.

    DIU, B., GUTHMANN, C., LEDERER, D. & ROULET, B. 1989 Physique Statistique, dition Hermann.

    ESPAGNAT, B. D 1994 Le Rel Voil. Analyse des concepts quantiques, Fayard.

    EVERETT, H. 1973 The Many-Words Interpretation of Quantum Mechanics, Princeton Series in Physics, PrincetonUniversity Press.

    GACS, P. 2001 Quantum Algorithmic Entropy, Ar-Xiv: quant-ph/0011046 v2.

    GIBBS, J.W. 1902 Elementary Principles in Statistical Mechanics, Yale University Press.

    GRINBAUM, A. 2004 The Significance of Information in Quantum Theory, PhD Dissertation, Ecole Polytechnique,Paris.

    HAKIM, R. 1996 Introduction la mcanique statistique, Masson.

    HUW, P.

  • Physique, information statistique et complexit algorithmique 22

    Philosophia Scienti, 11-2 | 2007

    1996 Times Arrow and Archimedes Point, New York, Oxford: Oxford University Press.

    JAYNES, E.T. 1957 Information Theory and Statistical Mechanics, Phys. Rev., 2o , p.171 and no4 p.620. 1965 Gibbs versus Boltzmann entropies, Amer. Journ. of Phys., Vol.23, p.391.

    KOLMOGOROV, A. N. 1965 Three Approaches to the Quantitative Definition of Information, English translation in Prob.Inform. Transmission, Vol.1, p.1.

    LANDAUER, R 1961 Irreversibility and Heat Generation in the Computing Process, IBM J. Res. Dev., Vol.5, p.183.

    LE BELLAO, M. 2005 Introduction linformation quantique, Belin

    LEFF, H.S. & REX, A. 2003 Maxwells Demon 2: Entropy, Classical and Quantum Information, Computing, Bristol andPhiladelphia: Institute of Physics Publishing.

    LEVIN, L. A. 1976 Various Measures of Complexity for Finite Objects Axiomatic Description, English translation,in Soviet Math. , Dokl. Vol.17, p.522.

    LI,M. & VITANYI, P. 1993 An Introduction to Kolmogorov Complexity and its Applications, New York: Springer-Verlag.

    MAXWELL, J. C. 1891 Theory of Heat, Traduction de G. Mouret: La Chaleur, Paris: d. B. Tignol.

    MORA, C. & BRIEGEL, H.J. 2004 Algorithmic complexity of quantum states, ArXiv:quant-ph/0412172, v122 Dec2004.

    VONNEUMANN, J. 1955 Mathematical Foundations of Quantum Physics, Princeton University Press.

    NIELSEN, M. A. 1998 Quantum Information Theory, PhD Dissertation, University of Queensland. 2005 Eaters of the Lotus: Landauer sPrinciple and the Return of Maxwell sDemon. Studies inHistory and Philosophy of Modern Physics 36, 475-411.

    PAULI, W. 1928 ber das H-Theorem vom Anwaschsen der Entropie vom Standpunkt der neuenQuantenmechanik in Probleme des Modernen Physik., Hirzel.

    POINCAR, H. 1889 Sur les tentatives dexplication mcanique des principes de la Thermodynamique, Compte renduhebd. de lAcadmie des Sciences, n108, p.550.

    POMERANSKY, A. A. 2004 Intrication et Imperfections dans le Calcul Quantique, Thse de Doctorat, Universit PaulSabatier, Toulouse.

    PRIGOGINE, I. 1980 Physique, temps et devenir, Masson.

    REIF, F. 1965 Statistical Physics, Berkeley Physics Course, vol.5, Mac Graw-Hill.

    SCHUMACHER, B. 1990 Information from Quantum Measurements, in Complexity, Entropy and the PhysicsofInformation, Zurek., W.H. (ed.), Addisson Wesley Publishing Company. 1995 Quantum Coding, Physical Review A, vol51, 4o, p.2738.

    SHANNON, CE. & WEAVER, W. 1949 The Mathematical Theory of Communication, Ed. Urbana. University of Illinois Press.

    SHENKER, O.R. 2000 Logic and Entropy, http://philsci-archive.pitt.edu/115/.

    SOLOMONOFF, R. J. 1964 A Formal Theory of Inductive Inference, Information and Control, Vol.7, p.1.

    SZILLARD, L.

  • Physique, information statistique et complexit algorithmique 23

    Philosophia Scienti, 11-2 | 2007

    1929 On the Decrease of Entropy in a Thermodynamic System by the Intervention of IntelligentBeings, Zeit. Phys., Vol.53, p.840. Traduction dans: Quantum Theory and Measurement, Wheeler J.A. and Zurek W. H. (eds.), Princeton University Press 1983.

    TIMPSON, C. G. 2004 Quantum Information Theory and the Foundations of Quantum Mechanics, PhD Dissertation,University of Oxford, UK. ArXiv:quant-ph/0412063 vl8 Dec2004.

    VITANYI, P. 2001 Quantum Kolmogorov Complexity Based on Classical Descriptions, IEEE Transactions onInformation Theory, Vol.47, no6, 2464.

    ZEH, H. D. 1989 The Physical Basis of the Direction of Time, Springer-Verlag.

    ZUREK, W. H. 1989 Algorithmic Randomness and Physical Entropy, Phys. Rev., Vol.40, n40, 4731.

    ZWANZIG, R. 1960 Statistical Mechanics of Irreversibility, Boulder Lectures in Theoretical Physics, 3 , p.106.

    Annexe

    Appendice

    Approximations relevantes : gnralisation de la mthode [Zwanzig 1960][Zeh 1989, 3.2][Balian 2005]

    Il est possible de gnraliser la mthode suivie par Boltzmann, Gibbs ou Pauli qui consiste remplacerla densit en phase classique ou l oprateur densit quantique par une densit (ou oprateur densit)relevant(e) dfini(e) en fonction des variables macroscopiques que lon peut mesurer ou contrler.Pour chacune des procdures d approximation utilises, il est en effet possible de dfinir un oprateurde relevance Prel agissant sur la densit dtat classique ou loprateur densit quantique exact(e)D pour calculer la densit relevante correspondante:

    Par exemple, loprateur de relevance correspondant lapproximation du coarse graining de Gibbs(sectionI) se dfinit par:

    o est la densit en phase et cg est la densit coarse-grained dfinie comme dans la sectionI, par uneopration de moyennage sur les cellules de lespace des phases rsultant de son dcoupage grossier;alors que dans le cadre quantique lhypothse des phases alatoires de Pauli se traduit par lintroductionde loprateur de relevance Pdiag tel que:

    o Ddiag est obtenu partir de loprateur densit exact D aprs limination des termes non-diagonauxde sa reprsentation dans la base de relevance.

    Cette substitution a pour consquence que, dans le domaine classique par exemple, la dynamiqueHamiltonienne conservative:

    o L={H,.} est loprateur de Liouville, est alors remplace par une dynamique dissipative rgissantlvolution de la densit relevante [Zeh 1989, 3.2]:

    o t est la dure dvolution pour laquelle on peut considrer que lapproximation relevante estutilisable. Par exemple, concernant lhypothse du chaos molculaire de Boltzmann, t est le temps

  • Physique, information statistique et complexit algorithmique 24

    Philosophia Scienti, 11-2 | 2007

    pour lequel on peut considrer que linformation relative aux corrlations entre molcules dues leurscollisions devient inutile pour prdire leur volution future.

    Pour chacun des concepts de relevance adopts, cest--dire pour chacun des oprateurs Prel derelevance utiliss, une entropie statistique relevante peut tre dfinie (disons, dans sa forme la plusgnrale, partir de SVN ):

    Contrairement lentropie dfinie laide de la densit exacte D:

    lentropie relevante Srel nest pas conserve lors de lvolution temporelle du systme:

    ce qui permettrait donc de justifier le second principe de la thermodynamique.

    Notons quen pratique cette mthode est mise en application de la faon suivante. On modlise le systme N particules par un systme dquations intgro-diffrentielles rgissant lvolution des fonctions derpartition n particules, pour n variant de 1 N, ces fonctions gnralisant celle, une particule, utilisepar Boltzmann. Ce systme dquations, appel hirarchie BBGKY, est quivalent lquation deLiouville rgissant le comportement de la densit dtat dun systme physique mais il se prte bienaux diffrentes approximations relevantes permettant ltablissement dquations cintiques dcrivantune volution irrversible. Par exemple, lapproximation de degr n consiste ne retenir quela description en terme de densit rduite n particules, ce qui revient ngliger toute informationrelative aux corrlations de plus de n particules. Ces approximations permettent alors la dfinition dunehirarchie dentropies relevantes, appeles Srel dans le paragraphe prcdent, entropies correspondant auxobservables que lon peut mesurer ou contrler sur ce systme [Balian 2005, 23]. Par exemple, lquationde Boltzmann peut tre tablie en ne retenant comme relevante que la distribution une particuleet en remarquant que, pour un gaz trs dilu o seules les collisions binaires peuvent tre considrescomme sources de corrlation entre les proprits de ses composants, le temps scoulant entre deuxcollisions successives est beaucoup plus grand que la dure d une collision [Balian 2005, 20].

    Notes

    1 Nous adoptons ici une formulation standard qui mne directement lessentiel de ce qui nousproccupe ici, savoir la possibilit de caractriser lirrversibilit interne dun systme isol laide dela croissance monotone dune fonction dtat, lentropie. Pour une formulation plus dtaille du secondprincipe de la thermodynamique, on pourra se reporter par exemple au livre de Callen [Callen 1975,section1.10].2 Une fonction dtat est une fonction des variables (ou paramtres) macroscopiques qui dfinissentltat dun systme, comme la pression, la temprature ou le volume. Par consquent, la notion dentropiethermodynamique nest ici dfinie que pour des systmes physiques pour lesquels il est possible dedfinir un jeu de paramtres macroscopiques susceptibles de caractriser leur tat. Cest--dire pour dessystmes ltat dquilibre thermodynamique ou, du moins, pour des systmes dont les parties sontlocalement lquilibre et en quilibre mutuelet dans ce dernier cas, lentropie du systme est lasomme des entropies dfinies pour chacun des sous-systmes (extensivit de lentropie).3 Les quations de Hamilton-Jacobi lient les drives temporelles des coordonnes gnralises qi et piet les drives partielles de la fonction nergie par rapport ces mme coordonnesvoir, par exemple,[Diu et al. 1989, AppendiceIII].4 Ce point a t soulign par de nombreux auteurs depuis longtempsvoir, entre autres rfrences,[Costa de Beauregard 1963] [Bitbol 1988] [Huw 1996 , chap.2] ou [Zeh 1989, chap.3]. Par exemple,dans cette dernire rfrence, Zeh dnonce le mythe de lorigine statistique de la flche du tempsthermodynamique (p. 38).5 Une gnralisation de la mthode utilise par Boltzmann, Pauli ou Gibbs (dont la propositionest rapporte ci-aprs) pour interprter le second principe de la thermodynamique dans le cadre dela mcanique statistique, classique ou quantique, en termes doprateurs de relevance et dentropiesde relevances est brivement prsente dans lappendice. Cette mthode gnrale est due Zwanzig[Zwanzig 1960] et a t utilise et commente par plusieurs auteurs dont Zeh [Zeh 1989] et Balian [Balian2005].

  • Physique, information statistique et complexit algorithmique 25

    Philosophia Scienti, 11-2 | 2007

    6 Ce point sera plus dvelopp dans la sectionIII.2.7 Notons que la fonction de distribution N particules, (p(N), q(N), t), dfinie dans lespace des phases 6N dimensions (voir la sectionI) concide avec la densit de probabilit w(p(N),q(N),t)8 Notons quil a t dvelopp par la suite plusieurs variantes de cette exprience de pense par Szillard,Brillouin, Bennett, Zurek, Norton etc. ... afin den permettre une discussion plus prcise (les rfrencescorrespondantes sont celles donnes dans la bibliographie finale).9 Notons quune illustration du mme genre, mais formul en terme de pression, est propose et analysepar Shenker [Shenker 2000, 18].10 Par e