thèse version3.r

346
Université Paris 1 – Panthéon Sorbonne, Ecole Doctorale de Philosophie THÈSE Pour l’obtention du grade de docteur en Philosophie de l’Université Paris 1 – Panthéon Sorbonne Présentée et soutenue publiquement par Pierre-Alain BRAILLARD Enjeux philosophiques de la biologie des systèmes Sous la direction de Jean GAYON, Professeur à l’Université Paris 1-Panthéon Sorbonne et de Michel MORANGE, Professeur à l’Ecole Normale Supérieure de Paris Composition du jury Denis FOREST Professeur de Philosophie à l’Université Lyon 3 Jean GAYON Professeur de Philosophie à l’Université Paris 1- Panthéon Sorbonne Michel MORANGE Professeur de Biologie à l’Ecole Normale Supérieure de Paris Alexander ROSENBERG R. Taylor Cole Professor of Philosophy, Université de Duke, North Carolina, USA Octobre 2008

Upload: dolien

Post on 05-Jan-2017

243 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Thèse version3.R

Université Paris 1 – Panthéon Sorbonne, Ecole Doctorale de Philosophie

THÈSE Pour l’obtention du grade de

docteur en Philosophie de l’Université Paris 1 – Panthéon Sorbonne

Présentée et soutenue publiquement par

Pierre-Alain BRAILLARD

Enjeux philosophiques

de la biologie des systèmes

Sous la direction de Jean GAYON, Professeur à l’Université Paris 1-Panthéon Sorbonne

et de Michel MORANGE, Professeur à l’Ecole Normale Supérieure de Paris

Composition du jury Denis FOREST Professeur de Philosophie à l’Université Lyon 3 Jean GAYON Professeur de Philosophie à l’Université Paris 1-

Panthéon Sorbonne Michel MORANGE Professeur de Biologie à l’Ecole Normale Supérieure

de Paris Alexander ROSENBERG R. Taylor Cole Professor of Philosophy, Université de

Duke, North Carolina, USA

Octobre 2008

Page 2: Thèse version3.R
Page 3: Thèse version3.R

Université Paris 1 – Panthéon Sorbonne, Ecole Doctorale de Philosophie

THÈSE Pour l’obtention du grade de

docteur en Philosophie de l’Université Paris 1 – Panthéon Sorbonne

Présentée et soutenue publiquement par

Pierre-Alain BRAILLARD

Enjeux philosophiques

de la biologie des systèmes

Sous la direction de Jean GAYON, Professeur à l’Université Paris 1-Panthéon Sorbonne

et de Michel MORANGE, Professeur à l’Ecole Normale Supérieure de Paris

Composition du jury Denis FOREST Professeur de Philosophie à l’Université Lyon 3 Jean GAYON Professeur de Philosophie à l’Université Paris 1-

Panthéon Sorbonne Michel MORANGE Professeur de Biologie à l’Ecole Normale Supérieure

de Paris Alexander ROSENBERG R. Taylor Cole Professor of Philosophy, Université de

Duke, North Carolina, USA

Octobre 2008

Page 4: Thèse version3.R
Page 5: Thèse version3.R

Sommaire

Remerciements 8

Introduction générale 9

1. Génomique, post-génomique et naissance de la biologie des systèmes 13

1.1. Les progrès technologiques et le passage aux approches globales 15

1.2. Vers une vision plus dynamique des systèmes biologiques : la modélisation mathématique et informatique 48

1.3. Premières remarques sur les changements méthodologiques 57

1.4. La naissance de la biologie des systèmes 61

1.5. Conclusion : première caractérisation de la biologie des systèmes 64

2. La biologie des systèmes entre réductionnisme et organicisme 69

2.1. Quelques repères pour comprendre les enjeux de cette question : petite histoire des débats sur le réductionnisme 71

2.2. Le problème sous sa forme actuelle : réductionnisme explicatif et cadre mécaniste 75

2.3. Phénomènes émergents en biologie 87

2.4. L’émergence n’est pas le critère permettant de distinguer la biologie des systèmes de la biologie moléculaire 93

2.5. Ce qui distingue la biologie des systèmes : l’étude formelle des phénomènes émergents 105

2.6. Les modèles complexes sont indispensables à plusieurs points de vue 122

Page 6: Thèse version3.R

3. Pour un réductionnisme pragmatique et pluraliste 129

3.1. Explication causale et objective contre explication pragmatique et protagoréenne 130

3.2. À quel niveau fondamental les phénomènes biologiques doivent-ils être réduits ? 132

3.3. Aspects pratiques de la recherche et des stratégies explicatives : pourquoi l’idéal réductionniste peut être contre-productif et trompeur 134

3.4. Explication et compréhension. Le réductionnisme ne rend pas compte de la recherche de principes intelligibles 168

4. Les défis d’une biologie théorique 187

4.1. Première caractérisation de la biologie théorique 188

4.2. Petite histoire de la biologie théorique au XXe siècle 190

4.3. Les approches théoriques soulèvent deux problèmes 210

5. Biologie des systèmes et recherches de principes généraux d’organisation 236

5.1. Deux formes de biologie des systèmes : théorique et pragmatique 237

5.2. Les approches top-down 241

5.3. Limites des approches top-down 245

5.4. Les approches bottom-up : l’étude des circuits biologiques et de leur design 248

5.5. Intégration des différentes approches à travers le concept de robustesse 261

5.6. L’étude du design représente une voie médiane entre modèles particuliers et théories abstraites 263

5.7. Importance des principes généraux de design pour les expérimentalistes : contraintes dans la discrimination des mécanismes possibles 274

6. Vers une nouvelle conception du vivant (et de la biologie) ? 279

6.1. Les explications en termes de design sont non causales et mettent au jour des contraintes. Elles débordent en partie du cadre mécaniste 280

6.2. Différents types d’explications non causales en biologie 287

6.3. Différentes notions de contrainte en biologie 290

Page 7: Thèse version3.R

6.4. Rapports entre principes de design, auto-organisation et explications sélectives 293

6.5. Quelques problèmes posés par la comparaison entre systèmes naturels et artificiels : adaptationisme, optimalité, bricolage et contingence 297

6.6. L’étude des réseaux biologiques représente un cas particulier d’artifact thinking 305

6.7. Conséquences des principes généraux d’organisation des réseaux pour la conception de l’évolution et la nature des théories en biologie 309

6.8. La biologie des systèmes : une approche purement fonctionnelle ? 313

6.9. Des principes proprement biologiques ? 318

Conclusion générale 324

Bibliographie 328

Page 8: Thèse version3.R

8

Remerciements

J’aimerais commencer par remercier mes deux directeurs de thèse, Jean Gayon et Michel Morange, pour leur soutien et leurs encouragements, qui m’ont aidé à surmonter les difficultés et les doutes qui sont apparus tout au long de cette recherche. Leurs commentaires, suggestions et critiques ont permis d’améliorer bien des aspects de ce travail. Je suis particulièrement reconnaissant à Jean Gayon pour m’avoir aidé dans ma « reconversion » de la biologie vers la philosophie des sciences. Les réflexions proposées dans cette thèse doivent énormément à Michel Morange. La finesse et la justesse de ses analyses historiques et philosophiques ont contribué de manière essentielle à dégager les problématiques qui sont au coeur de mon travail et ont directement inspiré bien des idées qui y sont défendues.

Je remercie également Denis Forest et Alex Rosenberg pour avoir accepté de faire partie de mon jury de thèse.

J’exprime ma profonde reconnaissance à l’Institut d’Histoire et de Philosophie des Sciences et des Techniques (IHPST) pour l’environnement à la fois stimulant et convivial dont j’ai bénéficié pendant ces années. Tous ses membres, à commencer par son directeur Jacques Dubucs, contribuent par leur énergie et leur gentillesse à faire de ce laboratoire un lieu de recherche idéal. Je tiens à remercier Anouk Barberousse pour son engagement constant au côté des doctorants. Merci également à Peggy Cardon qui fait tant pour la bonne marche et la bonne humeur de cet institut. J’aimerais remercier les organisateurs du séminaire de Philosophie de la Biologie – tout d’abord Thomas Pradeu, puis Francesca Merlin et Marie-Claude Lorne – qui joue un rôle essentiel pour tous les doctorants travaillant dans ce domaine. Beaucoup d’autres membres de l’Institut méritent ma gratitude pour les discussions fructueuses que nous avons eues, parmi lesquels Alexandre Guay, Philippe Huneman, Cyrille Imbert, Christophe Malaterre et Matteo Mossio.

Le Centre Cavaillès de L’Ecole Normale Supérieure, a également été pour moi un lieu d’échange intellectuel fécond. Merci notamment à Michel Morange, Paul-Antoine Miquel et Jean-Jacques Kupiec pour m’avoir donné l’occasion de présenter mes recherches lors de journées d’étude.

Ma recherche a bénéficié d’une impulsion majeure lors du séjour de trois mois que j’ai effectué au département de Philosophie de l’Université de Duke. Je tiens à remercier chaleureusement Alex Rosenberg pour m’avoir accueilli avec une extraordinaire gentillesse. J’ai beaucoup apprécié son enthousiasme lors de nos discussions et ses commentaires m’ont aidé à préciser mes arguments. Merci également aux autres membres du groupe de Philosophie de la Biologie et notamment Robert Brandon pour leur accueil.

J’aimerais également exprimer ma gratitude à Lindley Darden pour les commentaires qu’elle a faits sur mon travail ainsi que pour les discussions que nous avons eues et qui m’ont été utiles pour mieux comprendre les débats sur le mécanisme.

Je remercie sincèrement Denis Forest pour l’intérêt qu’il a porté à ma recherche et pour ses encouragements et conseils amicaux.

Merci à Roselyne Richter pour les innombrables articles scientifiques qu’elle a eu la gentillesse de me donner.

Les amis avec qui j’ai partagé ces années parisiennes ont rendu cette période heureuse. Je les remercie du fond du coeur et particulièrement Bidhan et Audrey pour leur amitié fidèle.

Merci à mes parents et à ma soeur pour leurs encouragements et leur affection. Un grand merci à mon père pour la relecture attentive qu’il a faite de ce travail.

Enfin, merci à Sayaka, ma compagne, dont l’attention, la générosité et la bonne humeur m’ont été si précieuses pendant ces années.

Page 9: Thèse version3.R

9

Introduction générale

On entend dire depuis quelques années que la biologie est en train de connaître une

révolution ou du moins une transformation profonde. Ce qui agite la communauté des

biologistes, c’est le développement de la génomique et de la génomique fonctionnelle, mais

surtout, l’émergence de ce qu’on appelle désormais la biologie des systèmes. Si tout le monde

s’accorde sur le fait qu’on assiste à des changements importants, les avis semblent en

revanche partagés sur leur nature exacte.

Pour certains, il s’agit d’une rupture profonde pour les sciences biologiques.

Plusieurs raisons sont avancées à l’appui d’une telle interprétation : l’apparent rejet de la

démarche réductionniste qui prédominait en biologie moléculaire ; le retour à d’anciennes

approches systémiques qui n’ont jamais réussi à s’imposer ; l’ambition de développer une

véritable biologie théorique. D’autres commentateurs insistent, au contraire, sur la profonde

continuité avec le projet de la biologie moléculaire et minimisent les changements

conceptuels.

Le problème que nous avons décidé de traiter dans cette recherche est celui de la

nature et de l’ampleur de ces transformations. Pour mener à bien ce projet, il nous a paru

fécond de revenir sur certaines des questions centrales de la philosophie des sciences à la

lumière des développements récents en biologie des systèmes. En essayant de voir si la

biologie des systèmes prolonge ou au contraire rejette la démarche réductionniste de la

biologie moléculaire, en cherchant à déterminer si les modèles qu’elle construit relèvent d’un

nouveau type d’explication, en clarifiant enfin les ambitions théoriques qu’elle poursuit, nous

avons pensé qu’il serait possible d’apporter certains éléments de réponse à notre question de

départ.

La conviction qui a guidé ce travail est que cet effort de clarification pourrait se

révéler bénéfique non seulement pour la philosophie mais également pour la biologie. Les

scientifiques doivent réfléchir aux fondements des méthodes qu’ils utilisent dans leur

investigation des phénomènes naturels, au sens des concepts qu’ils développent, à la portée et

aux limites des modèles explicatifs qu’ils proposent. L’analyse philosophique pourrait les

Page 10: Thèse version3.R

10

aider dans cette tâche. Toutes les questions que nous venons de mentionner sont essentielles

pour la biologie, qui a toujours eu une place ambiguë dans le paysage des sciences. On la

considère depuis longtemps comme une science « dure », mais, dans le même temps, on

insiste sur ce qui la sépare fondamentalement de la physique et de la chimie. Les biologistes

ont toujours été partagés entre, d’un côté, le désir d’ancrer leurs recherches dans les sciences

« dures » en étudiant le vivant au niveau moléculaire, et de l’autre, la conscience que leur

domaine était différent et ne pouvait être ramené à la physique. De là tous les débats sur le

réductionnisme et l’autonomie de la biologie, débats qui ont animé aussi bien les

communautés scientifique que philosophique.

Deuxièmement, la philosophie des sciences doit être attentive à rester suffisamment

proche de la pratique de la science lorsqu’elle mène ses analyses et construit ses cadres

interprétatifs. Il est admis depuis la fin de l’âge d’or de l’empirisme logique qu’il faut éviter

une simple reconstruction rationnelle de la science, sous peine de ne pas pouvoir parler de

façon pertinente à son propos. Les philosophes de la biologie ne peuvent, dans leur ensemble,

pas être accusés d’un manque d’attention à la pratique de la science, mais il faut toutefois

remarquer que leurs travaux se sont beaucoup concentrés sur la biologie de l’évolution. La

biologie fonctionnelle (dans le sens que lui donne Ernst Mayr dans son article « Cause and

effect in biology »), lorsqu’elle est examinée, l’est en général à partir des modèles classiques

de la biologie moléculaire, de la génétique ou de la physiologie. Ce sont des exemples comme

le modèle de l’opéron, l’anémie falciforme ou encore le modèle de la conduction nerveuse qui

ont fondé la plupart des thèses portant sur le réductionnisme, la nature des explications ou des

théories en biologie. Nous ne contestons bien évidemment pas le bien-fondé de ces analyses.

Ces modèles constituent des exemples fascinants, qui méritent d’être examinés dans le détail

et qui n’ont certainement pas fini de nourrir la réflexion philosophique. Cependant, les

progrès accomplis récemment en biologie des systèmes nous paraissent être suffisamment

importants pour que les philosophes les prennent sérieusement en compte et pour qu’un

certain nombre de questions soient à nouveau posées. Notre conviction est donc que l’examen

attentif de ces travaux pourrait avoir un impact important sur les débats centraux de la

philosophie de la biologie.

Il faut dès le début de ce travail souligner une difficulté à laquelle nous devons faire

face. La biologie des systèmes est un domaine scientifique extrêmement récent et qui connaît

des progrès très rapides. La nouveauté de ces approches a été pour nous un attrait

considérable, mais elle constitue pour le philosophe qui réfléchit aux développements

scientifiques une difficulté dont il ne faudrait pas minimiser l’importance. Lorsqu’il examine

Page 11: Thèse version3.R

11

des théories, des modèles, des expériences qui ont un siècle, cinquante ans ou même vingt

ans, celui qui observe les sciences dispose d’un recul suffisant pour réfléchir confortablement

aux questions qui l’intéressent. Il sait quelles suites ont eu les recherches sur lesquelles il se

penche et il connaît la solidité de ces explications. Cela donne incontestablement une certaine

robustesse à ses analyses.

En revanche, lorsque l’on se propose d’examiner des recherches qui ont souvent

moins de dix ans, et qui sont la plupart du temps encore très discutées, voire controversées,

dans la communauté scientifique, comment fonder une discussion solide ? Pour beaucoup, la

biologie des systèmes semblera essentiellement programmatique et cela est certainement en

partie vrai. Dès lors, comment mener une analyse en évitant que les conclusions auxquelles on

sera parvenu ne soient rapidement balayées et rendues complètement caduques par des

nouveaux développements scientifiques ?

Tout en reconnaissant ces difficultés, nous pensons néanmoins qu’il est possible de

mener une enquête relativement solide sur ces questions. Nous avons essayé de choisir nos

exemples avec soin, de manière à éviter de fonder nos thèses sur un ou quelques exemples

marginaux, qui représenteraient mal les tendances fortes de la biologie des systèmes. Si des

travaux isolés peuvent être dignes d’intérêt, ils nous renseigneraient cependant mal sur la

direction suivie par le domaine sur lequel porte notre enquête. Nos choix d’exemples ont donc

été dictés par la recherche d’un compromis entre l’originalité et l’innovation d’une part, et la

reconnaissance de la communauté scientifique d’autre part (même si celle-ci n’est, bien

entendu, pas une garantie absolue de sérieux). Les études sur lesquelles nous nous appuierons

sont déjà considérées comme des « classiques » de la biologie des systèmes et sont suivies par

un nombre croissant de groupes de recherche.

L’apparition de ce qu’il faut bien considérer comme un nouveau courant de

recherche offre une belle occasion pour la philosophie des sciences de soulever des nouvelles

questions et de jeter un regard neuf sur d’anciens problèmes. Nous avons voulu par notre

travail contribuer, dans la mesure de nos compétences, à faire progresser cette nécessaire

réflexion. Si notre enquête est clairement philosophique, nous espérons qu’elle pourra

néanmoins intéresser les scientifiques impliqués dans ces bouleversements et qui cherchent à

mieux comprendre ce qu’est en train de vivre la biologie.

Pour tenter d’explorer les différents aspects de la biologie des systèmes et des

questions philosophiques qu’elle soulève, nous avons choisi de diviser ce travail en six

chapitres. Le premier sera en partie historique et aura pour but de décrire les transformations

qu’a connues la biologie moléculaire au cours des trente dernières années, essentiellement les

Page 12: Thèse version3.R

12

programmes de génomique structurale et de génomique fonctionnelle, qui ont permis le

développement de la biologie des systèmes. Ce chapitre sera descriptif, mais il nous permettra

de voir émerger un certain nombre de questions et de problèmes, qui seront traités dans les

autres chapitres. Les deux chapitres suivants seront consacrés à examiner comment la

question du réductionnisme se pose dans ce nouveau cadre. Dans le deuxième chapitre, nous

verrons comment l’utilisation massive de la modélisation informatique modifie les termes du

débat entre réductionnistes et anti-réductionnistes. Nous serons conduits à relativiser l’idée

selon laquelle la biologie des systèmes serait en rupture avec la démarche réductionniste de la

biologie moléculaire. Dans le troisième chapitre, nous défendrons la nécessité d’une approche

pragmatique de la recherche et de l’explication scientifiques, seule capable à nos yeux de

rendre compte de manière nuancée et raisonnable de ce qu’est en train d’accomplir la biologie

des systèmes. Les trois derniers chapitres seront consacrés à traiter un ensemble de questions

liées à l’opportunité, que semblent offrir ces nouvelles approches, de développer une biologie

théorique. Dans le quatrième chapitre, nous reviendrons sur l’histoire des différentes

entreprises qui ont tenté d’explorer cette voie. Cela nous permettra, d’une part, de définir ce

qu’il faut entendre par biologie théorique et, d’autre part, de cerner les principales difficultés

qui l’ont empêchée de trouver une place respectable dans les sciences de la vie. Le cinquième

chapitre aura pour but d’exposer les formes que prend cette recherche théorique et d’analyser

quels types de principes généraux elle s’efforce de dégager. Dans le sixième et dernier

chapitre, nous montrerons que ces principes sont inhabituels en biologie et nous en tirerons

quelques conséquences imporantes pour une conception générale du vivant et de la biologie.

Page 13: Thèse version3.R

13

Chapitre 1

Génomique, post-génomique et naissance de la

biologie des systèmes

Le but que poursuit ce travail est une exploration de la biologie des systèmes et une

analyse des différentes questions philosophiques qu’elle soulève. Ces réflexions ne pourront

être conduites sans qu’au préalable le contexte scientifique dans lequel ces approches se sont

développées ait été présenté, ne serait-ce que dans ses grandes lignes. C’est ce que nous nous

proposons de faire dans ce premier chapitre. Son contenu sera en bonne partie descriptif et

sans doute relativement peu original, ce phénomène ayant déjà été passablement discuté aussi

bien par des scientifiques que par des historiens et des philosophes. Mais la manière dont cette

histoire sera rapportée permettra de faire apparaître un certain nombre de questions qui seront

traitées dans le reste de ce travail.

Nous passerons en revue dans ce chapitre les progrès technologiques qui sont

intervenus dans le champ de la biologie moléculaire1 au cours des années 90 et qui ont permis

et favorisé le passage à une science à plus grande échelle que l’on désigne souvent par

l’expression « approches globales ». Il s’agit d’un phénomène rapide et complexe, caractérisé

par l’apparition de beaucoup de techniques et de méthodologies nouvelles.

On peut considérer que ce mouvement a réellement commencé avec les grands

projets de séquençage des génomes, et particulièrement le projet de séquençage du génome

humain, le HGP (Human Genome Project). Du point de vue qui nous intéresse ici (le passage

à la biologie des systèmes), on peut dire que l’impact de ce projet a été double. D’une part, il

a ouvert la voie à d’autres projets à large échelle, fondés sur l’automatisation des procédures 1 L’expression « biologie moléculaire » sera toujours prise dans un sens large et pas dans le sens relativement restreint qu’elle avait à ses débuts. Elle s’appliquera à des domaines qui relèvent en fait de la biochimie, de la biologie cellulaire, de la microbiologie, etc.

Page 14: Thèse version3.R

14

expérimentales et du traitement des données, la collaboration entre chercheurs et institutions,

le développement de technologies de plus en plus rapides et bon marché ainsi que la création

de vastes bases de données destinées à accueillir les fruits de ces programmes. D’autre part,

en mettant en lumière les limites des données issues du séquençage et des méthodes

permettant leur analyse, il a naturellement conduit à poursuivre cet effort de recensement

global à d’autres niveaux, essentiellement l’expression des gènes et la protéomique. Ces

nouvelles directions de recherche correspondent au passage de la génomique à la génomique

fonctionnelle, aussi appelée post-génomique.

Nous présenterons dans les grandes lignes comment ces programmes se sont

enchaînés en commencant par les projets de séquençage, puis les diverses techniques liées à la

génomique fonctionnelle, notamment l’étude de l’expression des gènes et l’étude du

protéome. Nous verrons comment à partir de là, les techniques dites « à haut-débit » (« high-

throughput » en anglais) se sont étendues à tous les aspects de la biologie moléculaire et

cellulaire (réseaux génétiques, métabolisme, etc.).

Ces projets ont tous en commun de générer d’énormes quantités de données. Un

problème majeur, qui a tout de suite été reconnu2, a été de développer des moyens capables

d’une part, de gérer ces données et d’autre part, de les analyser, de les interpréter et d’en tirer

des informations biologiquement pertinentes. La bioinformatique s’est constituée en se

donnant pour tâche de relever ce défi. Nous présenterons donc rapidement le développement

de ce nouveau domaine, qui est indiscociable du mouvement vers la biologie des systèmes.

La solution naturelle au problème de l’interprétation des données a été l’intégration.

La biologie des systèmes est d’ailleurs souvent présentée comme une biologie intégrative.

Nous verrons que cette idée est importante et qu’elle recouvre plusieurs aspects. Dans le cadre

de la génomique fonctionnelle, le principe a été de combiner les différentes données pour

pouvoir attribuer des fonctions aux séquences dont on commencait à disposer. Il s’agit d’une

part fondamentale du projet génomique : l’annotation fonctionnelle.

L’étape qui est sans doute la plus essentielle pour comprendre le développement de

la biologie des systèmes (peut-être plus au sens conceptuel qu’historique) correspond à la

prise de conscience de ce que les approches bioinformatiques classiques et d’annotation des

génomes n’étaient pas suffisantes pour approfondir notre connaissance du fonctionnement des

systèmes biologiques. Ce qui fait cruellement défaut à ces approches, c’est une vision

dynamique des processus. La réponse à cette limite est venu des modèles mathématiques et

2 Voir par exemple A.W. Murray, « Wither genomics ? », Genome Biology, 1 (2000) : 1-6.

Page 15: Thèse version3.R

15

informatiques. Nous présenterons donc la manière dont ces approches se sont rapidement

développées depuis la fin des années 90. Cette utilisation nouvelle des outils informatiques en

biologie correspond à ce qu’on appelle souvent la biologie computationnelle.

Ce survol risque de donner une image très simplifiée des transformations qui ont

conduit de la biologie moléculaire à ce qu’on nomme désormais la biologie des systèmes. Il

n’y a pas de causalité historique simple et linéaire et nous verrons tout au long de ce travail

que beaucoup de ces approches existaient depuis déjà longtemps. Ce chapitre ne cherche pas à

fournir une analyse historique détaillée de ces transformations récentes.3 Nous pensons malgré

tout qu’en présentant ainsi cette histoire, on pourra comprendre certains des enjeux et des

forces qui ont conduit la biologie vers la situation actuelle. Mais il faut garder à l’esprit que la

présentation qui va être faite de cette évolution vise avant tout à « planter le décors », en

donnant une première idée de ce qu’est la biologie des systèmes, dans le but de pouvoir

aborder les questions philosophiques qu’elle pose. La simplification historique pousuivra

donc un but pédagogique.

La fin de ce chapitre sera consacrée à quelques questions méthodologiques

soulevées par les approches de génomique fonctionnelle (qui sont en quelque sorte en amont

de la biologie des systèmes à proprement parler). Nous décrirons également le développement

institutionnel de la biologie des systèmes au cours des dix dernières années. Nous conclurons

ce chapitre en essayant de donner une première caractérisation de ce domaine. Il s’agira

toutefois à ce stade plus de poser des questions et d’ouvir des pistes de réflexion que

d’apporter des réponses détaillées. C’est au fil des chapitres suivants que nous essaierons de

mieux comprendre quels sont les enjeux scientifiques et philosophiques que représentent les

nouvelles approches systémiques pour la biologie.

1.1. Les progrès technologiques et le passage aux approches globales

1.1.1. Naissance et développements de la génomique Choisir un point de départ lorsque l’on se propose de relater un processus historique

est, bien entendu, quelque chose d’assez arbitraire. On peut toutefois considérer que si l’on

3 Voir par exemple le travail suivant : V. Ramillon, Les deux Génomiques. Mobiliser, Organiser, Produire : du séquençage à la mesure de l'expression des gènes, Thèse de Doctorat, 2007 ; ou encore J. P. Gaudillère et H. J. Rheinberger (Eds.), From molecular genetics to genomics, The mapping cultures of twentieth-century genetics, New York, Routledge, 2004.

Page 16: Thèse version3.R

16

s’intéresse aux bouleversements qui ont révolutionné la biologie expérimentale et conduit à la

biologie des systèmes, il est assez naturel de partir de l’origine des projets de génomique.

Le terme anglais « genomics » doit son origine au biologiste Thomas Roderick qui

l’inventa en 1986 pour la création d’un nouveau journal (Genomics). Roderik s’est inspiré du

terme génome, qui a lui-même été crée par le biologiste allemand H.Winkler en 1920

(« Genom », en allemand qui a été traduit en anglais en 1930), à partir des mots gènes et

chromosomes.4 Le génome désigne l’ensemble des chromosomes et donc de l’ADN présent

dans une cellule ou un organisme.

Ce terme s’est si rapidement et si bien répendu en biologie que peu de temps après

son apparition, il était devenu connu du grand public. La génomique a été définie de

différentes manières : étude des tous les gènes d’un organisme ; étude du génome entier ;

étude de la structure et de la fonction des tous les gènes en procédant par cartographie et

séquençage du génome entier. Si l’on veut être un peu plus précis, on peut dire que la

génomique englobe tous les projets qui ont comme buts principaux l’établissement de cartes

génétiques, physiques et enfin des séquences de génomes entiers. Une fois les séquences

obtenues, d’autres objectifs émergent naturellement : identification des gènes dans ces

séquences, annotation des gènes, étude du polymorphisme au sein d’une espèce, comparaison

entre espèces.

Quelle que soit la définition retenue, l’aspect le plus essentiel est le fait que cette

approche soit globale, systématique ou encore complète. C’est ce qui la distingue des

approches plus anciennes qui s’occupaient également de cartographie et de séquençage.

La meilleure manière de présenter ce qu’est la génomique et quelle est la nature de

ce projet est de brièvement rappeler les principales étapes de son développement.

Quelques rappels historiques

Nous n’allons pas faire l’historique détaillé de la génomique, mais seulement en

esquisser le développement à grands traits en rappelant quelques étapes essentielles.5 La

4 V. A. McKusick, « Genomics: Structural and Functional Studies of Genomes », Genomics, 45 (1997) : 244-249. Voir aussi l’éditorial du premier numéro : V. A. McKusick and F. H. Ruddle, « A new discipline, a new name, a new journal », Genomics, 1 (1987) :1-2. 5 On trouvera un bon tableau récapitulatif de l’histoire du HGP dans L. Roberts et al., « A History of the Human Genome Project » , Science, 291 (2001) : 1195. On pourra également consulter les articles suivants : V. A. MCKusick, op. cit.; J. D. Watson, « The Human Genome Project, past, present, and future », Science, 248 (1990) : 44-49 ; R. Brent, « Genomic Biology », Cell, 100 (2000) : 169–183 ; P. Goodfellow, « A celebration and a farewell », Nature Genetics, 16 (1997) : 209-210. Le site du HGP offre également de nombreuses

Page 17: Thèse version3.R

17

génomique est souvent associée, voire identifiée, au projet de séquençage du génome humain

(HGP). Nous verrons que cela n’est pas sans raison, mais l’origine de ces approches remonte

un peu plus loin et ses limites s’étendent bien au-delà.

La première phase des approches de génomique consiste en l’établissement de

cartes génétiques et physiques du génome. « Une carte génétique sert à décrire l’ordre relatif

des marqueurs génétiques au sein d’un groupe de liaison ».6 La distance est relative, car elle

correspond à des fréquences de recombinaison. L’unité standard est le centimorgan (cM), qui

correspond à une fréquence de recombinaison de 1%. Cette pratique n’est bien sûr pas

nouvelle puisqu’elle est née avec les débuts de la génétique, c’est-à-dire avec l’école de

Morgan au début du XXe siècle. Dans le cas des cartes physiques, les distances sont

exprimées en kilobases (kb), c’est-à-dire en milliers de paires de bases. La cartographie

physique du génome s’est faite par découpage en grands fragments (ou clones) qui ont ensuite

été ordonnés. L’établissement de cartes physiques s’était bien développé dans les années 70,

mais connaissait des sérieuses limites lorsqu’il s’agissait de passer à l’échelle du génome

entier. En effet, chaque groupe établissait des cartes de son côté, mais il était difficile de

mettre en commun ces cartes. Depuis les années 80, l’utilisation de séquences uniques du

génome (les « sequence-tagged sites » ou STS), en fournissant un « langage commun », a

grandement facilité le travail de mise en ordre des différents clones. D’autres progrès

techniques, comme la PCR, les chromosomes artificiels de bactérie et de levure (YAC et

BAC), les microsatellites pour les analyses de liaison, ont fait rapidement avancer cette

première phase.7

Le but principal et la dimension la plus novatrice de la génomique est toutefois le

séquençage. On peut faire remonter l’origine des projets de séquençage aux travaux de

Frederick Sanger sur la structure de l’insuline dans les années 50. Dans un premier temps, le

séquençage portait donc sur les protéines, mais avec le développement de technologies de

séquençage rapide de l’ADN, on commença à prédire la structure des protéines à partir des

séquences d’ADN.8

Le séquençage de l’ADN avait été rendu possible grâce aux méthodes développées

informations utiles : http://www.ornl.gov/sci/techresources/Human_Genome/home.html. 6 G. Gibson et S.V. Muse, Précis de génomique, Bruxelles, De Boeck, 2004, p. 4. 7 Pour des détails sur ces techniques et sur la génomique en général, nous renvoyons le lecteur à G. Gibson et S.V. Muse, op.cit. 8 Sur tout cela, voir M. Boguski, « Biosequence Exegesis », Science, 286 (1999) : 454 et F. Sanger, « Sequences, sequences, and sequences », Annual Review of Biochemistry, 57 (1988) : 1-28.

Page 18: Thèse version3.R

18

par Maxam et Gilbert9 ainsi que par Frederick Sanger10 au milieu des années 70. C’est la

méthode de Sanger qui s’est imposée et continue, sous des formes améliorées, à être utilisée

de nos jours.

Ces nouvelles techniques de séquençage ont rapidement connu plusieurs succès

marquants au cours des années 70. En 1972, Walter Fier et son groupe sont les premiers à

déterminer la séquence d’un gène, celui codant pour la « coat protein » du phage MS211.

Quatre ans plus tard, le même groupe détermine la séquence complète de l’ARN de ce

phage12. En 1977, le premier ADN génomique est séquencé par Fred Sanger13. Une étape

décisive est franchie avec le séquençage du génome mitochondrial chez l’homme14.

Ces progrès décisifs firent naître chez certains l’idée qu’il était devenu possible de

connaître la séquence complète des organismes supérieurs, à commencer par l’homme.

À partir de ces percées technologiques, les choses sont allées assez vite15. Dès le

début des années 80, plusieurs chercheurs commencent à réfléchir à la possibilité

d’entreprendre le séquençage du génome humain. Lors d’une réunion organisée au printemps

1985 par Robert Sinsheimer à l’Université de Californie à Santa Cruz, un groupe de chercheur

discute clairement de ce projet. Une année plus tard, le département américain de l’énergie

commence à étudier sérieusement sa faisabilité. En 1988, un comité de l’Académie Nationale

des Sciences recommande le lancement du HGP. Elle prévoit un projet sur 15 ans, avec un

financement d’environ 200 millions de dollars par an. La même année, le congrès américain

lance officiellement le projet, qui est géré conjointement par le département de l’énergie

(DOE) et les Instituts nationaux américains de la santé (NIH). James Watson, le co-

découvreur de la structure de l’ADN, prend la direction de la partie NIH du projet, le National

Center for Human Genome Research. En défendant vigoureusement ce projet devant le

congrès, il contribue à convaincre non seulement la communauté scientifique, mais aussi le

monde politique de l’importance de cette entreprise. 9 A. M. Maxam et al., « A new method for sequencing DNA », Proceedings of the National Academy of Sciences, 74 (1977) : 1258-1262. 10 F. Sanger and A. R. Coulson, « A rapid method for determining sequences in DNA by primed synthesis with DNA polymerase », Journal of Molecular Biology, 94 (1975) : 441-448 ; F. Sanger et al., « DNA sequencing with chain-terminating inhibitors », Proceedings of the National Academy of Sciences, 74 (1977) : 5463-5467. 11 W . Min Jou et al., « Nucleotide sequence of the gene coding for the bacteriophage MS2 coat protein », Nature, 237 (1972) : 82-88. 12 W. Fiers et al., « Complete nucleotide-sequence of bacteriophage MS2-RNA - primary and secondary structure of replicase gene », Nature, 260 (1976) : 500-507. 13 F. Sanger et al., « Nucleotide sequence of bacteriophage phi X174 DNA », Nature, 265 (1977) : 687-95. 14 S. Anderson et al., « Sequence and organization of the human mitochondrial genome », Nature, 290 (1981) : 457-465. 15 Voir F.S. Collins et al., « The Human Genome Project: Lessons from Large-Scale Biology », Science, 300 (2003) : 286-290.

Page 19: Thèse version3.R

19

Il faut toutefois rappeler que le HGP a soulevé beaucoup d’oppositions dans la

communauté des biologistes, en tout cas dans un premier temps. Parmi les critiques, figurait

l’idée que ce projet allait absorber une grande partie des financements attribués à la recherche

en biologie. Beaucoup pensaient qu’il était scientifiquement plus fécond de consacrer ces

ressources et ces efforts à des projets plus classiques et particuliers. De même, certains

doutaient de l’intérêt d’une approche de pure collecte, qui n’était fondée sur aucune

hypothèse. C’est donc le passage à ce qu’on appelle souvent la Big Science qui provoquait des

réticences. Un deuxième ordre de critiques venait du fait que la majeure partie du génome

était non codante. Si tel était le cas, pourquoi dépenser autant d’argent pour séquencer des

régions qui n’avaient sans doute aucune fonction biologique ?16 Ces résistances n’ont

cependant pas réussi à freiner le lancement du HGP et, en quelques années, la quasi-totalité de

la communauté des biologistes semblait convaincue.

Très rapidement, ce projet a pris une dimension internationale. En 1988,

l’organisation HUGO (Human Genome Organization) est mise sur pied. Elle regroupe des

scientifiques de 17 pays, avec pour mission de coordonner les efforts dans les différents pays.

Étant donné qu’au début du projet, les techniques de séquençage n’étaient pas

encore très développées (chères et pas automatisées, donc lentes), l’accent a été mis sur

l’établissment de cartes génétiques et physiques précises et fiables. Il s’agit là de la première

méthode pour parvenir à la séquence complète (c’est la méthode dite ordonnée). Comme nous

l’avons vu, le principe est de couper le génome en morceau de plus en plus petit, mais en

gardant l’odre des fragments grâce aux marqueurs connus. Une fois qu’on parvient à des

fragments suffisamment petits, on peut les séquencer et ensuite reconstituer la séquence

complète.

Au cours des années 90, les progrès dans le séquençage ont été très rapides, en fait

beaucoup plus rapides que prévus. Cela est notamment dû à la mise au point de machines de

séquençage automatiques à la fin des années 80 (la méthode est restée la même). Grâce à ces

progrès, ainsi qu’à ceux réalisés par la bioinformatique dans l’analyse des séquences, une

nouvelle approche a été proposée : le whole genome shotgun sequencing. Dans cette

technique, le génome est coupé en millions de fragments, mais de manière aléatoire, qui sont

ensuite séquencés. Comme ces fragments sont chevauchants, il est possible de les assembler

par des méthodes de bioinformatique, c’est-à-dire par des comparaisons de séquences. Il

s’agit toutefois d’une tâche extrêmement difficile et qui jusqu’à la fin des années 90 restait

16 Plusieurs de ces critiques sont discutées dans le numéro de la revue Science du 16 février 2001.

Page 20: Thèse version3.R

20

inabordable par manque de puissance de calcul.

Cette technique a d’abord permis de séquencer le génome de la bactérie

Haemophilus influenzae en 1995, qui est ainsi devenu le premier organisme dont le génome a

été séquencé.17 En mai 1998, la société Celera Genomics est créée dans le but de développer

cette approche et de l’appliquer au séquençage des génome de la mouche et de l’homme. On

peut dire que la création de Celera a modifié la situation et les enjeux du projet. L’entrée du

secteur privé dans ce projet a tout de suite suscité des inquiétudes. Contrairement à ce que

certains désiraient, il n’a pas été possible de fusionner les deux projets ; en revanche, certains

accords ont pu être trouvés, comme la publication simultanée des résultats.

Ensuite, comme on le sait, en février 2001 une première version de la séquence est

publiée par les deux projets18 et en 2003 la version finale est terminée, soit plusieurs années

plus tôt que le prévoyaient la plupart des estimations faites au début du projet.

Le HGP est évidemment le plus médiatique des projets de génomique, mais il faut

rappeler que l’idée de séquencer de nombreux génomes était présente dès le début de la

génomique. Il était clair que pouvoir comparer des génomes de différentes espèces serait

essentiel pour aider l’analyse des séquences (sans même parler de l’intérêt du point de vue

évolutif). Parallèlement au HGP, d’autres projets de génomique progressaient rapidement et

les séquences d’un grand nombre d’organismes, du virus aux primates, sont actuellement

connues.

Un des premiers succès de la génomique a été l’établissement de la séquence du

génome de la levure Saccharomyces cerevisiae en 1996.19 Deux ans plus tard, ce fut le tour du

vers Caenorhabditis elegans20, en 2000 celui de la mouche Drosophila melanogaster21 et en

2002 c’est la séquence de la souris qui fut publiée22. Le règne végétal n’a pas été ignoré, avec

notamment le séquençage du génome de l’organisme modèle végétal le plus répendu,

Arabidopsis thaliana23 et, en 2002, celui de deux espèces de riz24.

17 R. D. Fleischmann et al., « Whole-genome random sequencing and assembly of Haemophilus influenzae Rd », Science, 269 (1995) : 496-512. 18 J. C. Venter et al., "The sequence of the human genome", Science, 291 (2001) : 1304-1351 ; International Human Genome Sequencing Consortium, "Initial sequencing and analysis of the human genome", Nature, 409 (2001) : 860-921. 19 A. Goffeau et al., « Life with 6000 genes », Science, 274 (1996 ) : 546-567. 20 C. elegans Sequencing Consortium, « Genome sequence of the nematode C. elegans: a platform for investigating biology », Science, 282 (1998) : 2012-2018. 21 M. D. Adams et al., « The Genome Sequence of Drosophila melanogaster », Science, 287 (2000) : 2185-95. 22 R. H. Waterston et al., « Initial sequencing and comparative analysis of the mouse genome », Nature, 420 (2002) : 520-62. 23 The Arabidopsis Genome Initiative, « Analysis of the genome sequence of the flowering plant Arabidopsis thaliana », Nature, 408 (2000) : 796-815.

Page 21: Thèse version3.R

21

Nous n’avons cité là que les cas plus connus d’organismes utilisés depuis

longtemps par les biologistes. Mais il faut se rendre compte que les projets de séquençages

vont aujourd’hui bien au-delà. À la fin de l’année 2007, le nombre de génomes séquencés

dépassait les 600 et si l’on prend en compte les projets en cours, on est proche des 2000

génomes, tous règnes confondus.25

Ce bref rappel de la première phase de la génomique, pour succint qu’il soit, permet

de faire quelques remarques qui pourront éclairer la suite de notre exposé. Parmi les

nombreuses influences que la génomique en général, et le HGP en particulier, a eu sur

l’évolution récente de la biologie, et qui ont souvent été soulignées, trois aspects méritent de

retenir notre attention : les changements au niveau institutionnel et des programmes de

recherche, les progrès technologiques considérables que ces projets ont favorisé, et enfin le

développement rapide de la bioinformatique. Ces trois aspects permettront de mieux

comprendre comment la biologie des systèmes a pu se développer.

Les changements institutionnels et organisationnels

Comme on l’a rappelé, le lancement du HGP a été dès le début accompagné d’une

réflexion profonde sur les changements organisationnels et institutionels de la recherche,

nécessaires à la bonne mise en oeuvre et à la réussite de cet ambitieux projet, qui ne

ressemblait à rien de ce qui avait existé jusque-là en biologie.

On peut citer la création de consortiums, l’intensification des collaborations entre

groupes, mais aussi entre institutions nationales et internationales. Rappelons que 20 centres

dans 6 pays ont participé à l’effort de séquençage. Différents problèmes nouveaux sont

apparus. Par exemple, les formes d’échanges entre scientifiques et de partage des données

étaient inhabituelles. Se posaient notamment des problèmes de gestion des bases de données

et d’accès. Il était en effet crucial, d’une part, que ces bases soient maintenues à jour et

intègrent les résultats de tous les groupes de recherche et, d’autre part, que l’accès aux

données soit garanti à tous.

Concernant le financement, il est clair que jamais un projet de recherche en biologie

n’avait coûté aussi cher. Le buget de ce projet a atteint plusieurs centaines de millions de

24 S. A. Goff et al., « A draft sequence of the rice genome (Oryza sativa L. ssp. japonica) », Science, 296 (2002) : 92-100 ; J. Yu et al., « A draft sequence of the rice genome (Oryza sativa L. ssp. indica) », Science, 296 (2002) : 79-92. 25 On trouve des statistiques mises à jour sur le site internet du NIH : http://www.ncbi.nlm.nih.gov/genomes/static/gpstat.html.

Page 22: Thèse version3.R

22

dollars par an et coûté en tout près de 3 milliards de dollars. Tout cela est un aspect important

du passage à ce qu’on nomme souvent en anglais Big Science.

Avec une entreprise de cette ampleur, on peut dire que la biologie s’est d’une

certaine manière rapprochée de la physique et de ses projets pharaoniques (CERN).

Les bouleversements technologiques

Le développement de nouvelles technologies a depuis le début été l’un des enjeux

majeurs du HGP. Beaucoup d’argent a été investi dans ce domaine. Il était clair que, sans un

saut qualitatif au niveau technologique, le but aurait été impossible à atteindre. Le rapport de

1998 sur l’avancement du projet est très explicite sur ce point : « Le HGP devrait apporter une

contribution à ce domaine [l’étude fonctionnelle du génome] en mettant l’accent sur le

développement d’une technologie pouvant être utilisée sur une large échelle, efficace, et

capable de générer des données complètes pour le génome en entier. »26

On peut dire que ces efforts ont porté leurs fruits, puisque l’ampleur des progrès a

été au-delà de toutes les espérances et que les résultats ont dépassé les estimations de départ

les plus optimistes. En effet, les défenseurs du projet prévoyaient qu’il pourrait être terminé

en 2005. Quelques chiffres suffisent à donner une idée de ces progrès. On estime qu’entre

1985 et 2001, le débit du séquençage a été multiplié par 200027, avec une augmentation de

qualité et une diminution des coûts. Dans les années 80, les meilleurs laboratoires ne

pouvaient séquencer qu’environ 1000 paires de bases par jour, alors qu’en 2000, les 20

centres de séquençage pouvaient séquencer collectivement 1000 paires de bases par

seconde28. Entre 1990 et 2000, le prix du séquençage a diminué d’un facteur 10.

Ces progrès peuvent être en partie directement attribués au HGP. Par exemple, un

des facteurs décisifs dans l’accélération du séquençage a été le développement de nouvelles

machines financé par le DOE.

Il est important de bien se rendre compte qu’il est actuellement possible de mener

des expériences et d’obtenir des données d’une manière dont peu de biologistes auraient

seulement osé rêver il y a encore 20 ans. Nous verrons que cette révolution technologique a

26 F. S. Collins et al., « New Goals for the U.S. Human Genome Project: 1998-2003 », Science, 282 (1998) : 686. 27 T. Ideker et al., « A new approach to decoding life: Systems Biology », Annual Review of Genomics and Human Genetics, 2 (2001) : 343–72. 28 F. S. Collins et al., « The Human Genome Project: Lessons from Large-Scale Biology », Science, 300 (2003) : 286-290.

Page 23: Thèse version3.R

23

été déterminante pour l’émergence de la biologie des systèmes, bien que cette dernière ne

puisse être réduite à cela.

Développement de la bioinformatique

La bioinformatique n’est pas née avec la génomique, puisqu’elle a été développée

dans le cadre des premiers séquençages de protéines et des premières études comparatives et

évolutives qui en ont découlé29. Cependant, ce champ a littéralement explosé avec la

génomique. En 1985, le premier journal exclusivement consacré à ce domaine est créé :

Computer Applications in the Biosciences (il a ensuite changé de nom pour s’appeler

Bioinformatics).

Nous reviendrons plus loin dans ce chapitre en peu plus en détail sur le rôle qu’a

joué la bioinformatique dans le développement de la génomique et de la génomique

fonctionnelle et nous préciserons la distinction qu’il faut faire avec d’autres utilisations qui

ont été faites des outils informatiques, essentiellement la biologie computationnelle.

La bioinformatique telle qu’elle s’est développée dans le cadre des projets de

génomique a poursuivi la voie dans laquelle elle était apparue dans les années 60 dans l’étude

des protéines. Il s’agissait avant tout de reconstituer des séquences à partir de fragments (ce

problème devenait particulièrement ardu avec l’approche « whole genome shotgun

sequencing ») et à comparer des séquences entre elles, notamment dans le but d’identifier des

gènes et d’autres séquences fonctionnelles (reconnaissance de motifs). Il a fallu pour cela

développer des algorithmes efficaces.

La recherche de gènes dans les séquences obtenues correspond à la première phase

d’annotation des génomes. Le premier logiciel pour la recherche de gènes a été mis au point

en même temps que l’obtention du premier génome bactérien. Depuis la fin des années 70, les

techniques de clonage fonctionnel avaient permis d’identifier des séquences d’ADN

fonctionnellement importantes. Au cours des années 80 et 90, environ 10 000 gènes de

mammifères avaient été clonés de cette façon. Une fois qu’on disposait de bases de données

de séquences, on a commencé à isoler des gènes uniquement à partir des séquences

(notamment par comparaison avec des gènes clonés fonctionnellement) : c’est ce qu’on

appelle la détermination ab initio. Le principe est de rechercher dans les séquences des

caractéristiques propres aux transcrits qui codent pour des protéines : motifs d’initiation de la

29 Voir J. B. Hagen, « The origins of bioinformatics », Nature Reviews Genetics, 1 (2000) : 231-236.

Page 24: Thèse version3.R

24

transcription et de la traduction, sites de polyadénylation en 3’, séquences consensus

d’épissages aux frontières entre exons et introns. Le but est d’identifier des ORFs (cadres de

lecture ouverts). Chez les bactéries, il est possible de prédire ainsi 90% des gènes, mais chez

les eucaryotes supérieurs, cette tâche est nettement plus compliquée.

Nous verrons plus loin comment la bioinformatique s’est rapidement développée et

diversifiée pour faire face aux nouvelles données et aux nouveaux problèmes issus des

techniques de génomique fonctionnelle. Le point que nous voulons souligner ici est que le

HGP a favorisé cette explosion de la bioinformatique, et cela à au moins trois niveaux. Tout

d’abord, il a permis des investissements massifs dans ce domaine et a encouragé le

recrutement de chercheurs qualifiés. Le fait que la biologie ait ainsi réussi à attirer de

nombreux chercheurs brillants venus d’autres horizons (informatique, physique,

mathématique, ingénierie) a été un élément capital, comme nous le soulignerons à plusieurs

reprises. Ce phénomène n’est évidemment pas sans rappeler l’implication de nombreux

physiciens dans la naissance de la biologie moléculaire au cours des années 40 et 50. Le HGP

a d’autre part confronté cette discipline aux problèmes posés par la taille des bases de données

qui sont rapidement devenus gigantesques. Enfin, il a fallu développer des outils d’analyse à

la fois extrêmement performants et capables de traiter ces masses immenses de données et

suffisamment faciles et souples d’utilisation pour les rendre accessibles au commun des

biologistes. Il faut à cet égard souligner l’importance capitale d’Internet, qui a bouleversé

l’échange et la diffusion des données entre chercheurs en permettant à n’importe quel

biologiste d’interroger très rapidement et facilement toutes les bases de données dans le

monde.

Dans toutes ces tâches, les ordinateurs sont devenus indispensables et ont ainsi

largement contribué à bouleverser la manière dont les biologistes conduisent leurs recherches.

Si l’on revient sur les résultats des grands programmes de génomique, c’est-à-dire

les séquences des génomes entiers, que peut-on dire de leur valeur ? Il semble que la

complétion de la séquence du génome humain, après avoir soulevé une vague

d’enthousiasme, a suscité un sentiment de déception. La question de la pertinence directe de

cette séquence pour comprendre le vivant se posait en effet avec force. Certains

commentateurs ont tenté de présenter cette étape comme une désillusion des biologistes, qui

se seraient rendu compte que la séquence ne permettait pas vraiment de mieux comprendre le

vivant. Il est vrai que l’analyse des génomes s’est révélée plus ardue que prévue, notamment

en ce qui concerne la prédiction des gènes et des autres séquences fonctionnelles. Il était

Page 25: Thèse version3.R

25

devenu clair que les analyses de séquences et la bioinformatique ne pouvaient pas, par leurs

propres ressources, relever les défis de l’analyse fonctionnelle des génomes.

L’ampleur de cette déception est difficile à estimer, mais elle est certainement très

souvent exagérée. S’il est évident que les biologistes savaient bien que cette entreprise ne se

terminerait pas avec l’obtention de la séquence, il faut toutefois se rendre compte que certains

en attendaient beaucoup. La manière dont s’exprimait ce biologiste au début de la génomique

est assez révélatrice: « Le nouveau paradigme qui émerge actuellement est que tous les

« gènes » seront connus (au sens où ils seront dans des bases de données disponibles

électroniquement) et que le point de départ d’une recherche biologique sera théorique. Un

scientifique partira d’une conjecture théorique et se tournera ensuite seulement vers

l’expérience pour suivre ou tester cette hypothèse. La biologie actuelle continuera d’être

pratiquée en tant que small science — reposant sur la persipacité et l’inspiration individuelle

pour produire de nouvelles connaissances — mais le matériau que le scientifique utilisera,

incluera la connaissance de la séquence primaire de l’organisme, ainsi qu’une liste de toutes

les déductions faites à partie de cette séquence. »30

L’espoir que plaçait ce biologiste dans le pouvoir des seules séquences était

certainement trop grand, mais nous verrons plus loin que les bases de données constituent

effectivement de plus en plus le point de départ du processus de recherche. Seulement, ces

bases de données ne se limitent pas aux séquences.

Quoi qu’il en soit, il est certain qu’en se focalisant presque exclusivement sur les

séquences et donc sur des structures, la biologie s’était en partie provisoirement éloignée des

aspects fonctionnels, qui ont pourtant toujours été au coeur de sa démarche. Il était donc

naturel qu’après cette phase frénétique de séquençage, un mouvement opposé dirige à

nouveau la biologie du côté de l’analyse fonctionnelle, comme nous allons maintenant le voir.

1.1.2. Le passage à la génomique fonctionnelle (ou post-génomique)

A peine commençait-t-on à atteindre les buts des premiers grands projets de

génomique qu’une nouvelles expression s’imposait en biologie : génomique fonctionnelle ou

post-génomique. Fallait-il comprendre que la génomique était une entreprise déjà dépassée ?

Voyons comment cette transformation fut présentée par certains biologistes :

« La génomique connaît toutefois actuellement une transition ou une expansion, de

30 W. Gilbert, « Toward a paradigm shift in biology », Nature, 349 (1992) : 99.

Page 26: Thèse version3.R

26

la cartographie et du séquençage des génomes (les buts originaux du HGP) à une focalisation

sur la fonction du génome. Pour refléter ce déplacement, l’analyse du génome peut

maintenant être divisée en « génomique structurale » et « génomique fonctionnelle ». La

génomique structurale représente une phase initiale de l’analyse du génome et a un objectif

clair — la construction de cartes génétiques, physiques et de transcrits d’un organisme, à

haute résolution. La carte physique définitive d’un organisme est sa séquence complète

d’ADN. La génomique fonctionnelle représente une nouvelle phase de l’analyse du génome.

Elle constitue un terrain fertile pour (et exige) une pensée créative dans le développement de

technologies novatrices qui utilisent les vastes ressources informatives de la génomique

structurale. De façon précise, la génomique fonctionnelle désigne le développement et

l’application d’approches expérimentales globales (à l’échelle du génome ou du système)

pour déterminer la fonction des gènes, en utilisant l’information et les réactifs fournis par la

génomique structurale. Elle est caractérisée par des méthodes à haut débit et à large échelle,

combinées à l’analyse statistique et quantitative des résultats. La stratégie fondamentale dans

une approche de génomique fonctionnelle est d’étendre le champ de l’investigation

biologique de l’étude de gènes ou de protéines individuels à celle de tous les gènes ou toutes

les protéines simultanément et de manière systématique. La biologie computationnelle jouera

un rôle essentiel et croissant dans ce domaine : alors que la génomique structurale était

caractérisée par la gestion des données, la génomique fonctionnelle sera caractérisée par

l’exploitation des ensembles de données dans le but d’en tirer des informations de valeur. La

génomique fonctionnelle promet de rapidement combler le fossé entre séquence et fonction et

de mener à une nouvelle compréhension du comportement des systèmes biologiques. »31

Ce passage énonce clairement en quoi consiste le développement de la génomique

fonctionnelle. Il s’agit de mener l’analyse fonctionnelle des gènes au-delà de l’analyse des

séquences. Mais de la même manière que la génomique visait à l’établissement de la séquence

complète du génome et à la détermination de tous les gènes, la génomique fonctionnelle s’est

fixée comme objectif la caractérisation de la fonction de tous les gènes. Cela nécessitait le

développement de nouvelles techniques, que nous allons présenter un peu plus bas. 32

Mais avant de nous tourner vers les approches de génomique fonctionnelle, nous

aimerions insister sur le fait que ce passage ne doit pas être vu comme une véritable rupture.

31 P. Hieter and M. Boguski, « Functional Genomics: It’s All How You Read It », Science, 278 (1997) : 601. 32 Sur les débuts de la post-génomique, on pourra consulter notamment le volume de Science du 20 octobre 1995 et plus particulièrement R. Nowak, « Entering the Postgenome Era », Science, 270 (1995) : 368-369 ; voir aussi E. S. Lander, « The new genomics: global view of biology », Science, 274 (1996) : 536–539.

Page 27: Thèse version3.R

27

Le terme post-génomique, qui est souvent employé, pourrait en effet laisser penser qu’il

existe une rupture entre les deux projets. Or, il doit être clair que ce n’est pas vraiment le cas.

Comme nous l’avons déjà dit, il était évident que la séquence n’était qu’une première étape

sur la voie de l’analyse globale du vivant et pas une fin en soi.

S’il est vrai que dans sa première phase (jusqu’à 1995), l’analyse fonctionnelle

n’était pas comprise dans les buts de HGP (rappelons que les buts principaux étaient

l’établissement de cartes physiques et génétiques, et le développement de technologies de

séquençage), on trouve parmi les objectifs pour la période 1998-2003, le développement de

technologies pour l’analyse fonctionnelle, à l’échelle génomique. 33

Dans l’article définissant les objectifs de cette nouvelle phase, les auteurs

définissent cinq domaines devant être développés pour mener l’analyse fonctionnelle des

génomes : 1) l’étude des ADN complémentaires, 2) l’étude des séquences non-codantes

(responsables de la régulation de l’expression, des phénomènes d’épissage, de la structure des

chromosomes, etc.), 3) l’analyse spatiale et temporelle de l’expression des gènes, 4) la

mutagenèse systématique, 5) la protéomique.

La connaissance des séquences complètes de génomes ouvrait la porte et permettait

le développement de la génomique fonctionnelle. Il faut donc souligner que ces approches

sont directement fondées sur les résultats de la génomique et ne sont pas possibles sans eux.

Le passage à la génomique fonctionnelle était donc au fond très naturelle et d’un

certain côté, un retour à l’analyse fonctionnelle. En effet, la génomique, définie comme

l’étude des génomes, n’est pas vraiment le développement naturel de la génétique, puisque

celle-ci s’est toujours intéressée à des fonctions et à l’héritabilité des traits. N’étudier que des

structures semble donc un appauvrissement considérable, ce qui explique les réticences de

beaucoup de biologistes. (Mais, bien entendu, personne n’a jamais nié que les séquences

peuvent être très utiles en génétique.)

Il est évident que l'analyse fonctionnelle des gènes n'est pas nouvelle. La nouveauté

réside dans le caractère global des démarches : alors que la génétique classique s'intéresse tout

au plus à quelques séquences à la fois, la génomique fonctionnelle opère en parallèle sur

plusieurs centaines ou milliers de séquences d'ADN et de protéines fournies par les projets de

séquençage. La génomique fonctionnelle revient en quelque sorte à ce qu’a toujours fait la

33 F. S. Collins et al., « New Goals for the U.S. Human Genome Project: 1998-2003 », op. cit.

Page 28: Thèse version3.R

28

génétique, c’est-à-dire lier des gènes et des phénotypes. Comme le remarque Peter

Goodfellow34, l’expression « génétique fonctionnelle » est une tautologie.

Le projet de la génomique fonctionnelle poursuit à un autre niveau l’effort de

cartographie exhaustive commencé avec la génomique.35 Il ne s’agit plus seulement de mettre

au jour la carte du génome, mais celle de la cellule, c’est-à-dire de tous les composants

moléculaires et de leurs interactions.

« Le défi des projets de génomique fonctionnelle à large échelle est de construire

une carte complète de la cellule, incluant les données de la séquence du génome et de

l’expression des gènes, l’information sur la localisation des protéines, leur structure, leur

fonction et leur expression, les modifications post-traductionnelles, les interactions

moléculaires et génétiques ainsi que les descriptions phénotypiques. »36

Cette multiplication des projets cartographiques se retrouve dans la création rapide

d’un certain nombre de néologismes en « -omics » : proteomics, transcriptomics,

metabolomics, glycomics, phenomics, etc. L’idée attachée à ce suffixe est celle

d’exhaustivité. Ainsi, de même que la génomique est l’établissement d’une carte complète du

génome, la protéomique est la cartographie des toutes les protéines présentes dans une cellule

ainsi que leurs interactions, et la métabolomique celle de toutes les réactions métaboliques. Le

terme « omics » a été utilisé pour la première fois en 1998 et a connu depuis un grand

succès.37

Nous allons maintenant passer en revue les différents domaines de la génomique

fonctionnelle, en donnant à chaque fois un rappel des techniques de bases, le principe général,

le genre d’informations biologiques pouvant être obtenues, les limites, ainsi que quelques

applications concrètes. Ici encore, notre but ne vise pas à l’exhaustivité, ce qui, s’agissant

d’un domaine se transformant aussi rapidement, serait utopique, mais à donner une idée

suffisament précise pour fonder les discussions qui vont suivre (le lecteur sera chaque fois

renvoyé à des bonnes revues approfondissant les aspects techniques).

34 P. Goodfellow, « A celebration and a farewell », op. cit. 35 Sur la métaphore de la carte, voir J. P. Gaudillère et H. J. Rheinberger (Eds.), From molecular genetics to genomics, The mapping cultures of twentieth-century genetics, op.cit. 36 G. D. Bader et al., « Functional genomics and proteomics: charting a multidimensional map of the yeast cell », Trends in Cell Biology, 13 (2003) : 344-356. 37 J. N. Weinstein, « Fishing expeditions », Science, 282 (1998) : 687.

Page 29: Thèse version3.R

29

1.1.2.1. L’étude du transcriptome

Le transcriptome peut être défini comme l’ensemble de toutes les molécules

d’ARNm produites dans une cellule ou une population de cellules. La transcriptomique est

donc l’étude des ARNm produits par les cellules dans différentes conditions.

L’étude de l’expression des gènes semble l’étape naturelle par où commencer

l’étude fonctionnelle du génome. Si l’on sait bien que la régulation de cette expression

intervient à d’autres niveaux, les biologistes partent souvent du principe que ce niveau devrait

être plus fondamental que les autres.38 Voyons ce qu’en dit un des premiers articles décrivant

l’étude systématique du transcriptome :

« Il est maintenant axiomatique que le phénotype d’un organisme est largement

déterminé par les gènes qui sont exprimés en lui. Ces gènes exprimés peuvent être représentés

par un « transcriptome » traduisant l’identité de chaque gène exprimé ainsi que son niveau

d’expression pour une certaine population de cellules. Contrairement au génome, qui est par

essence une entité statique, le transcriptome peut être modulé par des facteurs aussi bien

externes qu’internes. Le transcriptome sert ainsi de lien dynamique entre le génome d’un

organisme et les caractéristiques physiques de celui-ci. »39

Les années 90 ont vu l’apparition et le perfectionnement de différentes techniques

permettant de mesurer le transcriptome de manière globale. Nous en mentionnerons les

principales.

Les microarrays (micro-alignements)

Cette technique repose sur le principe suivant : des fragments d’ADN

complémentaires (ADNc)40 sont déposés sur une lamelle de microscope, chaque « spot »

correspondant à un gène, puis hybridés avec des échantillons d’ADNc marqués par

fluorescence ou radioactivement. L’intensité de la fluorescence permet de quantifier la

concentration de chaque échantillon. Cette opération se fait à haute densité (plusieurs dizaines

de dépôts par mm2), ce qui permet de mesurer en parallèle l’expression de milliers de gènes.

38 Ce présupposé ne va, bien entendu, pas de soi et sera discuté plus loin dans ce travail. 39 V. E. Velculescu et al., « Characterization of the yeast transcriptome », Cell, 88 (1997) : 243. 40 Ils sont synthétisés à partir d’ARNm par transcription inverse.

Page 30: Thèse version3.R

30

La première description de ce procédé date de 199541 et la première utilisation à l’échelle d’un

génome entier de 199742.

Une variante de cette technique consiste à ne pas partir des ADNc pour construire

les sondes, mais à synthétiser des oligonucléotides à partir des cadres de lectures ouverts

(ORFs) que l’on a identifié dans les séquences d’ADN grâce à des logiciels.43 Cette méthode

est historiquement appelée DNA chips (micro-alignement d’oligonucléotides ou puces à

ADN) pour la distinguer des microarrays, mais il semble que cette distinction s’est perdue et

les deux termes sont souvent considérés comme interchangeables. Il faut souligner au passage

que c’est un bon exemple d’approche rendue possible par la connaissance de la séquence

complète du génome d’un organisme.

Analyse en série de l’expression génique ou SAGE (Serial Analysis of Gene Expression)

Contairement aux microarrays, cette technique permet de faire une vraie mesure

quantitive absolue de chaque transcrit présent dans une population de cellules. Le principe

général n’est pas fondé sur l’hybridation. A partir d’une population d’ARNm, on isole un

marqueur pour chaque gène (une séquence d’environ 15 nucléotides), qu’on concatène ensuite

en un long fragment qui sera ensuite séquencé. Cette séquence sera ensuite analysée pour

déterminer combien de marqueurs différents sont présents et quelles sont leurs abondances

respectives. Il est ainsi possible de déduire combien de transcrits il y avait par cellules. Cette

approche est plus efficace pour étudier les gènes faiblement exprimés et d’autre part, les

comparaisons entre expériences sont plus aisées. La première description date de 199544 et

cette technique a également connu un grand succès depuis45.

Sachant que l’étude du transcriptome est devenue chose possible, il reste à

déterminer ce que l’on peut en tirer.

41 M. Schena et al., « Quantitative monitoring of gene expression patterns with a complementary DNA microarray », Science, 270 (1995) : 467-470. 42 D. A. Lashkari et al., "Yeast microarrays for genome wide parallel genetic and gene expression analysis", Proceedings of the National Academy of Sciences, 94 (1997) : 13057-13062 ; J. L. DeRisi, V. R. Iyer and P. O. Brown, « Exploring the metabolic and genetic control of gene expression on a genomic scale », Science, 278 (1997) : 680–686. 43 D. J. Lockhart et al., « Expression monitoring by hybridization to high-density oligonucleotide arrays », Nature Biotechnology, 14 (1996) : 1675–1680 ; R. J. Lipshutz et al., « High density synthetic oligonucleotide arrays, Nature Genetics supplement, 21 (1999) : 20-24. 44 V. E. Velculescu et al., « Serial analysis of gene expression », Science, 270 (1995) : 484-487. 45 Pour un exemple récent, voir S. M. Wu et al., « Analysis of mouse germ-cell transcriptome at different stages of spermatogenesis by SAGE: Biological significance », Genomics, 84 (2004) : 971-981.

Page 31: Thèse version3.R

31

L’intérêt principal de ces techniques vient donc du fait qu’elles permettent de

déterminer où et quand les gènes d’un organisme sont exprimés. Il devient possible de

mesurer la réponse transcriptionnelle de tous les gènes à un changement d’état cellulaire. Ces

mesures seront évidemment d’autant plus informatives qu’elles auront été faites dans

différentes conditions. Très rapidement, des études multipliant les conditions ont pu être

réalisées. Les mesures faites après perturbations (mutation, traitement avec une substance

chimique, etc.) peuvent être particulièrement révélatrices. Bien évidemment, le suivi de l’état

d’expression au cours d’un processus normal (cycle cellulaire, différenciation, etc.) est

également très utile.

Il faut cependant se rendre compte que la masse de donnée produite par ces

techniques est immense et il n’est pas évident d’y trouver un ordre, une cohérence et de

pouvoir l’organiser et l’analyser afin d’en tirer des informations biologiquement pertinentes.

« Ce qu’il faut plutôt, c’est une approche holiste de l’analyse des données génomiques, qui se

concentre sur la mise au jour d’un ordre dans l’ensemble des observations, de manière à

permettre aux biologistes de développer une compréhension intégrée des processus

étudiés. »46 Cette idée d’ordre est fondamentale pour comprendre les défis auxquels est

confrontée non seulement la génomique fonctionnelle, mais aussi la biologie en général,

surtout depuis les années 70, période à laquelle les biologistes ont commencé à sentir la

nécessité de trouver de l’ordre dans le flot de données qu’ils mettaient au jour.

L’information la plus évidente qu’il est possible de tirer des données relatives à

l’expression des gènes est de repérer les gènes qui ont tendance à être exprimés dans les

mêmes conditions ou du moins à être régulés de la même manière. Pour cela, il faut repérer

des patterns d’expression. On peut en effet partir de l’hypothèse que les gènes qui sont co-

régulés ont des liens fonctionnels probables. Le but est alors d’établir des groupes (clusters)

de gènes qui sont co-exprimés ou co-régulés. Cette méthode est assez grossière et peut

facilement regrouper des gènes qui n’ont pas de vrais liens fonctionnels. Une solution à ce

problème est donnée par la comparaison entre espèces, car si la co-régulation n’implique pas

que les gènes soient fonctionnellement liés, la conservation de cette co-régulation est une

indication beaucoup plus forte d’un lien fonctionnel. Comme dans l’analyse des séquences, la

comparaison évolutive est cruciale et fournit une sorte de filtre.

Ce regroupement de gènes en clusters est également discuté en termes de mise au

jour de modules. Nous verrons que ce concept de module est particulièrement important en 46 M. B. Eisen et al., « Cluster analysis and display of genome-wide expression patterns », Proceedings of the National Academy of Sciences, 95 (1998) : 14863.

Page 32: Thèse version3.R

32

biologie des systèmes et qu’il peut prendre différents sens suivant le contexte. Il s’agit ici

d’un sens très simple et qui est plus ou moins synonyme de cluster. La différence est peut-être

qu’avec le terme module, on insiste plus sur l’aspect fonctionnel, car on parle souvent de

modules fonctionnels.

Un type de déduction rendu possible par ces méthodes de regroupement est

l’attribution fonctionnelle pour des gènes particuliers. Imaginons que nous observons qu’un

certain gène, dont on ne sait rien, est exprimé dans les mêmes conditions qu’un autre gène que

nous savons être impliqué dans un processus biologique particulier. Nous pourrons faire

l’hypothèse que ce gène inconnu est impliqué dans ce même processus.47 Lorsque les

chercheurs ont commencé à établir des groupes d’expression, ils ont constaté que des gènes

connus pour être fonctionnellement liés se retrouvaient dans les clusters, ce qui évidemment

était une bonne indication que cette méthode était pertinente pour analyser rapidement et à

large échelle les fonctions des gènes.48

Comme nous l’avons dit, un principe essentiel est d’effectuer ces mesures

également sur des systèmes perturbés. On peut notamment étudier la réponse

transcriptionnelle d’un grand nombre de mutants, dont certains correspondent à des gènes non

caractérisés. On peut faire l’hypothèse que des mutants provoquant des réponses similaires

interviennent dans le même processus.

Cette approche a rapidement été appliquée à différents domaines. Dans le contexte

du développement, il s’agit de repérer des vagues d’expression.49 Les biologistes parlent

souvent de programmes transcriptionnels, ce qui renvoie à l’idée que les relations de

régulation entre les différents groupes de gènes sont reponsables de la succession précise de

ces vagues d’expression. Un problème spécifique du développement vient du fait qu’il est

difficile de suivre un tissu précis. Une solution vient de la confirmation par hybridation in

situ.

47 Comme les gènes qui codent pour des protéines participant à une même voie ou à un même complexe protéique sont souvent co-régulés, des groupes de gènes dont les fonctions sont liées ont souvent des profils d’expression qui sont corrélés dans un grand nombre de conditions variées dans les expériences de puces à ADN. (J. M. Stuart et al., « A gene-coexpression network for global discovery of conserved genetic modules », Science, 302 (2003) : 249-255). 48 L. F. Wu et al., « Large-scale prediction of Saccharomyces cerevisiae gene function using overlapping transcriptional clusters », Nature Genetics, 31 (2002) : 255-265 ; T. R. Hughes et al., « Functional discovery via a compendium of expression profiles », Cell, 102 (2000) : 109-126. 49 X. Wen et al., « Large-scale temporal gene expression mapping of central nervous system development », Proceedings of the National Academy of Sciences, 95 (1998) : 334-339 ; pour des références plus récentes, voir M. N. Arbeitman et al., « Gene expression during the life cycle of Drosophila melanogaster », Science, 297 (2002) : 2270-2275 ; H. Montalta-He and H. Reichert, « Impressive expressions: developing a systematic database of gene-expression patterns in Drosophila embryogenesis », Genome Biology, 4 (2003) : 205.

Page 33: Thèse version3.R

33

Le cycle cellulaire est l’un des domaines qui a reçu très tôt la plus grande attention.

Il semble en effet prometteur de pouvoir repérer l’ensemble des gènes dont l’expression varie

suivant les phases de ce cycle.50

On peut encore citer, pami de nombreux exemples, le phénomène de sporulation

chez la levure51, le cancer52, ou encore le vieillisement53.

L’établissement de patterns d’expression et le regroupement en clusters n’est

qu’une première étape, d’une certaine manière assez grossière, dans la mise en ordre de ces

données. Une analyse plus fine doit ensuite permettre de reconstruire des réseaux

d’interactions entre les gènes. Cela rajoute une dimension d’organisation à la notion de

module. En effet, dans un réseau, on a déjà une représentation de l’ordre et de la structure des

influences causales entre éléments.

La reconstitution de réseaux génétiques à partir de données d’expression est

cependant une tâche difficile et les résultats sont souvent incertains. Le genre d’inférence sur

lequel repose cette reconstruction est souvent problématique. Par exemple, une majorité de

gènes qui partagent des éléments de régulation ne sont pas co-régulés et inversement. La co-

régulation peut notamment s’expliquer par l’existence de mécanismes post-transcriptionnels

et. dans ce cas, il n’y a pas de motifs communs. D’autre part, les clusters sont toujours

hypothétiques. Il faut donc d’autres moyens pour confirmer ces hypothèses. Une des

approches est de rechercher par des méthodes computationnelles des sites de régulation

communs dans les promoteurs de gènes co-régulés, afin d’avoir une convergence de

résultats.54

Nous aurons souvent l’occasion de revenir sur cette idée de reconstruction des

réseaux biologiques, qui est au coeur de la biologie des systèmes. Notons déjà que cette

démarche est fréquemment désignée par l’expression reverse engineering, qui signifie

ingénierie inverse et qui correspond à l’identification de la structure d’un système à partir de

l’étude de son comportement global. Elle correspond en effet au travail des ingénieurs qui

50 R. J. Cho et al., « A genome wide transcriptional analysis of the mitotic cell cycle », Molecular Cell, 2 (1998) : 65–73 et aussi P. T. Spellman et al., « Comprehensive identification of cell cycle-regulated genes of the yeast Saccharomyces cerevisiae by microarray hybridization », Molecular Biology of the Cell, 9 (1998) : 3273-3297. 51 S. Chu et al., « The transcriptional program of sporulation in budding yeast », Science, 282 (1998) : 699–705. 52 K. Wang et al., « Monitoring gene expression profile changes in ovarian carcinomas using a cDNA microarray », Gene, 229 (1999) : 101–108. 53 D. N. Shelton et al., « Microarray analysis of replicative senescence », Current Biology, 9 (1999) : 939–45 et C. K. Lee et al., « Gene expression profile of aging and its retardation by caloric restriction », Science, 285 (1999) : 1390–93. 54 S. Tavazoie et al., « Systematic determination of genetic network architecture », Nature Genetics, 22 (1999) : 281-285.

Page 34: Thèse version3.R

34

s’efforcent de comprendre le fonctionnement (ou le dysfonctionnement) d’un système

artificiel, en étudiant à la fois ses composants et ses propriétés fonctionnelles. Les ingénieurs

réalisent notamment ce genre d’étude sur les produits fabriqués par des concurents, dont ils ne

disposent évidemment pas des plans.

Ce type d’approche peut être très fécond et a déjà permis d’engranger beaucoup de

résultats biologiquement importants. Mais il souffre de certaines limites essentielles. L’une

d’elles tient au fait que la quantité de protéines produites n’est pas toujours proportionnelle à

celle d’ARNm à cause des régulations traductionnelles. Pour cette raison, l’étude directe des

protéines est indispensable.

1.1.2.2. La protéomique

La plupart des molécules qui sont impliquées dans les processus cellulaires sont des

protéines, d’où la nécessité de développer des analyses globales des protéines présentes dans

une cellule à un certain moment, c’est-à-dire son protéome. De la même manière que l’étude

du transcriptome vise à élucider des larges réseaux d’interactions entre gènes, la protéomique

a pour but la mise au jour de réseaux d’interactions entre protéines, idéalement des réseaux de

toutes les protéines. La définition suivante explicite tous ces aspects : « La protéomique peut

être définie comme la discipline qui décrit en détail le protéome, idéalement en analysant les

niveaux et les structures de toutes les protéines présentes, y compris leurs modifications post-

traductionnelles qui ont lieu au cours de la vie d’une cellule ou d’un tissu. »55

Le terme protéome a été utilisé pour la première fois en 1994 par Mark Wilkins à

un symposium intitulé "2D Electrophoresis: from protein maps to genomes" et a été repris

dans un article l’année suivante.56 Comme la génomique, cette approche s’est rapidement

développée dès la fin des années 9057 en profitant d’une bonne collaboration internationale, à

travers l’Human Proteome Organization.

Comme l’étude du transcriptome, la protéomique a été rendue possible par le

55 B. Honoré et al., « Functional genomics studied by proteomics », BioEssays, 26 (2004) : 901 – 915. Cet article donne un bon aperçu d’ensemble des techniques utilisées en protéomique. 56 V. C. Wasinger et al., « Progress with gene-product mapping of the Mollicutes: Mycoplasma genitalium », Electrophoresis, 16 (1995) : 1090-4. 57 Pour une des premières références : M. R. Wilkins et al., « From proteins to proteomes: large scale protein identification by two- dimensional electrophoresis and amino acid analysis », Biotechnology, 14 (1996) : 61–65. Pour des revues plus récentes : S. Fields, « Proteomics. Proteomics in genomeland », Science, 291 (2001) : 1221-1224 ; M. Tyers et al., « From genomics to proteomics », Nature, 422 (2003) : 193-197 ; S. D. Patterson et al., “Proteomics: the first decade and beyond », Nature Genetics, 33 (2003) : 313-323 ; J. Cox and M. Mann, « Is Proteomics the New Genomics? », Cell, 130 (2007) : 395-398.

Page 35: Thèse version3.R

35

développement rapide de plusieurs techniques, dont certaines étaient connues depuis

longtemps, mais qui restaient difficiles à mettre en oeuvre et donc inadaptées aux projets à

grande échelle.

Les gels 2D

La première étape pour identifier les protéines exprimées dans une cellule est de les

séparer. La technique la plus courante est l’électrophorèse bidimensionnelle en gel de

polyacrylamide, appelé 2D-PAGE (« two-dimensional polyacrylamide gel electrophoresis »).

Le principe est de séparer les protéines selon deux critères : la charge et la masse. On fait

d’abord migrer les protéines suivant un premier axe selon leur charge et ensuite

perpendiculairement selon leur masse. Cette technique permet d’identifier plusieurs milliers

de protéines sur un seul gel (chaque protéine apparaissant sous la forme d’une tache). La taille

de chaque tache étant proportionnelle à la quantité de protéine présente, cette mesure est

quantitative (en réalité semi-quantitative à cause de différentes difficultés techniques). Cette

technique date des années 70, mais elle a récemment connu de grands progrès.

La spectroscopie de masse

Cette technique permet d’identifier des protéines de la manière suivante : on coupe

la protéine à déterminer en fragment et, après ionisation, on sépare ces fragments en fonction

de leur rapport masse/charge. La comparaison avec des bases de données permet d’identifier

les fragments et de retrouver la protéine de départ. En cas d’ambiguité, il existe une technique

dérivée, la spectrométrie de masse en tandem (MS/MS) qui permet de retrouver la séquence

exacte des peptides. La spectrométrie de masse peut être couplée à d’autre techniques pour

améliorer sa capacité d’analyse. Il faut noter que cette technique ne permet pas non plus

d’obtenir des résultats vraiment quantitatifs.58

Les protein microarrays

Le principe est proche des microarrays d’ADN, mais cette fois il s’agit de fixer des

protéines purifiées sur un support et ensuite de tester les interactions que peuvent établir ces 58 Y. Ho et al., « Systematic identification of protein complexes in Saccharomyces cerevisiae by mass spectrometry », Nature, 415 (2002) : 180-183 ; A. C. Gavin et al., « Functional organization of the yeast proteome by systematic analysis of protein complexes », Nature, 415 (2002) : 141-147.

Page 36: Thèse version3.R

36

protéines avec d’autres protéines ou avec d’autres molécules. On peut ainsi étudier

rapidement les interactions protéines-protéines ou identifier les cibles des protéines kinases.59

La technique double hybride (Yeast Two-Hybrid)

Les techniques que nous venons de décrire sont fondées sur des analyses physico-

chimiques et sont donc réalisées in vitro. Il existe une méthode génétique qui permet

d’identifier des interactions entre protéines in vivo. Il s’agit des criblages double-hybride. Son

principe est le suivant : premièrement, une protéine « appât » dont on veut isoler des

partenaires est fusionnée au domaine de liaison à l’ADN d’un activateur transcriptionnel ;

deuxièmement, un ensemble de protéines « proies » sont fusionnées au domaine d’activation

de ce même activateur. L’idée est que, lorsque les protéines testées interagissent, les deux

domaines de l’activateur sont proches ce qui le rend actif. Il suffit de construire un système

avec un gène rapporteur pour facilement détecter l’interaction entre deux protéines.

La première description de cette technique date de la fin des années 8060 et des

améliorations ont permis par la suite de l’appliquer à l’échelle du génome entier61. Dans ce

cas, le but est de construire deux banques complètes de protéines et de les croiser et d’ainsi

tester toutes les interactions possibles.

Autres techniques

Il est bien connu que la cellule n’est pas une solution où les molécules diffusent

librement, par conséquent, si l’on veut pouvoir comprendre les fonctions biologiques d’une

protéine, il est crucial de pouvoir déterminer dans quel compartiment cellulaire elle se trouve.

La localisation des protéines est également essentielle parce qu’elle permet de restreindre la

classe des interactions détectés par les différentes méthodes. Plusieurs techniques permettant

la localisation des protéines ont été développées. Les progrès réalisés en microscopie et

59 G. MacBeath and S. L. Schreiber, "Printing Proteins as Microarrays for High-Throughput Function Determination", Science, 289 (2000) : 1760-1763 ; pour un exemple d’application de cette technique : R. B. Jones et al., "A quantitative protein interaction network for the ErbB receptors using protein microarrays", Nature, 439 (2006) : 168-174. 60 S. Fields and O. Song, "A novel genetic system to detect protein-protein interactions", Nature, 340 (1989) : 245-6. 61 T. Ito et al., « A comprehensive two-hybrid analysis to explore the yeast protein interactome », Proceedings of the National Academy of Sciences, 98 (2001) : 4569-4574 ; P. Uetz et al., « A comprehensive analysis of protein-protein interactions in Saccharomyces cerevisiae », Nature, 403 (2000) : 623-627.

Page 37: Thèse version3.R

37

l’utilisation de marqueurs fluorescents ont été particulièrement déterminants.62

Les interactions entre les protéines et l’ADN sont aussi importantes à étudier.

L’analyse directe de ces interactions peut se faire à large échelle par la technique appellée

ChIP-chip (qui combine l’immunoprécipitation de la chromatine et les puces à ADN).63 Cette

technique permet également d’étudier les phénomènes de modification de la chromatine, de

réparation de l’ADN et de réplication.

Ajoutons encore qu’un aspect important de la protéomique correspond à ce qu’on

appelle la génomique structurale. Le but est de déterminer la structure tridimensionnelle de

toutes les molécules biologiques, avec l’idée qu’il sera possible de déterminer la fonction à

partir de la structure.64 Un consortium a été créé pour faciliter ce projet, le Structural Biology

Consortium.65 Il faut souligner que la structure est souvent mieux conservée que la séquence.

Cette détermination peut être automatisée, mais cette tâche reste difficile.66

Difficultés et limites

Ces progrès sont impressionnants, mais il faut voir clairement toutes les difficultés

supplémentaires que comporte ce projet par rapport à la génomique. Comme le souligne

l’auteur d’une revue faisant le point sur ces approches, « la protéomique doit faire face aux

inévitables problèmes d’échantillons limités et variables, de dégradation des échantillons,

d’un vaste domaine dynamique (un facteur supérieur à 106 pour la seule abondance des

protéines), de la sur-abondance des modifications post-traductionnelles, de tissus quasiment

sans nombre, de la spécificité développementale et temporelle, et des perturbations liées aux

maladies et aux traitements médicamenteux. »67 Le protéome est très donc extrêmement

complexe à analyser, bien plus que le génome.

Un des problèmes de ces méthodes est qu’elles produisent beaucoup de faux

62 A. Kumar et al., « Subcellular localization of the yeast proteome », Genes and Development, 16 (2002) : 707-719 ; W. K. Huh et al., « Global analysis of protein localization in budding yeast », Nature, 425 (2003) : 686–691. 63 C. E. Horak and M. Snyder, « ChIP-chip: a genomic approach for identifying transcription factor binding sites », Methods in Enzymology, 350 (2002) : 469-483. 64 J. M. Thornton et al., « From structure to function: approaches and limitations », Nature Structural Biology, 7 (2000) : 991–994. 65 www.wellcome.ac.uk/en/1/biosfgstr.html. 66 R. C. Stevens et al., Global efforts in structural genomics. Science, 294 (2001) : 89-92 ; J. M. Chandonia et al., « The Impact of Structural Genomics: Expectations and Outcomes », Science, 311 (2006) : 347-351. 67 M. Tyers et al., « From genomics to proteomics », Nature, 422 (2003) : 193.

Page 38: Thèse version3.R

38

positifs et de faux négatifs.68 Il y a toujours un difficile compromis à trouver entre la fiabilité

des résultats et le nombre des interactions identifiées.

Une des difficultés que rencontre l’analyse du protéome est due aux modifications

post-traductionnelles qui font que chaque protéine peut exister sous de nombreuses formes.

Ces différences peuvent être capitales, un groupe méthyle pouvant complètement changer la

fonction d’une protéine. Ce problème n’est toutefois pas insurmontable, puisque les

modifications post-traductionnelles peuvent de plus en plus être étudiées à large échelle.69

1.1.2.3. Autres approches globales

Le métabolome

Le métabolome est l’un des autres grands domaines d’application des approches

globales à avoir bénéficié d’un néologisme.70 La métabolomique est ainsi définie comme

l’étude globale de tous les métabolites présents dans une cellule selon les conditions.71 Là

aussi, un enjeu important est d’inférer la structure d’un réseau métabolique à partir de

mesures de concentration des métabolites et de leurs variations après des perturbations. Les

différentes techniques de la protéomique sont évidemment précieuses pour étudier le

métabolome.

Les perturbations globales des systèmes

Comme nous venons de le voir, beaucoup d’approches de génomique fonctionnelle

reposent largement sur la capacité à perturber les systèmes et à mesurer les conséquences à

une échelle globale, par exemple en mesurant les modifications d’expression des gènes. Un 68 Voir C. von Mering et al., « Comparative assessment of large-scale data sets of protein-protein interactions », Nature, 417 (2002) : 399-403. 69 S. B. Ficarro et al., « Phosphoproteome analysis by mass spectrometry and its application to Saccharomyces cerevisiae », Nature Biotechnology, 20 (2002) : 301-305 et M. Mann et al., « Analysis of protein phosphorylation using mass spectrometry: deciphering the phosphoproteome », Trends in Biotechnology, 20 (2002) : 261-268. 70 La première occurence du terme se trouve dans un article de 1998, H. Tweeddale et al., « Effect of Slow Growth on Metabolism of Escherichia coli, as Revealed by Global Metabolite Pool ("Metabolome") Analysis », Journal of Bacteriology, 180 (1998) : 5109-5116. 71 O. Fiehn, « Combining genomics, metabolome analysis, and biochemical modelling to understand metabolic networks », Comparative and Functional Genomics, 2 (2001) : 155-168 ; R. Goodacre et al., « Metabolomics by numbers: acquiring and understanding global metabolite data », Trends in Biotechnology, 22 (2004) : 245-252 ; K. Hollywood et al., « Metabolomics: Current technologies and future trends », Proteomics, 6 (2006) : 4716-4723.

Page 39: Thèse version3.R

39

des changements qui ont suivi la révolution génomique est la possibilité de perturber les

systèmes biologiques de manière plus fine, plus contrôlée et plus systématique. La

perturbation des systèmes constitue donc un autre aspect de la recherche expérimentale qui est

passé à une échelle globale. On parle parfois de phénome ou de phénomique, ce qui revient à

tester les phénotypes de mutations de gènes de manière systématique. La mutagenèse

systématique est donc un moyen de tester la fonction de tous les gènes supposés.

Cette approche a d’abord été entreprise sur la levure, organisme qui se prête bien à

ce genre de techniques.72 Mais le fait que les mutations ne donnent pas toujours des

phénotypes clairs pose un véritable problème.73 La délétion systématique des gènes n’est

cependant pas possible chez tous les organismes. Mais d’autres solutions existent. Par

exemple, chez les métazoaires, on peut tirer avantage des phénomènes d’interférence ARN

(RNAi) pour inactiver des gènes de manière efficace.74

1.1.3. Défis posés par la génomique fonctionnelle

Il faut tout d’abord insister sur le fait que ces approches ne sont pour la plupart pas

nouvelles, mais la différence vient du fait qu’on peut les appliquer à une échelle globale

(whole genome analysis), de manière systématique et donc sans partir d’hypothèses

biologiques particulières. Un aspect plus problématique est lié au fait que ces données sont

souvent imprécises, pas toujours fiables, et difficiles à interpréter. Comme le souligne à juste

titre Mark Boguski, « par contraste avec la profondeur et le détail au niveau fonctionnel que

les disciplines biologiques traditionnelles permettent d’atteindre, la génomique fonctionnelle

et la protéomique produisent des informations portant sur un grand nombre de gènes et de

protéines, qui sont bien plus étendues mais plus superficielles. »75

Ces approches prises en elles-mêmes n’ont donc qu’une valeur limitée. On peut

dire que, comme dans le cas de la génomique, il reste encore un long chemin à parcourir pour

donner un sens à ces données. Une des solutions à ces problèmes est de combiner ces

différentes approches. On résoudra ainsi, d’une part, les problèmes de fiabilité et, d’autre part,

on gagnera en profondeur au niveau de l’analyse fonctionnelle. 72 E. A. Winzeler et al., « Functional characterization of the S. cerevisiae genome by gene deletion and parallel analysis », Science, 285 (1999) : 901–6. 73 G. Giaever et al., « Functional profiling of the Saccharomyces cerevisiae genome », Nature, 418 (2002) : 387-391. 74 R. S. Kamath et al., « Systematic functional analysis of the Caenorhabditis elegans genome using RNAi », Nature, 421 (2003) : 231-237. 75 M. Boguski, « Biosequence Exegesis », Science, 286 (1999) : 454.

Page 40: Thèse version3.R

40

Nous aimerions voir un peu plus en détail ce point, car il correspond à un premier

effort d’intégration, thème qui revient sans cesse dans les discussions sur la biologie des

systèmes, et en même temps à un nouveau développement de la bioinformatique.

Nouveaux développements de la bioinformatique : intégration des données et annotation fonctionnelle des génomes

Nous avons déjà souligné le formidable essor qu’avait connu la bioinformatique

dans le cadre des premiers projets de génomique. Avec l’apparition des approches de

génomique fonctionnelle, les défis qu’elle a dû relever étaient encore bien plus grands, que ce

soit en termes de bases de données ou d’outils d’analyse.

Avec le développement de nouvelles approches expérimentales à haut-débit, elle a

été confrontée au défi de mettre en relation des données de nature très différente et de les

intégrer. Il y avait une double nécessité à cette intégration. D’une part, comme nous l’avons

dit, chacune de ces données était souvent peu fiable en elle-même et il n’y avait pas toujours

une convergence entre les différentes méthodes. La comparaison et le recoupement des

données devait donc résoudre ce problème. L’analyse fonctionnelle en biologie moléculaire

s’était d’autre part, toujours faite au travers d’une multiplicité d’approches expérimentales

(génétique, biochimie, techniques de biologie moléculaire, crystallographie, etc.). Il fallait

donc retrouver cette richesse d’analyse au niveau global. On ne pouvait se contenter

d’analyser la structure linéaire des séquences, il fallait lier les séquences aux fonctions, ce qui

est le but de l’annotation fonctionnelle.

Afin de faire apparaître la manière dont la bioinformatique est devenue moins

linéaire et plus intégrative, nous allons rapidement mentionner quelques transformations au

niveau des bases de données, des outils d’analyse et des méthodes d’annotation.76

Les bases de données

Comme nous l’avons déjà rappelé, les grands projets de génomique ont nécessité la

création de gigantesques bases de données, qui étaient jusque-là inconnues en biologie. Il

s’agissait là d’un défi sérieux, mais qui n’était encore rien en comparaison des difficultés

soulevées par les approches de génomiques fonctionnelles.

76 Sur ces transformations, voir :M. Kanehisa et al., « Bioinformatics in the post-sequence era », Nature Genetics Supplement, 33 (2003) : 305-310 ; M. Kanehisa, Post-Genome Informatics, Oxford, Oxford University Press, 2000.

Page 41: Thèse version3.R

41

Premièrement, contrairement au cas de la génomique, il ne s’agit plus de bases de

données linéaires, mais à dimensions multiples. Par exemple, l’étude du transcriptome donne

des mesures semi-quantitatives pour l’expression de dizaines de milliers de gènes à des temps

et dans des conditions variables. La protéomique nous renseigne, non seulement sur l’identité

des protéines présentes à un certain moment et dans certaines conditions, mais aussi sur leur

concentration, leur localisation, leurs éventuelles modifications post-traductionnelles. La base

de donnée des gels de protéines (SWISS-2DPAGE), qui est sous forme d’images et qui

permet d’identifier des protéines, est une bonne illustration de cette hétérogénéité des

données. Cela signifie qu’il n’y a pas de représentation simple, il faut donc trouver des

techniques et des modes de représentation communs (des langages).

En outre, il s’agit d’informations qui n’ont de valeur que dans un certain contexte,

qu’il faut donc intégrer aux données elles-mêmes. Par exemple, pour donner un sens à des

résultats de microarrays, il faut connaître les conditions précises dans lesquelles l’état

d’expression est mesuré. Si on ne dispose pas de bons standards, l’information peut être

complètement inutile (ce n’est pas le cas avec les séquences : une séquence est indépendante

du contexte).

Pour remédier à ce problème, plusieurs standards ont été établis. Par exemple dans

le cas des microarrays, une liste d’informations nécessaires à fournir avec des résultats

d’expériences a été établie.77 Mais cela ne règle pas le problème du format dans lequel doivent

être représentées les données. Le groupe MicroArray and Gene Expression (MAGE) travaille

sur la standardisation des représentations de données d’expressions et sur les annotations.

Les bases de données doivent en outre pouvoir être mises à jour continuellement, ce

qui pose de sérieuses difficultés car, contrairement à une séquence qui est établie une bonne

fois pour toutes (mis à part les corrections), les données de la génomique fonctionnelle sont

sans cesse revues, suivant des nouvelles procédures expérimentales, des conditions un peu

différentes, etc. Une solution à la mise à jour vient de l’automatisation : des programmes

peuvent se charger de tirer les informations de la littérature. Bien entendu, cela pose

également des problèmes du point de vue de l’augmentation des tailles des bases.

La génomique a favorisé le regroupement des bases de données pour des raisons

évidentes d’efficacité. Il existe par exemple une collaboration internationale entre trois

institutions pour les bases de séquences. L’INSDC (International Nucleotide Sequence

77 Minimum Information About a Microarray Experiment (MIAME).

Page 42: Thèse version3.R

42

Database Collaboration)78 regroupe l’EMBL Nucleotide Sequence Database79 en Europe,

GenBank80 aux Etats-Unis et le DDBJ81 au Japon. Ce phénomène s’est naturellement

poursuivi avec le développement de la génomique fonctionnelle. En ce qui concerne les bases

de données de protéines, trois institutions (EBI, SIB, et PIR) se sont associées en 2002 pour

créer un consortium : UniProt.82 L’European Bioinformatics Institute (EBI)83, gère également

plusieurs bases différentes (séquences, expressions, interactions protéines-protéines, etc.).

Comme nous l’avons souligné, un aspect central de cette nouvelle bioinformatique

est la nécessaire mise en relations des données. On trouvera une belle illustration des

connexions qui existent entre les différentes bases de données sur le site Internet du NCBI

(« entrez »), qui montre le diagramme des interactions entre toutes les bases (figure 1). On

peut également citer l’Alliance for Cellular Signaling, qui regroupe et organise toutes les

données relatives aux voies de signalisation.84

Figure 1: Ce diagramme montre les différentes bases de données auxquelles on peut accéder via le site « entrez » du NCBI et la manière dont elles sont reliées. Chaque cercle représente une base et la couleur indique le nombre de données contenues dans chaque base. (Pour plus de détails, voir le site internet : http://www.ncbi.nlm.nih.gov/Database/).

78 http://www.insdc.org/page.php?page=home. 79 http://www.ebi.ac.uk/embl/. 80 http://www.ncbi.nlm.nih.gov/Genbank/index.html. 81 http://www.ddbj.nig.ac.jp/. 82 http://www.ebi.ac.uk/uniprot/index.html. 83 http://www.ebi.ac.uk/Databases/. 84 http://www.signaling-gateway.org/.

Page 43: Thèse version3.R

43

Les méthodes d’analyse

La complexification de la bioinformatique se reflète également dans les méthodes

d’analyse. Elle avait jusque-là essentiellement développé des algorithmes pour l’alignement

de séquences, dans le but de reconstruire des séquences de génomes entiers, de les comparer

et de pouvoir reconnaître des séquences particulières auxquelles on pouvait attribuer un rôle

fonctionnel. En 1985, le développement du programme FASTA révolutionna le domaine :

cette tâche difficile devint gratuite, rapide et réalisable sur des PC. En 1990, le programme

BLAST rendit ce travail encore plus rapide.

Comme nous l’avons vu, en génomique fonctionnelle il s’agit plutôt de repérer des

clusters et des modules. Mais les patterns deviennent beaucoup plus difficiles à identifier

dans ces données, il faut pouvoir comparer des données de natures différentes, il faut intégrer

les conditions d’expériences. Des outils capables de mettre en relation les différentes bases et

donc les différentes techniques étaient donc devenus nécessaires.

Le problème est que la masse de données est loin d’être toujours bien exploitée :

« Même lorsque les données sont publiquement disponibles, les résultats sont souvent perdus

dans de gros fichiers, et les méthodes computationnelles développées pour les analyser sont

souvent inaccessibles sous une forme que le biologiste type peut utiliser. »85

Nous avons déjà suggéré la manière dont différents types de données pouvaient être

mis en relation. Il est par exemple possible de chercher des corrélations au niveau de

l’expression des gènes correspondant à des protéines qui semblent interagir. On peut aussi

observer que des gènes produisant des phénotypes similaires lorsqu’ils sont délétés codent

pour des protéines ayant des interactions. Certains auteurs parlent dans ce cas de corrélations

entre phénome et interactome.86

85 C. L. Myers et al., « Discovery of biological networks from diverse functional genomic data », Genome Biology, 6 (2005) : R114. 86 Sur la mise en relation de différents types de données, voir par exemple : H. Ge et al., « Correlation between transcriptome and interactome mapping data from Saccharomyces cerevisiae », Nature Genetics, 29 (2001) : 482-486 ; R. Jansen et al., « Relating whole-genome expression data with protein – protein interactions », Genome Research, 12 (2002) : 37-46 ; M. W. Covert et al., « Integrating high-throughput and computational data elucidates bacterial networks », Nature, 429 (2004) : 92-96 ; L. B. Shaw et al., « Integration of proteomic, genechips, and DNA sequence data », in J. S. Albala and I. Humphery-Smith (Eds.), Protein Arrays, Biochips, and Proteomics, New-York, Marcel Dekker, Inc., 2003, pp. 325-335.

Page 44: Thèse version3.R

44

On trouvera un bon exemple de la manière dont sont intégrés différents types de

données dans une étude récente.87 Dans le but de reconstruire le réseau génétique de la levure,

les auteurs ont incorporé dix types différents de données, correspondant à 1'800'000

observations expérimentales. Ils se sont notamment fondés sur les données de co-expression

d’ARNm, d’interactions génétiques, d’identification de complexes protéiques par

spectrométrie de masse, d’analyses de double-hybrides, d’études phylogénétiques,

d‘inférences d’interactions physiques à partir des structures tridimensionnelles de protéines,

mais aussi sur des données issues d’expériences à petite échelle, tirées de la littérature.

Sans entrer dans le détail, il faut souligner que cette tâche présente plusieurs

difficultés. Par exemple, chaque type de donnée est caractérisé par des biais particuliers et

possède une valeur différente pour la reconstruction d’un réseau. Il faut donc développer des

algorithmes capables d’inférer de manière fiable des réseaux causaux à partir de ces données

hétérogènes, biaisées et contenant pas mal de bruit. Il faut remarquer que dans ce cas (mais

c’est assez fréquent) la méthode d’inférence est probabiliste. Cette étude illustre bien en outre

la grande taille des réseaux ainsi reconstruits : dans cet exemple, il comprend 5483 protéines

et 102’803 liens.

L’annotation des génomes

Dans le cadre de la génomique fonctionnelle, l’annotation des génomes est, elle

aussi, devenue nettement plus complexe et riche. Comme nous l’avons décrit, une des

premières fonctions de la bioinformatique était de développer des méthodes permettant

l’annotation structurelle. Celle-ci correspond à l’identification des éléments comme les cadres

de lecture ouverts, les régions codantes ou les motifs impliqués dans la régulation.

L’interprétation initiale des séquences obtenues a été faite par des méthodes

computationnelles : prédiction de gènes ab initio, comparaison de séquences, recherche de

motifs. Il est apparu très rapidement que ces méthodes étaient limitées, un de leurs principaux

défauts étant de ne pas être expérimentales.88

Les nouvelles approches ont donc donné plus d’importance à l’annotation

fonctionnelle, qui consiste à lier des informations sur les fonctions biologiques, par exemple

87 I. Lee et al., « An Improved, Bias-Reduced Probabilistic Functional Gene Network of Baker’s Yeast, Saccharomyces cerevisiae », PLoS ONE, 2 (2007) : e988. 88 Voir S. J. Wheelan et al., « Late-night thoughts on the sequence annotation problem », Genome Research, 8 (1998) : 168-169.

Page 45: Thèse version3.R

45

des fonctions biochimiques et des interactions entre composants (gènes et protéines), à des

éléments génomiques. Le but est de pouvoir exploiter cette énorme masse de données et de

pouvoir identifier les régions importantes du génome.

Une des difficultés auxquelles doit faire face l’annotation des génomes est que,

comme on le sait depuis déjà de nombreuses années, une partie de la complexité biologique

est due à l’existence de mécanismes d’épissage alternatif, qui permettent à une séquence

unique de servir de matrice pour différentes protéines. Les études à large échelle permettent

de rapidement fournir des indices supplémentaires permettant de déterminer quelles

séquences sont transcrites et dans quelles conditions.89

Si la mise en relation des bases de données facilite grandement l’annotation

fonctionnelle90, certains problèmes demeurent, principalement à cause des limites des

procédures d’inférence fonctionnelle. Dans le contexte des premières études de séquences en

génomique, une sérieuse difficulté venait du problème transitif d’annotation (transitive

annotation problem). Ce problème est dû au fait que beaucoup de séquences étaient annotées

non pas sur la base de données expérimentales, mais de similarité avec des séquences déjà

annotées. Une fois qu’une séquence est annotée, elle peut être utilisée pour annoter une autre

séquence similaire. Cela a comme conséquence évidente que de nombreuses annotations

n’entretiennent qu’un lien lointain et douteux avec des expériences de laboratoire.

Si les méthodes de génomique fonctionnelle, en ne se fondant pas seulement sur

des comparaisons de séquences, évitent cet écueil, elles présentent deux autres types de

problèmes. Le premier est souvent appelé « guilt by association », et désigne le fait qu’un lien

fonctionnel est souvent postulé à partir de l’observation d’une simple corrélation, ce qui n’est

pas très rigoureux. Le deuxième problème peut être résumé par la formule suivante, bien

connue des logiciens : “post hoc ergo propter hoc”, qui signifie qu’un lien de causalité est

établi à partir d’une simple succession temporelle. Cette inférence peut évidemment se révéler

souvent fallacieuse. L’intégration de différents types de données réduit certes ce risque, mais

ces résultats restent fragiles. Cela montre que ces approches phénoménologiques (et pas

mécanistes, dans le sens où il n’y a pas d’indices solides montrant l’existence d’interactions

directes) sont limitées et permettent avant tout de formuler des hypothèses qu’il faudra ensuite

vérifier autrement.

89 D. D. Shoemaker et al., « Experimental annotation of the human genome using microarray technology », Nature, 409 (2001) : 922–927. 90 P. Kemmeren et al., « Protein Interaction Verification and Functional Annotation by Integrated Analysis of Genome-Scale Data », Molecular Cell, 9 (2002) : 1133–1143.

Page 46: Thèse version3.R

46

Une autre difficulté tient au fait que l’attribution de fonctions à des séquences n’est

pas sans ambiguïté. Il est important de savoir à quel niveau on se place : parle-t-on de

fonctions au niveau enzymatique ou au niveau de l’organisme ? Cette difficulté est également

due à l’hétérogénéité des données. Certaines portent sur des interactions physiques alors que

d’autres sur des phénotypes de mutants. C’est pour remédier à ce problème que le consortium

Gene Ontology a été créé. Il a été décidé que trois niveaux hiérarchiques permettraient de

décrire les différents aspects de chaque protéine : 1) le processus biologique dans lequel la

protéine est impliquée ; 2) sa fonction moléculaire, ou son activité biochimique ; et 3) la

localisation cellulaire de la protéine active. Bien sûr, il y a plusieurs réponses possibles à

chaque question. Un des enjeux est la création d’un vocabulaire commun pour décrire les

fonctions des gènes et surtout des produits de gènes.91

Le meilleur exemple de l’importance qu’a pris cette entreprise d’étude

fonctionnelle du génome est sans doute le projet ENCODE.92 Un commentateur formulait

bien l’ampleur de ce projet lors de l’achèvement de sa première phase : « La tâche du projet

ENCODE est formidable. Le but est de cartographier différents éléments de séquence, parmi

lesquels les gènes, les promoteurs, les enhancers, les séquences de répression ou de silençage,

les exons, les sites d’origine et de terminaison de la réplication, les sites de liaison à des

facteurs de transcription, les sites de méthylation, les sites d’hypersensibilité à la DNase I, de

modification de la chromatine, les séquences conservées et les transcrits d’ARN, pour ne citer

que ceux considérés dans le projet pilote. En outre, étant donné les différences d’occupation

des sites de liaison ou des types de modification dans chaque tissu, au cours des différentes

étapes développementales, et en réponse à différents stimuli environnementaux et à d’autres

états contrôlant le génome, clarifier le statut de chaque élément dans chaque état est une

entreprise pharaonique. »93 Ce projet-pilote a mobilisé 35 groupes, qui ont chacun participé à

la production de données ainsi qu’au développement d’approches computationnelles. Il n’a

pour l’instant analysé qu’environ 1% du génome humain, mais il montre clairement la voie

qui sera poursuivie dans un futur proche dans l’analyse des génomes.

Les analyses fonctionnelles telles que nous venons de les présenter jusqu’à

maintenant sont certes complexes par beaucoup de côtés et réussissent à intégrer plusieurs

dimensions des systèmes biologiques (et pas uniquement celle des séquences), mais en fin de 91 Voir également le projet Sequence Ontology : K. Eilbeck et al., « The Sequence Ontology: a tool for the unification of genome annotations », Genome Biology, 6 (2005) : R44 ; on trouvera de nombreuses informations sur le site internet : www.geneontology.org. 92 genome.gov/Pages/Research/ENCODE/. 93 G. M. Weinstock, « ENCODE: More genomic empowerment », Genome Research, 17 (2007) : 667-668.

Page 47: Thèse version3.R

47

compte, elles reviennent à attribuer des fonctions à des gènes (des séquences) ou à des

protéines. Le cadre défini par le projet Gene Ontology et même l’ambitieuse entreprise

ENCODE correspondent à ce type d’attribution fonctionnelle. Le problème majeur ou plutôt

la limite fondamentale de telles attributions fonctionnelles tient au fait qu’elles sont par nature

statiques. Cette limite empêche de formuler un grand nombre de questions essentielles sur les

systèmes biologiques.

Deux citations donneront une idée claire de la nécessité de passer à d’autres

approches, plus mécanistes et dynamiques.

« Le génome s’est révélé être une source relativement pauvre d’explication pour les

différences entre cellules ou entre personnes. Cela était prévu par certains observateurs

prescients, qui suggérèrent que le génome est loin d’être la réponse à toutes les questions

biologiques, aussi puissants que puissent être les outils associés de la génomique. »94

« Le gros volume de données généré par ces approches [à haut-débit] a mené à une

expansion rapide du domaine de la bioinformatique. Bien que cet effort se soit surtout

concentré sur des modèles statistiques et sur des approches de classification d’objet à la fin

des années 90, il devint admis qu’un cadre plus formel et mécaniste était nécessaire pour

analyser de manière systématique des types variés de données à haut-débit. »95

Dans le cadre d’une description statique des composants biologiques, dans lequel

on essaie d’attribuer une ou des fonctions à un gène ou une protéine, il est difficile, voire

impossible de comprendre comment un phénomène résulte de l’action combinée de nombreux

composants. Par exemple, la connaissance de tous les gènes intervenant dans le cycle

cellulaire n’éclaire que peu la nature de ce processus. Encore une fois, cette limite n’invalide

pas cette première dimension de l’analyse fonctionnelle, mais souligne l’absolue nécessité de

la compléter.

La construction de réseaux est certes une étape importante vers une image plus

riche des systèmes biologiques, puisqu’elle permet d’aller au-delà de l’attribution

fonctionnelle à des éléments isolés et qu’elle offre un cadre solide (en un sens indispensable)

dans lequel les différentes données de la génomique fonctionnelle peuvent être intégrées. Elle

nous donne une image nettement plus complète et précise de la manière dont les composants

participent à un processus biologique.

94 W. Bains, « The parts list of life », Nature Biotechnology, 19 (2001) :401-402. 95 B.O. Palsson, Systems Biology, Cambridge, Cambridge University Press, 2006, p. 9.

Page 48: Thèse version3.R

48

Il faut cependant reconnaître qu’une fois qu’on a mis au jour des modules et des

réseaux, la question de leur fonctionnement demeure. On peut formuler le problème de la

manière suivante : on commence à connaître tous les composants moléculaires et leurs

interactions, mais comment faire le lien entre les parties et les propriétés globales de la cellule

ou de l’organisme ?

L’importance du passage à d’autres niveaux d’analyse apparaît bien dans la citation

suivante : « Plutôt que d’essayer d’identifier des gènes en tant qu’agents causaux d’une

fonction, d’un rôle, d’un changement de phénotype ou de la réponse cellulaire de protéines,

nous devrions mettre en relation ces observations avec des séquences d’événements. En

d’autres termes, plutôt que de rechercher un « gène » (quoi que cela puisse signifier) qui est la

raison, l’explication ou la cause d’un certain phénomène, nous devrions chercher une

explication dans la dynamique (des séquences d’événements ordonnés dans le temps) qui a

mené à lui. »96

C’est vers ces nouveaux types de modèles que nous allons maintenant nous tourner.

1.2. Vers une vision plus dynamique des systèmes biologiques : la modélisation mathématique et informatique

Dire qu’il était devenu nécessaire de développer des modèles mécanistes est en un

sens trompeur et il serait plus juste de dire qu’il s’agissait d’y revenir, puisque l’essentiel de la

biologie moléculaire a toujours été fondé sur des tels modèles.97 Cependant, les modèles

généralement utilisés en biologie, sous la forme de schémas, diagrammes ou descriptions

linguistiques, ne semblaient pas pouvoir faire face au nombre et à la complexité des données à

intégrer. Le défi était en somme de construire des modèles capables de représenter les

données mises au jour et d’en tirer des explications pertinentes et fécondes. Ainsi, arrivée à un

certain stade, la génomique semblait forcée de développer de nouveaux modes de

représentation et d’analyse (mais sans bien-sûr devoir abandonner les anciens).

96 O. Wolkenhauer, « Mathematical modelling in the post-genome era: understanding genome expression and regulation — a system theoretic approach », BioSystems, 65 (2002) : 16. Voir également sur ce point J. A. Papin et al., op.cit., p. 99 : « Bien qu’un nombre croissant de bases de données fournissent des informations inestimables pour la recherche biologique, la caractérisation des propriétés qui émergent au niveau de la fonction de la cellule entière nécessite des descriptions intégrées et mathématiques des relations entre différents composants cellulaires. »; et aussi B. O. Palsson, « In silico biology through ‘omics’ », Nature Biotechnology, 20 (2002) : 649-650, ainsi que A. R. Joyce et al., « The model organism as a system : integrating ‘omics’ data sets », Nature Review Molecular Cell Biology, 7 (2006) : 198-210. 97 Nous aurons l’occasion de revenir souvent au cours de ce travail sur le rôle, l’importance et les limites de ces modèles, et notamment sur leur définition.

Page 49: Thèse version3.R

49

La solution qui a été proposée par beaucoup de scientifiques a été l’utilisation

généralisée de modèles mathématiques et informatiques. Ce sera un des buts de ce travail que

d’explorer et de clarifier les multiples dimensions de ce type de modélisation et de

comprendre en quoi ils étaient devenus nécessaires, mais un premier coup d’oeil aux

arguments présentés pour défendre ces approches fait apparaître les aspects suivants. Tout

d’abord, comme on l’a dit, il semblait essentiel de pouvoir construire des modèles

dynamiques des systèmes étudiés. La nécessité de disposer de modèles quantitatifs se faisait

également de plus en plus sentir. Ces deux aspects sont d’ailleurs liés, puisqu’il est difficile de

construire un bon modèle dynamique sans données quantitatives. Les méthodes de la

génomique fonctionnelle commençaient précisément à fournir des données suffisamment

précises pour construire de tels modèles. Mais surtout, le passage à ces approches « globales »

a mis les biologistes face à ce qu’on peut appeler le problème de la complexité. La complexité

est une notion qui soulève beaucoup de questions et qui peut sembler créer plus de problèmes

qu’elle n’en résout. Nous aurons donc à la préciser et à voir dans quelle mesure elle peut être

utile, mais il faut bien reconnaître que les discours sur la complexité se sont généralisés en

biologie au cours des dix dernières années. La complexité est donc présentée comme un

problème auquel la biologie doit désormais faire face et la modélisation mathématique comme

le seul moyen de s’y attaquer. Ce discours a également eu pour fonction d’établir des liens

forts avec d’autres domaines scientifiques, qui sont regroupés sous le terme de sciences de la

complexité et qui ont développé différents outils conceptuels semblant pouvoir être utiles à la

biologie.

Tous ces aspects apparaissent dans la citation suivante : « Le futur pourrait résider

dans une nouvelle vision de l’annotation qui remplacerait la biologie statique, la « biologie

répertoire », par une « cellule virtuelle » dans laquelle la plupart des propriétés et des

comportements pourraient être modélisés quantitativement et représentés dynamiquement,

dans toute leur complexité interconnectée. »98

L’idée que l’analyse des systèmes biologiques devait entrer dans une nouvelle

phase et que cela impliquait le développement de nouveaux outils est également bien

exprimée par le passage suivant, qui mérite d’être cité en entier.

« L’alliance [il est ici question de l’ Alliance for Cellular Signaling, que nous avons

déjà mentionnée] repose sur deux développements indépendants qui ont pris de l’importance

au cours de la dernière décennie : le succès de la biologie moléculaire dans le développement

98 M. Boguski, « Biosequence Exegesis », Science, 286 (1999) : 453-455.

Page 50: Thèse version3.R

50

d’outils pour identifier les composants des systèmes biologiques ainsi que leurs interactions,

ainsi que le développement d’outils mathématiques et computationnels pour l’analyse et la

conception de systèmes complexes d’ingénierie. La première de ces avances fournit une

technologie de mesure menant à la détermination de l’état des composants des réseaux

biologiques (par exemple les transcrits, les petits ions, les protéines marquées et les formes

cellulaires) qui commence à valoir les outils utilisés pour l’analyse des autres réseaux en

ingénierie. Dans les faits, les premières étapes des efforts de l’alliance sont consacrés à la

poursuite de l’identification des composants des réseaux de signalisation cellulaires et au

mesures quantitatives de leurs comportements et de leurs régulations au niveau des relations

input-output. Mais l’appréciation des implications biologiques de ces mesures sera largement

impénétrable sans analyse de données et sans des outils de modélisation conçus

spécifiquement pour des systèmes de réseaux biologiques. Par conséquent, les étapes finales

de l’activité de l’alliance doivent s’attaquer aux aspects dits « systèmes complexes » de la

biologie, en s’appuyant sur des méthodes de l’ingénierie systémique, de la science

informatique, de la théorie du contrôle, de la conception des circuits et des systèmes

dynamiques. »99

Il est particulièrement intéressant de noter que ce déplacement de méthode est

reflété au niveau des termes. Le terme « biologie computationnelle » a été utilisé pour

distinguer la modélisation de la gestion et de l’analyse des données, qui comme nous l’avons

vu est le domaine de la bioinformatique. Si l’on reprend la définition donnée par un groupe

d’expert du NIH, la biologie computationnelle est : « Le développement et l’application de

méthodes d’analyse de données et de méthodes théoriques, de modélisation mathématique et

de techniques de simulation, à l’étude de systèmes biologiques, comportementaux et

sociaux. »100

La bioinformatique au sens strict est donc avant tout concernée par les données,

tandis que la biologie computationnelle travaille sur des modèles. Cette différence est

soulignée par le même groupe.

« La bioinformatique applique les principes des sciences de l’information et des

technologies pour rendre plus compréhensibles et utiles les données vastes, variées et

complexes des sciences du vivant. La biologie computationnelle utilise des approches

99 Overview of the Alliance for Cellular Signaling, Nature, 420 (2002) : 705, (nous soulignons). 100 NIH Working definition of bioinformatics and computational biology, 17 juillet 2000, disponible sur le site internet de la NIH : http://www.bisti.nih.gov/

Page 51: Thèse version3.R

51

mathématiques et computationnelles pour aborder des questions théoriques et expérimentales

en biologie. »101

Un fait essentiel et sur lequel nous reviendrons largement est que ces outils

d’analyse existaient en partie dans d’autres domaines scientifiques et qu’il était devenu

indispensable pour les biologistes d’établir des liens forts avec ces disciplines afin de pouvoir

relever ces nouveaux défis.

« Les réseaux de signalisation à large échelle sont complexes. Leur complexité

nécessite l’utilisation de méthodes des sciences systémiques, qui sont très mathématiques. Les

analyses structurales et dynamiques – c’est-à-dire les analyses qui mesurent respectivement

les propriétés indépendantes du temps ou topologiques et les propriétés dépendantes du temps

– peuvent fournir différents résultats qui peuvent être intégrés afin de caractériser les

propriétés des réseaux de signalisation reconstitués. »102

Regardons maintenant d’un peu plus près ce que sont ces nouveaux modèles.

Les types de modèles développés en biologie des systèmes

Une des questions de fond que nous allons traiter dans ce travail touche à la nature

de ces modèles en biologie, aux fonctions qu’ils remplissent, au processus de modélisation,

etc. Les différents aspects de la modélisation seront donc largement discutés par la suite. Nous

commencerons ici par donner une idée générale de ce que sont ces modèles et de la manière

dont ils se sont rapidement imposés en biologie moléculaire.

Nous l’avons vu, la génomique fonctionnelle, en caractérisant le comportement de

milliers de composants des systèmes biologiques parallèlement, a contribué à déplacer

l’attention des chercheurs des gènes et des protéines vers les réseaux qu’ils forment. Ces

réseaux peuvent être des réseaux génétiques, des réseaux métaboliques, des réseaux de

signalisations, ou des réseaux de ces différents réseaux. Les modèles en biologie des systèmes

sont donc avant tout des modèles de réseaux et nous verrons que cela est déterminant du point

de vue des modes de représentation et d’analyse. Le but de ces modèles est, d’une part, de

pouvoir représenter comment l’état de chaque composant d’un réseau évolue au cours du

temps (et donc de pouvoir représenter l’évolution du système) et, d’autre part, de comprendre

comment la structure d’un réseau détermine ses propriétés dynamiques.

101 Ibid. 102 J. A. Papin et al., « Reconstruction of cellular signalling networks and analysis of their properties », Nature Reviews Molecular Cell Biology, 6 (2005) : 107.

Page 52: Thèse version3.R

52

Il existe différents formalismes mathématiques capables de décrire les interactions

entre les composants et les propriétés des réseaux. Nous en mentionnerons ici les principaux.

Les systèmes d’équations différentielles sont sans doute le cas le plus connu et le

plus ancien. Dans ce formalisme mathématique, les concentrations ou les activités des

composants moléculaires sont représentées par des variables qui peuvent varier de manière

continue au cours du temps. Un système d’équations différentielles couplées permet de

représenter la manière dont tous les composants varient les uns en fonction des autres. Il est

possible de représenter l’aspect spatial de la diffusion moléculaire en ayant recours à des

équations aux dérivées partielles, mais il faut noter que celles-ci sont nettement plus difficiles

à résoudre.

Les systèmes d’équations stochastiques ont été développés pour tenter de prendre

en compte un aspect essentiel des processus moléculaires en biologie. Lorsque les molécules

impliquées dans un processus sont peu nombreuses, un élément de hasard est introduit (la

probabilité que deux protéines se rencontrent peut être faible) et il n’est plus possible de

considérer que les variations sont continues et déterministes. Les systèmes d’équations

stochastiques permettent d’introduire cette composante de bruit dans la représentaiton des

mécanismes biologiques.103

Le problème auquel doit faire face le genre d’approche que nous venons de

présenter est qu’il nécessite la connaissance relativement précise de nombreuses données

quantitatives (constantes cinétiques, concentrations moléculaires, etc.) pour pouvoir donner

des résultats intéressants. Or, même avec les techniques expérimentales modernes, beaucoup

de ces valeurs sont très difficiles à déterminer. Pour contourner cette difficulté, on peut

recourir à la formalisation discrète ou logique, qui est surtout connue sous la forme des

réseaux booléens.104 Celle-ci permet de représenter les processus de manière qualitative. Les

composants sont représentés par des variables ne prennant que deux valeurs (0 ou 1) et les

103 Les premiers sont apparus dans les années 70 : D. T. J. Gillespie, « A general method for numerically simulating the stochastic time evolution of coupled chemical reactions », Journal of Computational Physics, 22 (1976) : 403–434 ; mais c’est surtout dans les années 90 qu’ils se sont développés : H. H. McAdams and A. P. Arkin, « Stochastic mechanisms in gene expression », Proceedings of the National Academy of Sciences, 94 (1997) : 814–819; A. Arkin, J. Ross et H. H. McAdams, « Stochastic kinetic analysis of developmental pathway bifurcation in phage lambda-infected Escherichia coli cells », Genetics, 149 (1998) : 1633–1648; T. S. Shimizu et D. Bray, « Computational Cell Biology – The stochastic approach », in Foundations of Systems Biology, H. Kitano, ed., MIT Press, 2001. 104 Les premiers travaux sur ces réseaux sont dus à Stuart Kauffman : S. A. Kauffman, « Metabolic stability and epigenesist in randomly connected nets », Journal of Theoretical Biology, 22 (1969) : 437-467. Pour une présentation des différents développements qu’a connu ce cadre, voir C. Gershenson, « Classification of random Boolean networks », In R. K. Standish et al. (ed.), Artificial Life VIII:Proceedings of the Eight International Conference on Artificial Life, MIT Press, 2002.

Page 53: Thèse version3.R

53

dépendances entre variables sont exprimées sous la forme d’équations logiques (fonctions

booléennes) qui prennent comme argument les valeurs à un temps précédent. L’évolution se

fait normalement de manière discrète. Si ce mode de représentation peut sembler très grossier,

il permet néanmoins de saisir certains aspects essentiels du comportement dynamique des

réseaux.

Suivant le genre de réseaux que l’on étudie, les données disponibles et les buts

poursuivis, on pourra construire des modèles très différents. Par exemple, on pourra chercher

à représenter les mécanismes biochimiques et les concentrations de molécules de manière très

détaillée ou au contraire, rester à un niveau grossier en décrivant globalement des états

d’expressions. L’existence de différents formalismes reflète donc cette grande diversité de

modèles de réseaux en biologie.

On pourra donner une meilleure idée de l’importance qu’ont prise récemment ces

approches de modélisation en montrant qu’elles ont gagné, en quelques années, tous les

domaines de la biologie, de l’étude du métabolisme à la biologie du développement. Là

encore, on ne fera que mentionner des études sans les détailler afin de donner au lecteur une

idée globale de ce champ.

Les modèles de réseaux génétiques

L’idée de réseau génétique est presque aussi ancienne que le modèle de l’opéron.

En effet, ce-dernier a fourni un cadre capable d’expliquer la régulation des gènes. Un réseau

génétique représente donc les relations de régulation existant entre plusieurs gènes à travers

des facteurs de transcription. Nous avons vu qu’un des buts de la génomique fonctionnelle

était d’inférer la structure de ce genre de réseau à partir de différentes données. Une fois

qu’on a un tel réseau, il est possible par des approches analytiques, ou plus souvent par des

simulations, d’étudier son comportement dynamique.

Pour des raisons tant expérimentales que computationnelles, ce genre de modèle a

d’abord été appliqué à des petits réseaux. Un exemple souvent cité concerne la modélisation

du circuit impliqué dans le « choix » entre la phase de lysogénie et la phase lytique chez le

bactériophage λ.105 Le modèle de l’opéron a lui aussi été l’objet d’approches

computationnelles.106

105 H. H. McAdams and L. Shapiro, « Circuit simulation of genetic networks », Science, 269 (1995) : 650-656. 106 J. Vilar, C. Guet, S. Leibler, « Modeling network dynamics: the lac operon, a case study », Journal of Cell Biology, 161 (2003) : 471-476.

Page 54: Thèse version3.R

54

Des réseaux plus larges ont également été développés dès la fin des années 90. Par

exemple, dans le cas des réseaux génétiques impliqués dans le développement, on peut citer

les travaux du groupe d’Eric Davidson.107 Il est intéressant de noter que Davidson a été l’un

des premiers à développer ce genre d’approche, dès les années 60. Son modèle de 1969 a

connu un certain succès, mais il ne reposait pas sur des données fiables. Depuis quelques

années, ses travaux sont nettement mieux ancrés dans les données expérimentales. Son

modèle du réseau impliqué dans les étapes précoces du développement de l’oursin, publié en

2002, comportait plus de 40 gènes et représentait le résultat d’une somme considérable

d’expériences de biologie moléculaire.

Toujours dans l’étude du développement, le réseau impliqué dans la segmentation

de la drosophile a également fait l’objet de modèles mathématiques et de simulation.108 Nous

aurons l’occasion de revenir en détail sur ces modèles.109

Les modèles de voies et de réseaux de signalisation

Depuis longtemps, un des domaines de recherche les plus actifs en biologie

moléculaire concerne les voies de signalisation. Ces voies (ou réseaux) correspondent aux

cascades de réactions biochimiques permettant aux cellules de répondre de manière spécifique

à des signaux de l’environnement. Ces cascades causent généralement des changements dans

l’expression des gènes ou dans d’autres processus cellulaires. Ce domaine illustre bien à quel

point de nouveaux types de modèles se sont imposés en biologie moléculaire. Comme nous le

verrons dans le prochain chapitre, un certain nombre de chercheurs a défendu l’idée que les

phénomènes de régulation à l’œuvre dans ces mécanismes ne pouvaient être expliqués sans le

recours à la modélisation mathématique et aux simulations.110

107 H. Bolouri et al., « Modeling transcriptional regulatory networks », BioEssays, 24 (2002) : 1118-1129 ; E. H. Davidson et al., « A genomic regulatory network for development », Science, 295 (2002) : 1669–1678. ; S. Ben-Tabou de-Leon and E. H. Davidson, « Gene Regulation: Gene Control Network in Development », Annual Review of Biophysics and Biomolecular Structure, 36 (2007) : 191-212. 108 G. von Dassow et al., « The segment polarity network is a robust developmental module », Nature, 406 (2000) : 188-192. 109 Pour d’autres références, voir par exemple : M. J. Herrgard et al., « Reconstruction of microbial transcriptional regulatory networks », Current Opinion in Biotechnology, 15 (2004) : 70-77 ; J. Hasty et al., « Computational studies of gene regulatory networks: in numero molecular biology », Nature Reviews Genetics, 2 (2001) : 268-279 ; H. de Jong, « Modeling and simulation of genetic regulatory systems : a litterature review », Journal of computational biology, 9 (2002) : 67-103. 110 C. V. S. Babu et al., « Modeling and simulation in signal transduction pathways: a systems biology approach », Biochimie, 88 (2006) : 277–283 ; S. R. Neves et al., « Modeling of signaling networks », BioEssays, 12 (2006) : 1110-1117 ; U. S. Bhalla et al., « Emergent properties of networks of biological signaling pathways », Science, 283 (1999) : 381-387 ; G.Weng et al., « Complexity in biological signaling systems »,

Page 55: Thèse version3.R

55

Les modèles du métabolisme

Nous verrons dans la suite que le métabolisme est historiquement un des premiers

phénomènes dans lequel se sont déployés des efforts de modélisation et de simulation, bien

avant que la biologie des systèmes ne fasse parler d’elle à la fin des années 90. Mais, comme

ailleurs, ce n’est qu’avec l’arrivée de nombreuses données expérimentales que ces approches

se sont répandues.

Les globules rouges ont été considérés comme un bon système à modéliser,

puisqu’ils ne comportent pas de noyau, ce qui simplifie grandement la complexité des

phénomènes de régulation à prendre en compte.111 Le métabolisme bactérien a également été

beaucoup modélisé au cours des dernières années112 et c’est maintenant le tour de celui de

l’homme113.

Les modèles de la division cellulaire et du cycle cellulaire

Le cycle cellulaire est également un domaine où la modélisation s’est naturellement

imposée. D’une part, on dispose depuis une vingtaine d’années d’une masse considérable de

données et, d’autre part, s’agissant de comprendre des phénonènes cycliques, il n’était pas

étonnant de recourir à des modèles dynamiques et quantitatifs.114

Les modèles du développement

Le cas du développement est particulièrement intéressant, puisqu’en plus des

mécanismes moléculaires dont il a été question, il présente d’autres niveaux de complexité à

Science, 284 (1999) : 92-96 ; B. N. Kholodenko, « Cell-signalling dynamics in time and space », Molecular Cell Biology, 7 (2006) : 165-176 ; N. J. Eungdamrong et al., « Computational approaches for modeling regulatory cellular networks », Trends in Cell Biology, 14 (2004) : 661-669. 111 T. C. Ni et al., « Application of biochemical systems theory to metabolism in human red blood cells. Signal propagation and accuracy of representation », Journal of Biological Chemistry, 271 (1996) : 7927-7941. 112 T. Ideker et al., Integrated genomic and proeteomic analyses of a systematically perturbed metabolic network », Science, 292 (2001) : 929-934 ; J. S. Edwards et al., « The Escherichia coli MG1655 in silico metabolic genotype: its definition, characteristics, and capabilities », Proceedings of the National Academy of Sciences, 97 (2000) : 5528-5533. 113 H. Ma et al., « The Edinburgh human metabolic network reconstruction and its functional analysis », Molecular Systems Biology 3 (2007) : 135. 114 A. Goldbeter, « Computational approaches to cellular rhythms », Nature, 420 (2002) : 238-245 ; B. Novak et al., « Quantitative analysis of a molecular model of mitotic control in fission yeast », Journal of Theoretical Biology, 173 (1995) : 283-305 ; J. C. Leloup et al., « Modeling the molecular regulatory mechanism of circadian rythms in Drosophila », BioEssays, 22 (2000) : 84-93 ; J. J. Tyson et al., « Chemical kinetic theory : understanding cell-cycle regulation », Trends in Biochemical Sciences, 21 (1996) : 89-96.

Page 56: Thèse version3.R

56

expliquer, principalement les mouvements cellulaires et les phénomènes de morphogenèse en

général.

Nous avons déjà mentionné les réseaux génétiques impliqués dans les phénomènes

de différentiation en citant les travaux du groupe d’Eric Davidson. Mais ajoutons que son cas

est maintenant loin d’être isolé et que de nombreux modèles de tels réseaux ont récemment

été élaborés dans le but de mieux comprendre les différentes étapes du développement, de la

mise en place des axes aux dernières étapes de différentiation cellulaire.115

Les phénomènes rythmiques mentionnés ci-dessus sont évidemment fondamentaux

dans le développement et ont ainsi fait l’objet de différents modèles. Le cas de la formation

des somites en est un très bon exemple.116

Pour modéliser les phénomènes de morphogenèse, nous verrons qu’on ne peut pas

rester au niveau des réseaux génétiques. Il faut notamment prendre en compte les forces qui

s’exercent dans chaque cellule par le biais du cytosquelette, les propriétés de la matrice

extracellulaire et bien sûr les interactions entre cellules. La nécessité d’intégrer différents

niveaux se fait donc sentir encore d’avantage que dans les modèles de mécanismes cellulaires.

Différentes approches ont été développées pour faire face à ces défis. Il faut noter que

d’autres formalismes s’appliquent naturellement à ces problèmes, comme les automates

cellulaires.117

Les modèles de cellules entières

Les modèles que nous venons de mentionner concernent tous des mécanismes ou

sous-systèmes particuliers, même s’ils intègrent parfois un très grand nombre de composants.

Il existe toutefois une classe de projets qui visent à construire ce que certains appellent des 115 M. S. Halfon et al., « Exploring genetic regulatory networks in metazoan development : methods and models », Physiological Genomics, 10 (2002) : 131-143 ; L. Sanchez et al., « Segmenting the fly embryo : a logical analysis of the pair-rule cross-regulatory module », Journal of Theoretical Biology, 224 (2003) : 517-537. 116 O. Pourquié et al., « Segmentation clock :insights from computational models », Current Biology, 13 (2003) : R632-R634 ; D. Thieffry et al., « Dynamical modelling of pattern formation during embryonic development », Current Opinion in Genetics and Development, 13 (2003) : 326-330 ; O. Cinquin, « Is the somitogenesis clock really cell-autonomous ? A coupled-oscillator model of segmentation », Journal of Theoretical Biology, 224 (2003) : 459-468. 117 P. Hogeweg, « Computing an organism: on the interface between informatic and dynamic processes », BioSystems, 64 (2002) : 97-109 ; P. Prusinkiewicz, « Modeling plant growth and development », Current Opinion in Plant Biology, 7 (2004) : 79-83 ; J. A. Izaguirre et al., « COMPUCELL, a multi-model framework for simulation of morphogenesis », Bioinformatics, 20 (2004) : 1129–1137 ; D. Longo et al., « Multicellular computer simulation of morphogenesis : blastocoel roof thinning and matrix assembly in Xenopus laevis », Developmental Biology, 271 (2004) : 210-222 ; M. H. Zaman et al., « Computational model for cell migration in three-dimensional matrices », Biophysical Journal, 89 (2005) : 1389-1397.

Page 57: Thèse version3.R

57

modèles complets de cellules ou des cellules virtuelles. Ces modèles sont dits complets, car ils

concerneraient la cellule dans son ensemble, c’est-à-dire qu’ils chercheraient à intégrer les

différents niveaux de régulation et de fonctions : la transcription, la traduction, le

métabolisme, etc.118 Pour certains chercheurs, ces modèles constitueraient l’objectif à long

terme que doit poursuivre la biologie des systèmes et les efforts de modélisation. Nous aurons

l’occasion de revenir sur les difficultés que soulève cette idée.

Il faut ajouter que, depuis quelques années, on assiste à une explosion du nombre

de logiciels facilitant la construction et l’analyse des modèles mathématiques en biologie. Il

en existe bien entendu toutes sortes de types, suivant le formalisme choisi, le niveau de

détails, la taille des réseaux, etc.119

1.3. Premières remarques sur les changements méthodologiques Le passage à ces approches globales semble avoir introduit certains changements

méthodologiques qu’il nous faudra analyser. Nous aimerions dès à présent en mentionner

deux. Il s’agit tout d’abord des rapports qu’entretiennent les domaines expérimentaux et

théoriques dans la recherche en biologie. La deuxième question concerne la méthode par

laquelle on peut aboutir à des modèles de réseaux biologiques. Ici, deux approches opposées

semblent exister : l’approche « par le bas » (bottom-up) et celle « par le haut » (top-down). Il

faut noter que ces questions se posent dès le développement des approches de génomique

fonctionnelle et pas seulement dans le cadre de la biologie des systèmes à proprement parler.

Une science fondée sur des données ou sur des hypothèses ?

Une des affirmations que l’on a commencées à entendre chez certains biologistes

dès le lancement des grands programmes de génomique était que la biologie était vouée à être

de plus en plus guidée par les données et de moins en moins par les hypothèses. La possibilité

de pouvoir disposer d’autant de données recueillies de manière systématique a semblé donner

118 N. Ishii et al., « Toward large-scale modeling of the microbial cell for computer simulation », Journal of Biotechnology, 113 (2004) : 281–294 ; M. Tomita, “Whole-cell simulation : a grand challenge for the 21st century”, Trends in Biotechnology, 19 (2001) : 205-210; E. L. Weitzke et al., « Simulating cellular dynamics through a coupled transcription, translation, metabolic model », Computational Biology and Chemistry, 27 (2003) : 469–480. 119 Par exemple, pour des modèles à petite échelle: Gepasi, et à large échelle: E-CELL, Virtual Cell.

Page 58: Thèse version3.R

58

le sentiment qu’il serait possible de passer à une phase presque purement inductive de la

recherche en biologie. On parle souvent à ce sujet de « fishing expeditions ».

Il est vrai que le projet du génome humain peut être considéré comme le premier

programme de recherche en biologie qui n’était pas directement fondé sur des hypothèses.

Comme nous l’avons déjà relevé, c’est sans doute une des raisons pour lesquelles il a suscité

autant de réserves et de critiques. Pour beaucoup de biologistes, il n’était pas possible de faire

de la bonne recherche sans partir d’hypothèses précises. C’est donc certainement un des

niveaux auxquels il a été novateur.

La génomique fonctionnelle a prolongé ce mouvement inductif, dans la mesure où

il n’était pas seulement devenu possible de mener des expériences systématiques, mais qu’en

outre, même le passage au niveau de modèles de réseaux pouvait se faire de manière inductive

et automatique. En effet, le cadre des réseaux bayesiens permet de trouver des réseaux

d’interactions causales à partir de l’observation des systèmes perturbés et donc sans partir

d’hypothèses.120

Ces méthodes permettaient donc de défendre la valeur des « systematics fishing

expeditions ». Les chercheurs utilisant ces méthodes d’inférences insistent d’ailleurs sur leur

indépendance à l’égard des modèles admis.

« Nous devons souligner que nous avons conçu notre approche avec le minimum de

biais. Les informations concernant la biologie de la levure n’ont pas influencé la formation de

clusters ou l’évaluation des motifs. Il s’agit de critères importants pour la validation de

nouvelles méthodologies, puisqu’elles doivent identifier correctement la structure de réseaux

connus sans connaissance a priori de leur structure ou de quelconques présupposés concernant

leur dynamique. »121

Une autre manière de formuler ce changment méthodologique a été de parler

de discovery science. Selon Ideker et al., le HGP a poussé la biologie moléculaire vers la

biologie des systèmes en favorisant le passage à ce nouveau type de science. Cette approche

est définie de la manière suivante par ces auteurs : « L’objectif de la discovery science est de

définir tous les éléments dans un système et de crééer une base de données contenant cette

information. [...] La discovery science tranche avec la science fondée sur l’hypothèse, qui

formule des hypothèses et tente de les discriminer expérimentalement. »122

120 R. Brent and L. Lok, « A fishing buddy for hypothesis generators », Science, 308 (2005) : 504-506. 121 S. Tavazoie et al., « Systematic determination of genetic network architecture », Nature Genetics, 22 (1999) : 284. 122 T. Ideker et al., op. cit., pp. 343-344.

Page 59: Thèse version3.R

59

Si ces nouvelles méthodes de recherche prenaient effectivement une telle forme

inductive, cela introduirait un changement profond en biologie. En effet, bien que, pour

certains physiciens, la biologie soit fondamentalement une activité qui consiste à accumuler

des observations sur des cas particuliers (l’expression « stamp collection » est parfois utilisée,

avec une connotation évidemment péjorative), il est juste de dire que les modèles et les

hypothèses théoriques ont toujours joué dans la biologie moderne un rôle central. On peut sur

ce point citer François Jacob, qui dans La logique du vivant écrivait : « Dans l’échange entre

la théorie et l’expérience, c’est toujours la première qui engage le dialogue. C’est elle qui

détermine la forme de la question, donc les limites de la réponse. « Le hasard ne favorise que

les esprits préparés », disait Pasteur. Le hasard, ici, cela signifie que l’observation a été faite

par accident et non pas pour vérifier la théorie. Mais la théorie était déjà là, qui permet

d’interpréter l’accident. »123

Il semble donc y avoir là une question méthodologique importante pour la biologie

qu’il nous faudra éclaircir. S’il est indéniable que cette extension formidable des techniques

expérimentales a changé et va continuer de transformer la biologie, nous verrons dans la suite

de ce travail que la question des rapports entre données expérimentales et modèles théoriques

est beaucoup plus complexe que ces affirmations ne pourraient le laisser penser.

Il est utile de souligner une fois encore à quel point les données issues des

programmes de génomiques sont à prendre avec précaution. Les différents problèmes de

fiabilité de chaque méthode ainsi que la fragilité des inférences faites doivent nous faire

douter de la possibilité d’une véritable démarche inductive. Nous avons vu que l’intégration

des données offre certaines solutions à ces problèmes, mais les aller-retours entre expériences

et modèles semblent rester plus importants que jamais.

Distinction entre approches top-down et bottom-up

Nous avons vu que le principe de modélisation en biologie correspond très souvent

à une reconstruction des réseaux, à leur descriprion mathématique et ensuite leur analyse. La

première étape, la reconstruction, est donc capitale. Si l’on se penche sur les moyens utilisés

123 F. Jacob, La logique du vivant, Paris, Gallimard, 1976, p. 24.

Page 60: Thèse version3.R

60

dans cette étape, il est courant dans la littérature récente d’établir une distinction entre deux

voies d’accès : bottom-up et top-down.124

La première correspond à ce qui se fait traditionnellement en biologie moléculaire.

On part des molécules particulières et de leurs interactions et l’on cherche à déterminer

comment des propriétés fonctionnelles émergent. Dans le cadre de la biologie

computationnelle, le principe revient à essayer de reproduire par des simulations le

comportement observé. On parle à ce sujet depuis quelques années de méthode (voire

d’expériences) in silico. Lorsqu’on constate une différence entre les prédictions du modèle et

les résultats expérimentaux, on affine le modèle.

Plusieures approches en biologie des systèmes suivent ce principe. Par exemple, le

projet Silicon Cell est fondé sur des mesures d’interactions entre composants. Une différence

importante avec la biologie moléculaire serait, bien entendu, la taille des systèmes ainsi

reconstitués.

La méthode top-down procède d’une tout autre manière. On ne part pas des

interactions entre composants, mais de l’étude du comportement du système en son entier. On

observe par exemple le changement d’expression de tous les gènes suite à une perturbation

(délétion d’un gène, stress, etc.). Comme nous l’avons vu, les nouvelles technologies

permettent de suivre les changements de concentration et d’activité de potentiellement tous

les composants en même temps. À partir de l’analyse de ces données (surtout des

corrélations), on fait des hypothèses sur l’organisation et le fonctionnement des systèmes.125

Un des avantages de ce type d’approche est de pouvoir rapidement, et sans passer

par un long, minutieux et difficile travail de biologie moléculaire, identifier (mais de manière

hypothétique) des larges réseaux moléculaires impliqués dans des processus biologiques.

Cette vision globale des systèmes biologiques a en revanche le gros désavantage de fournir

une image grossière de ces réseaux et qui n’est pas toujours très fiable. C’est pourquoi il

paraît clair que les deux approches doivent se complémenter. Malgré les limites sérieuses des

approches top-down, leur développement en biologie marque un tournant tant du point de vue

des stratégies de recherche, que des modes de représentation et d’analyse, et c’est pourquoi

cette question sera discutée dans la suite de ce travail.

124 Voir par exemple : H. W. Westerhoff and D. Kell, « The methodologies of systems biology », in F. Boogerd et al. (ed.), Systems Biology, Philosophical Foundations, op. cit. ; ou H. Bolouri et al., « Modeling transcriptional regulatory networks », BioEssays, 24 (2002) : 1118-1129. 125 D. Bray, « Molecular networks : the top-down view », Science, 301 (2003) : 1864-1865.

Page 61: Thèse version3.R

61

1.4. La naissance de la biologie des systèmes Ce que nous venons de présenter permet de se faire une idée un peu plus précise

des changements qui sont intervenus récemment en biologie, mais nous n’avons pour l’instant

parlé de la biologie des systèmes que de manière indirecte. Pour compléter cette présentation

il convient donc de décrire rapidement comment le terme est apparu et comment très

rapidement il s’est imposé, tant au niveau du discours scientifique qu’au niveau institutionnel.

Nous verrons ailleurs dans ce travail que le terme a une histoire relativement

ancienne et que son origine remonte aux discussions sur les applications de la théorie générale

des systèmes (d’abord formulée par Ludwig von Bertalanffy) à la biologie. Mais dans le cadre

des bouleversements récents que nous venons de rappeler, c’est à la fin des années 90 qu’il

s’est répandu.126 Une des premières publications dans laquelle apparaît cette expression date

de 1998 et est due à Leroy Hood, l’un des chercheurs ayant beaucoup contribué au

développement de la génomique et qui s’est beaucoup engagé pour la reconnaissance de la

biologie des systèmes.127

Comme le montre bien la figure 2, c’est réellement à partir des années 2001-2002

que l’utilisation de cette expression s’est généralisée, on pourrait même dire qu’elle a explosé.

Les grandes revues comme Nature et Science ont contribué à cette popularisation, en publiant

de plus en plus d’articles et de revues consacrés à ce phénomène et même en lui dédiant des

numéros spéciaux. On pourra notamment citer une revue de Hiroaki Kitano, autre acteur

central de ce mouvement, intitulé « Systems Biology, a brief overview », qui fut publiée dans

Science en 2002 et qui est considéré par certain comme le manifeste de ce nouveau

mouvement.128

Il est intéressant de constater que cette tendance, certains pourraient dire cette

mode, ne s’est pas seulement manifestée au niveau du discours, mais s’est très rapidement

concrétisée au plan institutionnel.129 En 2000, le premier institut officiellement consacré à la

recherche en biologie des systèmes est créé aux Etats-Unis. Il s’agit de l’Institute for Systems

Biology, à Seattle, qui est un organisme privé co-fondé par Leroy Hood. La même année, le

Systems Biology Institute (SBI) est lancé à Tokyo par Hiroaki Kitano. 126 Certains auteurs utilisent l’expression « nouvelle biologie des systèmes » (« new systems biology ») pour marquer la différence avec les anciennes approches systémiques. 127 L. Hood, « Systems biology: New opportunities arising from genomics, proteomics and beyond », Experimental Hematology, 26 (1998) : 681-681. 128 H. Kitano, « Systems biology : a brief overview », Science, 295 (2002) : 1662-1664. 129 Sur ces aspects voir M. Cassman et al., Systems Biology: International Research and Development, Springer-Verlag, 2007.

Page 62: Thèse version3.R

62

Les grandes agences de recherche n’ont pas tardé à soutenir ce mouvement. Par

exemple, aux Etats-Unis, le NIH et la NSF ont créé dès le début de la décennie des

programmes pour développer ces nouvelles approches.130 En Allemagne, le Ministère de

l’éducation et de la recherche s’est engagé dès 2001 dans des programmes visant à soutenir la

recherche en biologie des systèmes et a lancé en 2004 un projet centré sur l’étude des

hépatocytes. La Suisse a commencé en 2003 à mettre sur pied une collaboration entre diverses

institutions, ce qui a abouti à la création du consortium SystemsX.ch, qui s’est vu doté d’un

buget de 200 millions de francs suisses pour la période 2008-2011.

Figure 2 : Ces deux graphiques montrent l’explosion du nombre d’occurence de l’expression « systems bioloy » dans la littérature au cours des dix dernières années (A : dans Pubmed et B : dans Google Scholar). Tiré de M. J. Hodgkinson et P. A. Webb, « A system for success: BMC Systems Biology, a new open access journal », BMC Systems Biology, 1 (2007) : 41.

130 Parmi ceux-ci, citons le programme des NIH visant au développement de “National Technology Centers for Networks and Pathways”, et du côté de la NSF “Quantitative Systems Biotechnology” et “Frontiers in Integrative Biological Research”.

Page 63: Thèse version3.R

63

En 2000, la première conférence sur le sujet est organisée à Tokyo par Kitano.

L’International Conference for Systems Biology en est maintenant à sa neuvième édition et

attire chaque année des centaines de chercheurs. Le premier livre sur la biologie des systèmes

à été écrit par Kitano en 2001.131 Plusieurs ouvrages ont été publiés depuis.132

Le premier journal entièrement dédié à la biologie des systèmes voit le jour en 2004

sous le titre Systems Biology (il a ensuite changé de nom pour s’appeler IEE Proceedings

Systems Biology et finalement IET Systems Biology depuis 2007). En 2005, l’éditeur de

Nature et l’EMBO lancent le journal Molecular Systems Biology, et en 2007 apparaît BMC

Systems Biology.

La biologie des systèmes reposant sur l’interdisciplinarité, il est évidemment

fondamental de former des chercheurs ayant des compétences aussi bien en biologie

moléculaire, qu’en mathématique et en informatique ou en ingénierie. Ce mouvement avait

déjà été amorcé avec la bioinformatique, mais les connaissances nécessaires ne sont plus tout

à fait les mêmes. Depuis quelques années, plusieurs universités ont tenté de créer des cursus

adaptés à ces nouveaux défis. Aux Etats-Unis, on notera la Computational and Systems

Biology Initiative au MIT et celle du département de Biologie des Systèmes à l’Univesité de

Harvard. En Europe, des universités ont également développé des programmes dans ce sens,

notamment à Berlin, Stuttgart, Amsterdam, Londres et Oxford. Le Japon n’est pas en reste,

puisque plusieurs universités à Tokyo et Kyoto proposent des formations similaires.

Il faut reconnaître que ces succès institutionnels ont été si impressionants que des

projets dans ce domaine réussissent à mobiliser d’importants budgets. La biologie des

systèmes étant souvent considérée comme la suite logique des projets de génomique et de

génomique fonctionnelle, il n’est pas étonnant qu’elle profite de financements de grande

ampleur. Il faut à ce sujet noter que ce fait n’aide pas la biologie des systèmes à se définir

clairement, pour la simple raison que certains groupes de recherche espèrent tirer des

avantages financiers en se rattachant à cette vague qui jouit d’un prestige grandissant. C’est

pourquoi nous essaierons de montrer que le terme biologie des systèmes est parfois utilisé à

131 H. Kitano (Ed.), Foundations of Systems Biology, op. cit. 132 Voir par exemple : L. Alberghina and H.Westerhoff (ed.), Systems Biology, definitions and perspectives, Berlin, Springer, 2007; P. Bringmann et al. (ed.), Systems Biology: Applications And Perspectives, Berlin, Springer-Verlag, 2006; B. O. Palsson, Systems Biology: Properties of Reconstructed Networks, op. cit.; U. Alon, An Introduction to Systems Biology: Design Principles of Biological Circuits, Boca Raton, Chapman & Hall, 2006.

Page 64: Thèse version3.R

64

tort et à travers. Mais nous renoncerons toutefois à donner une définition ou des critères stricts

qui permettraient de cerner précisément ce qu’est la biologie des systèmes.

1.5. Conclusion : première caractérisation de la biologie des systèmes Nous venons de décrire le contexte scientifique dans lequel se sont développées les

approches que l’on regroupe sous le terme biologie des systèmes. Avant d’approfondir dans la

suite de ce travail les différentes questions que soulèvent ces nouvelles approches, il sera

certainement utile de donner une première caractérisation de ce domaine de recherche à partir

des remarques que nous avons faites dans ce chapitre. S’agissant d’un domaine en plein

développement (il serait plus juste de dire en pleine explosion), il serait hasardeux et

finalement peu intéressant de chercher à en donner une définition très précise. C’est un aspect

essentiel de la biologie des systèmes que de prendre des formes et des directions très

différentes et sa diversité doit être soulignée et non pas masquée par une caractérisation trop

rigide.

D’un point de vue tant historique que philosophique, il est important de noter que

l’apparition et le développement de la biologie des systèmes ont été rendus possible et sont

donc en partie fondés sur les transformations technologiques (et en partie institutionnelles)

liées à la génomique. D’autre part, la biologie des systèmes correspond à un déplacement de

l’étude des composants et de « petits » mécanismes à celle de larges réseaux moléculaires.

Enfin, et c’est sans doute l’aspect le plus important, elle est fondée sur la modélisation

mathématique et informatique. Précisons rapidement ces trois points.

La biologie des systèmes est fondée sur les bouleversements technologiques qui ont accompagné la génomique

L’idée que la biologie des systèmes est fondée sur les progrès technologiques

récents est vraie dans un double sens : premièrement, elle est en partie apparue comme

réponse au flot des données (mais il ne faut pas la réduire à cela) et deuxièmement, elle ne

pourrait fondamentalement pas exister sans elles. De ce point de vue, on peut dire que les

progrès technologiques sont en grande partie responsables de ce bouleversement scientifique

(nous verrons que les outils conceptuels étaient en partie déjà présents).

Il faut en effet être conscient qu’il est très difficile, voire impossible de construire

des modèles mathématiques et des simulations féconds et capables de représenter la

Page 65: Thèse version3.R

65

complexité mise au jour par les expérimentalistes sans un grand nombre de données précises

au niveau moléculaire. Cette nécessité pose d’ailleurs toujours un problème et probablement

pour encore longtemps, car beaucoup de mesures sont encore difficiles, voire impossibles à

faire. Même si, conceptuellement, la révolution technologique ne doit pas être exagérée, on

peut dire qu’elle a donné vie à ce qu’on pourrait appeler des outils systémiques, qui restaient

en partie inutilisables.

Cela nous ramène à un fait que nous avons déjà souligné : la génomique a eu

finalement plus d’impact en permettant le développement de nouvelles approches et de

progrès technologiques que par ses résultats à proprement parler (les cartes génétiques et les

séquences). Il faut bien sûr reconnaître que cette conséquence était plus ou moins escomptée,

mais qu’elle était rarement formulée clairement au début du projet. Cette idée est bien

exprimée dans un article déjà cité : « La conséquence la plus importante du Projet Génome

Humain est peut-être qu’elle conduit les scientifiques vers une nouvelle vision de la biologie –

ce que nous appelons les approches systémiques. »133

Hiroaki Kitano a également insisté sur l’importance des progrès technologiques

pour comprendre les changements méthodologiques: « Depuis l’époque de Norbert Wiener, la

compréhension au niveau systémique a été un thème récurrent dans les sciences biologiques.

La raison principale pour laquelle elle jouit d’un regain d’intérêt aujourd’hui est que les

progrès en biologie moléculaire, particulièrement dans le séquençage du génome et dans les

mesures à haut-débit, permet de récolter des ensembles de données complets sur les

performances du système, et d’obtenir des informations sur les molécules qui les composent.

Cela n’était pas possible au temps de Wiener, lorsque la biologie moléculaire était encore une

discipline émergente. Il existe actuellement une opportunité en or de fonder l’analyse

systémique dans la compréhension du niveau moléculaire, avec pour résultat un spectre

continu de connaissance. »134

La biologie des systèmes correspond à un déplacement vers l’étude des réseaux et de leur dynamique

La biologie des systèmes est souvent présentée comme l’étude des réseaux

biologiques.135 Mais ce n’est pas si simple, car les réseaux ont toujours eu une certaine

133 T. Ideker et al., op. cit., p. 343. 134 H. Kitano, « Systems Biology : a brief overview », op. cit., p. 1662. 135 S. H. Strogatz, « Exploring complex networks », Nature, 410 (2001) : 268-276 ; A. L. Barabasi and Z. N. Oltvai, « Network biology : understanding the cell’s functional organization », Nature Review Genetics, 5

Page 66: Thèse version3.R

66

importance en biologie moléculaire. Il ne s’agit donc pas d’une nouveauté absolue, mais d’un

recentrement. La différence tient également sans doute à la taille des réseaux étudiés.

Une des conséquences majeures de ce déplacement est que les attributions

fonctionnelles ne se font plus seulement sur des séquences ou des molécules, mais sur des

réseaux. En simplifiant les choses, on pourrait dire que la génomique fonctionnelle, c’est la

recherche de fonctions à partir de séquences (alors qu’en génétique moléculaire on recherchait

les séquences responsables d’une fonction), mais que la biologie des systèmes va plus loin,

puisque le but est avant tout d’attribuer des fonctions à des réseaux et pas à des séquences. Il

faut préciser qu’il y a encore un sens à le faire, mais de manière plus limitée.

Comme nous l’avons souligné, il ne s’agit pas uniquement de reconstruire des

réseaux biologiques, mais de comprendre leurs propriétés, notamment dynamiques. Cette

insistance sur l’aspect dynamique des systèmes biologiques est souvent considérée comme la

marque distinctive de la biologie des systèmes et son apport majeur.

« La compréhension systémique, l’approche défendue en biologie des systèmes,

exige un déplacement dans notre idée de ce qu’il faut chercher en biologie. Si une

compréhension en termes de gènes et de protéines continue d’être importante, l’important est

de comprendre la structure et la dynamique d’un système. Parce qu’un système n’est pas

qu’un assemblage de gènes et de protéines, ses propriétés ne peuvent être complètement

comprises simplement en dessinant les diagrammes de leurs interconnexions. »136

La biologie des systèmes est fondée sur la modélisation mathématique et informatique

Nous insisterons tout au long de ce travail sur le fait que le développement de

modèles mathématiques et informatiques doit être considéré comme l’élément central et

fondamental qui caractérise la biologie des systèmes, même si elle ne peut être réduite à cela.

C’est d’ailleurs à partir du moment où de tels modèles se sont développés que l’on a

réellement commencé à parler de biologie des systèmes. Malgré l’absence de critères stricts

pour définir ce qu’est la biologie des systèmes, on peut néanmoins rejeter l’identification des

grands programmes de génomique fonctionnelle à cette démarche. Il ne suffit donc pas

d’utiliser des approches expérimentales à l’échelle du génome (genome-wide) pour faire de la

(2004) : 101-113 ; S. Huang, « Back to the biology in systems biology : what can we learn from biomolecular networks ? », Briefings in functional genomics and proteomics, 2 (2004) : 279–297. 136 H. Kitano, op. cit., p. 1662.

Page 67: Thèse version3.R

67

biologie des systèmes (contrairement à ce qu’on peut parfois lire).137 Si l’on pense aux sources

historiques de la biologie des systèmes (que nous aurons l’occasion de présenter ailleurs dans

ce travail), les analyses systémiques ont dès le début été associées à l’utilisation des

mathématiques et des simulations et ce n’est pas un hasard : ces outils sont nécessaires pour

étudier les aspects structuraux et dynamiques des systèmes. En ce sens, cette troisième

caractéristique ne peut être séparée de la précédente, puisqu’on ne peut pas étudier les

propriétés structurelles et dynamiques des réseaux sans de bons modèles mathématiques et

des simulations.

En d’autres termes, la biologie des systèmes n’est pas seulement le passage à des

analyses globales. C’est finalement tout ce qu’elle apporte de plus qui va devoir être analysé.

Si l’on reprend une définition souvent citée : « La biologie des systèmes étudie les

systèmes biologiques en les perturbant systématiquement (biologiquement, génétiquement, ou

chimiquement) ; en mesurant les réponses au niveau des gènes, des protéines et des voies

informationnelles ; en intégrant ces données ; et finalement, en formulant des modèles

mathématiques décrivant la structure du système et sa réponse aux perturbations

individuelles »138, on peut dire que c’est le dernier aspect qui est vraiment caractéristique de la

biologie des systèmes. Sur ce point, Palsson écrit : « La biologie des systèmes est

fondamentalement mathématique ».139

Ces caractéristiques de la biologie des systèmes que nous venons de décrire ont

plus été affirmées que démontrées. La brève présentation que nous avons faite de l’évolution

récente de la biologie moléculaire et du passage à la biologie des systèmes n’avait pas pour

but de montrer que c’est en ces termes que ces transformations peuvent être le mieux décrites.

Il aurait pour cela fallu se plonger dans une étude à la fois vaste et détaillée de l’histoire

récente de ce mouvement, ce qui aurait été clairement au-delà des objectifs de ce travail.

D’autre part, cette manière de décrire ces nouvelles approches est loin d’être originale,

comme le prouvent les nombreuses citations que nous avons données. Que la biologie des

systèmes repose sur les technologies à haut-débit, qu’elle consiste pour une large part part

dans l’étude et la modélisation des réseaux et qu’ elle soit enfin par nature largement

mathématique, n’est pas quelque chose que nous cherchons à établir. Nous pensons que les

137 Il est étonnant de constater que certains auteurs semblent parfois confondre les qualificatifs systémiques et systématiques et pensent que le simple fait pour une approche de consister en une étude systématique des composants d’un système justifie de l’appeler systémique. Nous verrons que cela est insuffisant si l’on veut donner un véritable sens à ce que tente d’accomplir la biologie des systèmes. 138 T. Ideker et al., op. cit., p. 343. 139 B. O. Palsson, op. cit., p. 11.

Page 68: Thèse version3.R

68

nombreux exemples qui seront discutés tout au long de ce travail suffiront à convaincre le

lecteur qu’un nombre considérable de travaux en biologie présentent effectivement ces

caractéristiques. Il s’agit plutôt d’une situation dont nous prenons acte, mais dont nous

voulons analyser un certain nombre de conséquences aux niveaux scientifique et

philosophique.

Le fait que la naissance de la biologie des systèmes puisse au moins en partie être

expliquée par des progès technologiques doit-il par exemple nous conduire à minimiser les

changements conceptuels et théoriques ? La biologie des systèmes ne serait-elle à ce compte-

là qu’une « super biologie moléculaire », qui tirerait avantage des progrès technologiques

pour étendre les anciennes approches sans réellement bouleverser ce cadre ?

Le fait que le niveau auquel sont formulées beaucoup d’explications soit celui des

réseaux et non plus des composants (gènes ou protéines) doit-il d’autre part être interprété

comme un dépassement, voire un rejet, des approches réductionnistes qui caractérisent

traditionnellement la biologie moléculaire et la biochimie ? La biologie des systèmes est-elle,

comme beaucoup le déclarent, une approche fondamentalement anti-réductionniste et dans ce

cas, quel sens faut-il donner à cette idée?

Constater que l’utilisation de ces outils mathématiques se généralise en biologie

moléculaire pose également un grand nombre de questions. Par exemple, qu’apporte ce

nouveau mode de représentation à la biologie ? Permet-il de décrire de nouveaux phénomènes

ou bien est-ce une manière plus précise et commode de représenter des mécanismes

moléculaires classiques ? Est-ce le signe d’un passage à une biologie théorique et quel sens

donner à cette expression ?

Beaucoup d’autres questions se posent encore : Quel sens donner au qualificatif

systémique ? Est-on revenu à une vision mécaniste ou au contraire s’en éloigne-t-on ? Les

ordinateurs nous permettent-ils avant tout d’organiser la multitude de détails qui submerge

nos capacités d’analyse ? Vers quels objectifs à long terme nous mènent ces approches ? Vers

des organismes virtuels ? Si oui, quel sens donner à cette idée ?

Ce sont donc toutes ces interrogations auxquelles nous essaierons d’apporter des

réponses dans la suite de ce travail.

Page 69: Thèse version3.R

69

Chapitre 2

La biologie des systèmes entre réductionnisme et organicisme

Les biologistes et les philosophes qui ont réfléchi à ce que représente le

développement de la biologie des systèmes et à la manière dont il doit être interprété ont

donné des réponses parfois très divergentes. Alors que certains y voient la continuation

logique de la biologie moléculaire et l’extension de ses modèles moléculaires et

réductionnistes, d’autres y reconnaissent l’avènement d’une véritable biologie organiciste et

anti-réductionniste, qui viendrait enfin corriger les excès commis par les biologistes

moléculaires. On voit donc que le plan sur lequel se développe cette divergence ou cette

opposition d’interprétation est déterminé par la question du réductionnisme. Nous verrons que

cette question est ancienne, complexe et qu’elle a pris des formes très variées. Elle dépasse

clairement le cadre de ce travail et nous serons attentifs à ne pas nous laisser entraîner trop

loin dans les raffinements de ces discussions. Toutefois elle est importante et nous occupera

dans ce chapitre ainsi que le suivant pour au moins deux raisons. Premièrement, déterminer

dans quelle mesure la biologie des systèmes poursuit, dépasse ou rejette les approches

réductionnistes de la biologie moléculaire devrait nous aider à voir plus clairement en quoi

elle pourrait constituer un véritable bouleversement pour les sciences biologiques. D’autre

part, la question générale du réductionnisme constitue une des problématiques autour de

laquelle s’est construite la philosophie des sciences à partir des années 50 et elle reste un sujet

important de discussions, et c’est à ce débat que nous voulons essayer d’apporter une

contribution. Il nous semble que le cas de la biologie des systèmes représente une bonne

occasion de confronter certaines conceptions philosophiques à la réalité de la recherche

scientifique et de déterminer ainsi la pertinence des différentes positions.

Cette discussion ne pourra être menée sans un rappel préalable des débats

philosophiques qui ont eu lieu autour de la question du réductionnisme. Nous verrons que le

Page 70: Thèse version3.R

70

cadre de ce débat a beaucoup évolué, en passant d’un réductionnisme théorique à ce qu’on

appelle un réductionnisme explicatif. C’est cette dernière forme, qui correspond aux débats

récents, qui retiendra notre attention.

Le réductionnisme explicatif est la thèse selon laquelle tous les phénomènes et les

propriétés biologiques (fonctionnelles) peuvent, en principe (et ce qualificatif est

fondamental), être expliqués en termes moléculaires. Nous présenterons différentes difficultés

que soulève cette thèse et des réponses qu’on peut y apporter. Nous nous arrêterons sur une

des objections qu’on fait souvent aux explications réductives, leur incapacité à rendre compte

des phénomènes émergents. Nous montrerons que, tel qu’il est formulé, il s’agit d’un faux

problème, puisque d’une part, les explications traditionnellement considérées comme

réductives en biologie intègrent souvent une composante émergente et, d’autre part, les

philosophes réductionnistes acceptent la forme d’émergence dont il est question.

Le caractère non problématique de l’émergence a une conséquence importante pour

notre analyse. En effet, l’émergence est souvent considérée comme le critère permettant de

distinguer la biologie des systèmes des approches réductionnistes de la biologie moléculaire,

la première étant seule capable de rendre compte des phénomènes émergents. Nous serons

donc conduits à rejeter cette caractérisation. Malgré tout, il y a bien quelque chose de vrai

dans cette thèse et nous analyserons de manière plus fine ce qui distingue les explications

complexes de la biologie des systèmes des modèles classiques de la biologie moléculaire.

Nous verrons que les modèles formels introduits par la biologie des systèmes permettent de

représenter et expliquer autrement et bien mieux les phénomènes émergents. Comme le

répètent ses défenseurs, la biologie des systèmes se veut une science de la complexité et de

l’émergence. Toutefois, d’un certain point de vue, il n’y a pas de rupture nette entre les deux

cadres, mais plutôt une sorte d’extension.

L’analyse des progrès que permettent la modélisation mathématique et les

simulations nous conduira à accepter provisoirement une idée centrale du réductionnisme : la

possibilité d’expliquer les phénomènes émergents et d’intégrer le contexte dans lequel opère

un mécanisme moléculaire par une stratégie d’extension de mécanisme. En effet, les progrès

que connaît la modélisation depuis peu pointent naturellement vers la construction de modèles

moléculaires toujours plus complets et intégrant toujours plus de processus moléculaires et

semblent soutenir l’optimisme du réductionniste qui affirme que même des phénomènes

biologiques complexes devraient pouvoir être analysés et décomposés en termes moléculaires.

Les modèles complexes apparaissent donc comme le meilleur allié du réductionnisme

explicatif. Au terme de cette première partie, nous serons donc conduits à accepter

Page 71: Thèse version3.R

71

provisoirement la thèse selon laquelle il n’y a pas de limite de principe, absolue ou a priori à

l’analyse et l’explication des phénomènes fonctionnels au niveau moléculaire.

2.1. Quelques repères pour comprendre les enjeux de cette question : petite histoire des débats sur le réductionnisme

Nous l’avons dit, le réductionnisme est une question qui a passablement agité la

philosophie des sciences et fait couler beaucoup d’encre. Cette problématique a toutefois pris

des formes très différentes et donné lieu à des discussions parfois extrêmement techniques, à

tel point qu’il n’est pas toujours facile de s’y retrouver. Un minimum de rappel et de

clarification s’impose donc. Une première distinction entre trois formes de

réductionnisme nous aidera dans cet effort.140 Premièrement, il y a ce qu’on appelle le

réductionnisme constitutif, qui affirme que la composition matérielle du vivant ne diffère en

rien de ce que décrivent la physique et la chimie. La deuxième forme est le réductionnisme

théorique, qui est une thèse portant sur des relations entre théories scientifiques. C’est cette

forme qui a dominé les débats jusqu’à récemment. Le réductionnisme explicatif constitue la

troisième position et sera au centre de notre analyse. La première forme n’a pratiquement

jamais été remise en question depuis l’abandon du vitalisme au début du vingtième siècle.

Nous verrons qu’au cours des trente dernières années, les discussions sont passées de la

deuxième forme à la dernière. Ce sont donc ces transformations récentes que nous allons

maintenant présenter dans leurs grandes lignes.141

Le réductionnisme dans l’empirisme logique : le réductionnisme théorique

Il est bien connu que les empiristes logiques ont construit toute leur conception de

la science sur l’idée que les théories constituaient le véritable cœur des sciences. Par théorie,

il faut ici entendre un système formalisé, fondé sur des axiomes et dont on peut déduire des

140 Cette distinction est notamment faite par Mayr (E. Mayr, Toward A New Philosophy of Biology. Observations of an Evolutionist, Harvard University Press, 1988, p. 10-11) et Sarkar (S. Sarkar, Molecular models of life, MIT Press, 2007). 141 Références générales sur les aspects historiques de ce débat : K. Sterelny et P. E. Griffiths, Sex and Death : an Introduction to Philosophy of Biology, Chicago, The University of Chicago Press, 1999 (chapitres 6 et 7) ; S. Sarkar, Genetics and reductionism, Cambridge, Cambridge University Press, 1998; A. Rosenberg, Darwinian Reductionism, Chicago, The University of Chicago Press, 2006 (surtout le chapitre 1); K. Schaffner, Discovery and Explanation in Biology and Medecine, Chicago, The University of Chicago Press, 1993 (surtout le chapitre 9) ; B. Feltz, « Le réductionnisme en biologie », Revue philosophique de Louvain, 93 (1995) : 9-32 ; W. Callebaut, « Réduction et explication mécaniste en biologie », Revue philosophique de Louvain, 93 : 33-66.

Page 72: Thèse version3.R

72

conséquences dont certaines pourront être testées expérimentalement. Une telle conception

s’explique évidemment par le fait que ces philosophes ont pratiquement toujours réfléchi à

partir d’exemples tirés de la physique, science à laquelle la plupart avaient été formés. Donner

une place privilégiée aux théories détermine évidemment la nature même des problèmes que

le philosophe des sciences va être amené à traiter. C’est ainsi que le problème du

réductionnisme a été posé dans ce cadre en termes de relation entre théories.

L’ouvrage classique d’Ernst Nagel, Structure of Science142, offre certainement l’une

des meilleures illustrations de cette conception et a en outre largement déterminé les

discussions qui ont suivi. Selon Nagel, la réduction d’une théorie à une autre exige que deux

critères soient satisfaits. Premièrement, les lois de la théorie réduite doivent pouvoir être

dérivées de la théories réductrice (c’est la condition de dérivabilité). Deuxièmement, le

vocabulaire des deux théories doit pouvoir être mis en relation par traduction (c’est la

condition de connectabilité). Il s’agit donc de trouver ce qu’on appelle des bridge principles

ou bridge laws. Cette deuxième condition pouvait sembler être facilement satisfaite, puisque

dans l’optique de ces philosophes, tout terme théorique trouvait en dernière analyse sa

signification au niveau de l’observation. Cet ancrage observationnel garantissait en quelque

sorte que les termes des deux théories puissent être traduits et comparés.

Il est devenu assez rapidement évident que cette conception des sciences et des

relations qu’entretiennent entre elles différentes théories, au cours de l’histoire aussi bien qu’à

un moment donné, soulève un si grand nombre de difficultés qu’elle est difficilement tenable.

Des philosophes comme Thomas Kuhn et Paul Feyerabend ont montré dans leurs travaux

historiques que les différentes théories ne pouvaient pas toujours être comparées entre elles

avec toute la beauté et la simplicité logique que nous décrivaient les empiristes logiques.

Nous n’entrerons pas dans les innombrables débats qu’a suscités l’idée d’incommensurabilité

entre théories proposée par Kuhn, mais il était devenu clair que la mise en relation des

théories et de leur vocabulaire était loin d’être une affaire évidente.

Si ces problèmes ont d’abord été discutés à partir d’exemples en physique (comme

ce fut longtemps le cas en philosophie des sciences), l’application de ce cadre réductionniste à

la biologie a soulevé des difficultés supplémentaires. Le cas qui a retenu l’attention des

philosophes de la biologie est celui de la possible réduction de la génétique classique à la

biologie moléculaire. Lorsque ces débats ont commencé à agiter les philosophes des sciences,

vers la fin des années 60, la biologie moléculaire était devenue une entreprise florissante,

142 E. Nagel, The Structure of Science, Routledge & Kegan Paul, 1961.

Page 73: Thèse version3.R

73

pleine de succès et, semblait-il, capable d’expliquer le vivant au niveau moléculaire. N’avait-

on pas en effet découvert que les gènes, ces entités théoriques postulées par Mendel et dont

les généticiens de la première moitié du vingtième siècle avaient en détail étudié les modes de

transmission, étaient en réalité constitués d’une suite de nucléotides dans le double brin

d’ADN ? Il semblait donc légitime de penser que la biologie moléculaire pouvait réduire la

vieille théorie mendélienne, c’est-à-dire ses lois sur la ségrégation des caractères et ses

concepts de gène, d’allèle, de recombinaison ou encore de dominance. Les tentatives les plus

abouties d’appliquer le cadre réductionniste à cet exemple se trouvent chez Kenneth

Schaffner143 et Michael Ruse144 Or, c’est la possibilité de cette mise en correspondance qui a

été mise en doute dès les années 70.

Le problème fondamental que rencontre le réductionnisme théorique, lorsqu’il est

appliqué à la biologie, est que chaque entité de la génétique classique peut être réalisée de

différentes manières au niveau moléculaire. Si l’on voulait exprimer une entité fonctionnelle

en termes moléculaires, il faudrait recourir à une disjonction infinie de structures et de

processus moléculaires, qui seraient en outre sans doute très hétérogènes. Il s’agit d’une

relation qu’on appelle en anglais one-to-many. Ce problème est aussi appelé celui de la multi-

réalisabilité. Pour mieux comprendre cette idée, il suffit de prendre le cas du gène145. Plus les

connaissances en biologie moléculaire progressaient et plus il devenait évident qu’il n’était

pas possible de définir en termes uniquement moléculaires ce qu’est un gène en général. En

réalité, ce problème se situe à deux niveaux. Premièrement, si l’on admet que les gènes

correspondent à des portions d’ADN, il faut bien reconnaître que la catégorie du gène

fonctionnel correspond à une disjonction infinie de séquences d’ADN. Mais le problème est

encore bien plus profond, si l’on pense que la définition moléculaire d’un gène ne doit pas

uniquement inclure la séquence, mais également le contexte moléculaire, c’est-à-dire les

mécanismes qui permettent à cette séquence d’avoir des effets (c’est-à-dire d’être exprimée).

L’inclusion du contexte présente deux difficultés. D’une part, on risque d’aggraver le

problème de la multi-réalisabilité en intégrant des mécanismes supplémentaires. D’autre part,

cela sapera les fondements du réductionnisme, en se référant à des aspects non moléculaires 143 K. Schaffner, « Approaches to reduction », Philosophy of Science, 34 (1967) : 137-147 ; K. Schaffner, « The Watson-Crick model and reductionism », British Journal for the Philosophy of Science, 20 (1969) : 325-348. Il faut noter que, dans son modèle, Schaffner introduit une différence par rapport au cadre nagelien. Il reconnaît que la génétique mendélienne ne peut être directement déduite de la génétique moléculaire, mais il pense résoudre ce problème en introduisant une version légèrement modifiée de la théorie à réduire. 144 M. Ruse, « Two biological revolutions », Dialectica, 25 (1971) : 17-38 ; M. Ruse, « Reduction, replacement, and molecular biology », Dialectica, 25 (1971) : 39-72. 145 Pour cet exemple, on pourra se référer à D. L. Hull, Philosophy of Biological Science, Englewood Cliffs, Prentice-Hall, 1974.

Page 74: Thèse version3.R

74

du contexte (nous aurons l’occasion de revenir sur ce problème). Le cas de la dominance est

lui aussi convaincant, puisqu’il semble bien exister de nombreuses façons au niveau

moléculaire pour un allèle d’exprimer son caractère. On peut donc dire que le problème

central de cette première forme de réductionnisme tient à la complexité des relations qui

unissent les deux domaines de la biologie dont il est question.146

Un des aspects importants de l’idée de multi-réalisabilité est que les généralisations

de niveau supérieur possèdent une certaine indépendance par rapport aux mécanismes de

niveau inférieur qui les réalisent. Ainsi, les principes énoncés par Mendel possèderaient une

puissance explicative qui ne dépendrait pas des détails moléculaires que peuvent mettre au

jour les biologistes moléculaires. Kenneth Waters parle en termes de gory details, c’est-à-dire

de détails extrêmement complexes, mais qui ne seraient pas pertinents pour expliquer des

phénomènes de haut niveau.147 Selon Kitcher148, la loi de ségrégation indépendante est

complètement expliquée en se référant au fait qu’il y a deux copies de chaque chromosome et

qu’une copie de chacun se retrouve dans chaque gamète. C’est dans ce sens que les

explications fonctionnelles en biologie seraient irréductibles. (Nous aurons l’occasion de

revenir sur cette idée dans le chapitre suivant).

On peut dire que le cadre positiviste dans lequel ce débat a pris naissance, avec son

insistance sur les lois, a maintenant été largement abandonné. Comme beaucoup d’auteurs

l’ont souligné depuis longtemps, il n’y a en biologie pas de lois au sens de la physique (à

l’exception possible du principe de sélection naturelle) et les biologistes semblent plus

intéressés à étudier des phénomènes et des mécanismes particuliers qu’à mettre au jour des

principes universels.149 Après tout, il est raisonnable de conclure que s’il n’y a pas de loi, ni de

théories générales en biologie, la question du réductionnisme doit être posée autrement que

dans les termes de relations entre théories. Du moment que l’on se préoccupe de cas

particuliers et plus de généralisations universelles, même le problème de la multi-réalisabilité

cesse d’être gênant. En effet, il ne s’agit plus d’une réduction de type à type (type-type), qui

correspond à la réduction d’un terme théorique à un autre, mais d’une réduction entre

occurrences (token-token), c’est-à-dire d’un cas particulier à un autre.150

146 En fait, il ne s’agit pas d’une relation one-to-many mais many-to-many, car un mécanisme moléculaire peut produire différents phénomènes fonctionnels. 147 K. Waters, « Why the antireductionist consensus won’t survive the case of classical genetics », in PSA 1990, 1 : 125-39. 148 P. Kitcher, “1953 and All That: A Tale of Two Sciences”, Philosophical Review, 43 (1984) : 335–71. 149 Un des premiers à avoir défendu cette idée est Wimsatt : W. Wimsatt, “Reductive Explanation: A Functional Account” In R. S. Cohen et al. (ed.), PSA 1976, vol. 2, 671–710, Dordrecht-Holland, Reidel. 150 La question de l’existence de lois ou de principes généraux en biologie sera discutée aux chapitres 4 et 6.

Page 75: Thèse version3.R

75

2.2. Le problème sous sa forme actuelle : réductionnisme explicatif et cadre

mécaniste Depuis quelques années, le problème ne se pose plus dans les termes du

réductionnisme théorique mais dans ceux du réductionnisme explicatif. On peut le qualifier de

réductionnisme explicatif dans la mesure où ce ne sont plus des théories qui doivent être

réduites, mais des explications. Ces explications ne mettent plus en jeu des lois, mais plutôt de

modèles mécanistes. Il est clair que, d’une certaine manière, ce type de réduction est

beaucoup plus faible que celui envisagé par les empiristes logiques. Mais cet affaiblissement

semble plus que compensé par une meilleure adéquation à la réalité des sciences biologiques.

En effet, pour comprendre comment les progrès accomplis en biologie moléculaire peuvent

être interprétés dans le sens d’une réduction, il faut considérer qu’une explication réductive

est une explication d’un tout en termes de ses parties.

William Wimsatt a proposé une définition très claire du réductionnisme explicatif :

« Une explication réductive d’un comportement ou d’une propriété d’un système est une

explication qui montre qu’ils sont explicables mécaniquement en termes de propriétés des

parties du système et de leurs interactions. »151 Cette définition montre bien que le

réductionnisme explicatif est fondamentalement lié au mécanisme.

L’attention que les philosophes ont commencé à accorder aux modèles explicatifs

particuliers, par opposition aux lois et aux théories générales, s’est également manifesté dans

le développement depuis une dizaine d’année d’un cadre d’analyse mécaniste en philosophie

de la biologie. Les discussions sur le mécanisme en biologie sont évidemment beaucoup plus

anciennes, puisqu’on peut les faire remonter à Descartes et à la philosophie mécaniste du

XVIIe siècle152, mais ce n’est que récemment que les philosophes des sciences ont

sérieusement abandonné le cadre de l’empirisme logique au profit du mécanisme. C’est

essentiellement une série d’article datant de la fin des années 90 et du début des années 2000

qui a relancé ces discussions.153

151 W. Wimsatt, « Emergence as Non-Aggregativity and the Biases of Reductionisms », Foundations of Science, 5 (2000) : 293 ; voir aussi S. A. Kauffman, « Articulation of parts explanation in biology and the rational search for them » In R.C.Buck, & R.S.Cohen (Ed.), PSA 1970, pp. 257–272, Dordrecht, Reidel. 152 On trouvera plusieurs références à l’aspect historique du mécanisme dans l’introduction au numéro spécial de Studies in History and Philosophy of Biological and Biomedical Sciences, Special Issue: Mechanisms in Biology, Volume 31, No. 2 (2005). 153 Voici quelques références importantes : S. Glennan, "Mechanisms and The Nature of Causation," Erkenntnis, 44 (1996): 49-71 ; S. Glennan, "Rethinking Mechanistic Explanation", Philosophy of Science (Supplement) 69 (2002): S342-S353 ; S. Glennan, “Modeling Mechanisms”, in C. F. Craver and L.Darden (ed.), Special Issue: “Mechanisms in Biology,” Studies in History and Philosophy of Biological and Biomedical Sciences, 36 (2005):

Page 76: Thèse version3.R

76

Définir ce que sont exactement un mécanisme et une explication mécaniste en

biologie a donné lieu à diverses discussions. Il existe différentes conceptions, mais, au-delà

des divergences, on voit néanmoins apparaître un consensus sur ce qu’est un mécanisme. Un

mécanisme est composé de parties qui interagissent causalement entre elles de manière à

produire un certain phénomène. Une explication mécaniste d’un phénomène consiste donc à

donner la description du mécanisme responsable de la production de ce phénomène.

Chez Stuart Glennan, un mécanisme est défini comme des interactions entre parties,

ces interactions permettant à un changement de propriété dans une partie d’induire un

changement de propriété dans une autre partie. Ces relations entre parties ont d’abord été

définies en termes de lois, puis de relations invariantes. Dans un article qui a marqué ce

débat154, Machamer, Darden et Craver, affirment qu’une conception uniquement en termes de

propriétés des parties et de leurs changements est insuffisante. C’est pour cette raison qu’ils

introduisent le concept d’activité. Un de leurs buts est d’éviter de recourir au concept de loi,

car on ne trouverait rien de tel dans les explications mécanistes. Selon leur définition, un

mécanisme est constitué d’entités et d’activités produisant des changements réguliers. Les

entités et leurs activités doivent permettre d’expliquer comment on passe d’un état initial à un

état final, au travers d’une succession d’étapes, sans rupture de continuité. Le but est

d’expliquer comment les changements sont produits. La notion d’activité est censée mieux

rendre compte de cette capacité à produire des changements que celle d’interactions. (Nous

aurons l’occasion de revenir sur leur définition et ses limites).

Nous n’entrerons pas dans une comparaison fine de ces deux conceptions, mais il

faut noter que, comme l’a montré James Tabery,155 elles sont non seulement compatibles,

mais en outre complémentaires. D’une part, la notion d’activité permet de mieux rendre

compte de la manière dont les interactions produisent des changements de propriétés. D’autre

part, l’idée de productivité devient moins abstraite lorsqu’on l’analyse en termes de

changement de propriétés.

443-464 ; W. Bechtel and R. C. Richardson, Discovering Complexity: Decomposition and Localization as Strategies in Scientific Research, Princeton, Princeton University Press, 1993 ; C. Craver, "Role Functions, Mechanisms, and Hierarchy", Philosophy of Science, 68 (2001): 53-74 ; C. Craver, “Beyond Reduction: Mechanisms, Multifield Integration, and the Unity of Neuroscience”, in C. F. Craver and L. Darden (ed.), Special Issue: “Mechanisms in Biology” Studies in History and Philosophy of Biological and Biomedical Sciences, 36 (2005): 373-397 ; C. Craver, "When Mechanistic Models Explain", Synthese, 153 (2006): 355-376 ; L. Darden, "Strategies for Discovering Mechanisms: Schema Instantiation, Modular Subassembly, Forward/Backward Chaining", Philosophy of Science (Supplement ) 69 (2002): S354-S365 ; et surtout P. Machamer, L. Darden and C. Carver, "Thinking About Mechanisms", Philosophy of Science, 67 (2000): 1-25. 154 P. Machamer, L. Darden,et C. Craver (2000), op. cit. 155 J. G. Tabery, « Synthesizing Activities and Interactions in the Concept of a Mechanism », Philosophy of Science, 71 (2004) : 1-15.

Page 77: Thèse version3.R

77

Il faut remarquer que, dans le cadre mécaniste, les relations entre niveaux ne sont

pas conçues de manière strictement réductive, dans le sens où il s’agit de relations complexes

qui doivent être pensées dans les deux sens. Comme Carl Craver l’a bien montré, dans une

explication mécaniste, il y a une double contrainte : d’une part, les entités de niveau inférieur

déterminent le phénomène considéré, mais, d’autre part, le système dans lequel le mécanisme

est intégré doit être pleinement pris en compte. L’explication ne se réduit donc pas à un seul

niveau. C’est dans ce sens qu’on parle souvent de modèle inter-niveau (interlevel) et

d’intégration entre domaines (interfield integration).156 On peut néanmoins considérer qu’on

suit une direction réductive, dans la mesure où l’on explique comment un certain phénomène

est produit par des interactions entre des entités de niveaux inférieurs.

Certains philosophes ont défendu une version différente du réductionnisme

explicatif, qui est plus restrictive et plus radicale que le cadre mécaniste (mais elle ne poursuit

pas les mêmes buts). La thèse que défendent ces réductionnistes est la suivante: il est possible

de formuler une explication complète des phénomènes biologiques au niveau moléculaire.

Elle s’oppose donc à des thèses antiréductionnistes selon lesquelles tout ne pourrait être

expliqué en restant au seul niveau des molécules. La thèse du réductionnisme explicatif va au-

delà du cadre mécaniste en ce qu’elle défend l’idée d’une explication complète au niveau

moléculaire, alors que le mécanisme se limite à analyser comment s’articulent les différents

niveaux dans une explication et reconnaît plutôt l’importance d’une hiérarchie de

mécanismes.

Le meilleur moyen de voir plus précisément en quoi consiste cette thèse est

certainement de se pencher sur les travaux d’Alex Rosenberg, qui peut être considéré comme

le philosophe qui a le mieux articulé une défense de cette nouvelle forme de réductionnisme.

Il est également à l’origine d’une des formes qu’a pris ce débat récemment. C’est donc

principalement sa position réductionniste qui retiendra notre attention. Dans un article publié

en 1997157, il a jeté les bases d’une position très réductionniste, qu’il a ensuite développée

dans d’autres articles et qui a trouvé une forme aboutie dans un livre publié en 2006158. Dans

cet ouvrage, sa thèse principale est définie de la manière suivante : « Ce type de

réductionnisme soutient qu’il existe une explication complète de tout fait, état, événement,

156 L. Darden, and N. Maull,"Interfield Theories", Philosophy of Science, 44 (1977) : 43-64 ou L. Darden, "Relations Among Fields: Mendelian, Cytological and Molecular Mechanisms," Studies in History and Philosophy of Biological and Biomedical Sciences, 36 (2005) : 357-371. 157 A. Rosenberg, « Reductionism redux : computing the embryo », Biology and Philosophy, 12 (1997) : 445-470. 158 A. Rosenberg, Darwinian Reductionism, op. cit.

Page 78: Thèse version3.R

78

processus, tendance, ou généralisation biologiques, et que cette explication ne citera que les

interactions des macromolécules pour fournir cette explication. »159 L’expression importante

est ici « explication complète ». Nous verrons en effet que cette idée soulève plusieurs

problèmes. Mais auparavant, précisons un peu la position de Rosenberg. Il accepte les

arguments épistémiques contre le réductionnisme, c’est-à-dire ce qui relève des limites de nos

moyens de connaissance. En effet, à ses yeux l’enjeu du débat constitue quelque chose de plus

profond que cela: « Même s’il existe des limites à nos capacités cognitives et

computationnelles, qui rendent les explications réductives de certains processus biologiques

inaccessibles pour nous, la conclusion de l’argument épistémique n’est pas un fondement

suffisamment fort pour soutenir l’antiréductionnisme, ou du moins un antiréductionnisme

dont l’antiréductionniste « philosophique » a besoin. »160 Il est évident que le sens de cette

définition dépend de la conception de l’explication que l’on défend et il est bien connu que

différentes conceptions s’affrontent en philosophie des sciences. Ce problème sera au cœur du

chapitre suivant, mais on peut d’ores et déjà noter qu’il s’agit d’une conception objective de

l’explication. Rosenberg parle donc d’explications possibles en principe, sans s’intéresser à ce

que la science peut réellement atteindre.

Bien qu’elles ne soient pas déterminantes pour sa position, Rosenberg admet que la

science connaît certaines limites. Il semble malgré tout être assez optimiste: « Pour autant que

l’on sache, il y a des limites à la complexité et à la diversité du monde naturel, et ce qui est

plus important, des progrès technologiques dans le stockage et le traitement des données

pourraient considérablement améliorer notre capacité à comprendre les processus

macromoléculaires et leurs combinaisons. Considérons quels progrès a fait la bioinformatique

depuis le début des années 80, lorsque le séquençage de dix paires de bases était une réussite.

Au début du XXIe siècle, la biologie computationnelle était capable d’identifier par des

algorithmes computationnels tous les gènes sur un chromosome à partir des données brutes de

la séquence de nucléotides. Ce serait une erreur de sous-estimer la puissance de l’esprit

humain et de ses prothèses. »161

Ce passage nous révèle un élément essentiel de la thèse de Rosenberg et qui justifie

que nous discutions autant sa position dans notre réflexion sur la biologie des systèmes.

Rosenberg fait reposer sa confiance dans la possibilité de construire de bonnes explications

réductives sur les progrès technologiques, particulièrement en informatique ; ce qu’il nomme

159 Ibid., p. 12. 160 Ibid., p. 14. 161 Ibid.

Page 79: Thèse version3.R

79

les prothèses de l’esprit humain. Or, par ses modèles complexes, la biologie des systèmes

semble actuellement offrir les meilleurs espoirs de progresser vers ce type d’explication

réductive. La thèse de Rosenberg soulève donc la question suivante : la biologie des systèmes

va-t-elle donner un second souffle à l’entreprise réductionniste de la biologie moléculaire et

lui permettre d’atteindre ces explications complètes au niveau moléculaire, qui selon le

réductionnisme représentent l’idéal à poursuivre ?

Mais revenons au réductionnisme de Rosenberg. Pour bien comprendre sa thèse, il

faut voir qu’elle est avant tout un moyen d’éviter les contradictions du physicalisme

antiréductionniste. Rappelons que le physicalisme est la thèse selon laquelle toutes les entités

du monde sont de nature physique. Rosenberg pense qu’un physicaliste conséquent ne peut

accepter que le niveau moléculaire (c’est-à-dire physique) ne puisse nous fournir une

explication complète des phénomènes biologiques. Mais aussitôt, il dérive de cette thèse des

conséquences méthodologiques : « Le réductionnisme introduit ici, [...] est une affirmation sur

le rôle de toute la biologie moléculaire dans l’approfondissement, l’amélioration, la

complétion, et la correction du reste de la biologie. »162

Ce versant méthodologique de la position de Rosenberg est directement lié à son

optimisme que nous venons de voir dans la citation précédente. Le passage d’une thèse

ontologique à une thèse épistémologique et méthodologique est délicat et nous verrons qu’il

soulève de nombreuses difficultés.

Nous essaierons de déterminer dans ce chapitre ainsi que dans le suivant, dans

quelle mesure les progrès introduits par la biologie des systèmes permettent de soutenir

l’optimisme de Rosenberg concernant la possibilité de réellement parvenir à des explications

réductives. Mais auparavant, la question de cette possibilité doit être discutée au niveau des

principes (c’est-à-dire en ne tenant aucunement compte des limites pratiques et des intérêts

des chercheurs). Cette question est donc la suivante : peut-on, en principe, expliquer tous les

phénomènes biologiques en termes moléculaires ? Nous allons voir que plusieurs auteurs ont

répondu de manière négative à cette question, en avançant des raisons qui excluent en

principe cette possibilité.

Nous allons analyser deux objections qui sont en fait des réponses à l’article de

Rosenberg de 1997. On peut considérer que le cœur de ces objections est formé par le

problème de l’émergence et de l’irréductibilité du contexte (ces deux problèmes sont en fait

liés). Les arguments anti-réductionnistes visent à montrer que le rôle joué par le contexte dans

162 Ibid., p. 24

Page 80: Thèse version3.R

80

les explications en biologie empêche la réduction des entités fonctionnelles à des termes

moléculaires.

Dans le premier article que nous allons considérer, Laubichler et Wagner ont voulu

répondre au défi lancé par Rosenberg aux antiréductionnistes. Leur interprétation des progrès

en biologie est à l’opposé de celle de Rosenberg : « Nous soutiendrons que plutôt qu’éliminer

le rôle de classes fonctionnelles dans les explications en biologie du développement, ces

résultats soulignent en réalité leur importance. Un de nos arguments centraux sera que le

contexte ou le système de référence pertinent pour toutes les explications en biologie du

développement est, soit la cellule, soit les propriétés spatiales, régulatrices et dynamiques des

systèmes en développement, plutôt que les propriétés physico-chimiques des molécules

impliquées. »163

Leur argument est qu’une entité moléculaire, un gène ou une protéine, peut jouer

différents rôles suivant le contexte global et que, par conséquent, il est impossible de ramener

un phénomène biologique à l’action de quelques molécules. « Toute généralisation capable

d’expliquer pourquoi des modules et des voies de régulation particuliers sont utilisés dans le

développement de certains types de patterns phénotypiques, devra inclure les propriétés

systémiques (spatiales, régulatrices, dynamiques) d’entités biologiques de niveaux supérieurs

(cellulaire, organismique) ainsi que leur histoire évolutive. »164 Ils citent l’exemple suivant : la

voie de signalisation engrailed est impliquée dans l’établissement de la limite

antéropostérieure des compartiments chez la drosophile, mais aussi dans l’établissement de

l’organisateur de l’œil des ailes de papillons. Comment expliquer des effets aussi différents à

partir des propriétés de ce mécanisme ?

La conception qui sous-tend toute leur critique est la suivante : « les explications

moléculaires ou génétiques d’un phénomène développemental, mettons le développement

d’un membre, n’a de sens que s’il existe une relation causale forte entre des événements

moléculaires particuliers et le phénomène à expliquer. Une relation aussi forte est nécessaire

pour pouvoir attribuer un rôle causal spécifique à un gène ou à une molécule. »165 Ils

reconnaissent que de telles relations existent dans certains cas, mais notent un certain nombre

d’exceptions. Un de leurs exemples est l’absence d’effets phénotypiques lors de la perte de

fonction d’un gène qui est visiblement impliqué dans un processus développemental. Par

163 M. D. Laubichler and G. P. Wagner, "How Molecular is Molecular Developmental Biology? A Reply to Alex Rosenberg's Reductionism Redux: Computing the Embryo.", Biology and Philosophy, 16 (2001): 55. 164 Ibid. 165 Ibid., p. 59.

Page 81: Thèse version3.R

81

exemple la délétion du gène hoxa-11, qui joue un rôle dans le développement des membres

chez les tétrapodes, ne perturbe quasiment pas la formation des membres. Les auteurs

concluent qu’on ne peut donc pas attribuer de fonction particulière à ce gène, sans tenir

compte du contexte dans lequel il opère. Dans ce cas, il faut notamment prendre en compte la

tendance des cellules mésenchymateuses à s’agréger lors de la squelettogenèse. Si Hoxa-11

joue un rôle dans ces processus au niveau tissulaire, il faut intégrer une définition de ce

contexte pour parvenir à une explication du phénomène. « Ignorer l’importance du contexte

organisationnel de l’action génique, lorsque l’on définit le rôle causal de n’importe quelle

molécule, ne mènera à aucune compréhension du phénomène que l’on cherche à

comprendre. »166

Il y a plusieurs réponses possibles à ces critiques. Nous examinerons plus tard

l’idée que le contexte peut lui-même être décrit au niveau moléculaire. Mais on peut

également faire la remarque suivante. L’objection de Laubichler et Wagner ne vaut que contre

des explications moléculaires simplistes, qui cherchent à attribuer un rôle unique et bien

défini à un gène ou une protéine. Si l’histoire de la biologie moléculaire offre certainement de

tels exemples de simplification, il ne faudrait pas considérer que les explications moléculaires

doivent nécessairement prendre cette forme. Lorsqu’ils écrivent qu’une explication

moléculaire d’un phénomène développemental n’a de sens que lorsqu’on peut établir une

relation causale forte entre un événement moléculaire et le phénomène en question, ils

semblent penser à une relation directe et simple. Il est vrai que les exemples que choisit

Rosenberg et l’interprétation qu’il en donne laissent parfois penser qu’il espère trouver des

relations causales simples. C’est certainement une des faiblesses de son argumentation (nous

y reviendrons plus tard), mais si l’on considère sa thèse dans sa généralité, il n’est absolument

pas nécessaire de trouver des relations causales simples et directes entre un gène et un

phénomène de niveau supérieur. Rosenberg écrit : « toutes les propriétés biologiques sont

réalisées par des combinaisons – parfois des combinaisons très complexes – de propriétés

moléculaires. »167 Si l’on admet que les explications réductives doivent être fondées sur des

molécules et leurs interactions, sans préjuger de la forme exacte de ces explications et surtout

de leur degré de complexité, un exemple montrant qu’il n’y a pas de lien simple et direct entre

un gène et un phénomène au niveau cellulaire ou tissulaire est complètement inopérant. Nous

verrons que c’est précisément parce qu’ils permettent une meilleure représentation des

166 Ibid., p. 60. 167 A. Rosenberg, op. cit., p. 464, nous soulignons.

Page 82: Thèse version3.R

82

mécanismes complexes, que les modèles formels pourraient profondément modifier la

conception que l’on a généralement de ce qu’est une explication réductive.

En résumé, on peut dire que les attaques de Laubichler et Wagner ne portent leur

coup que contre les interprétations les plus simplistes de la thèse de Rosenberg. Elles ignorent

la question qui nous préoccupe, à savoir la possibilité d’expliquer des relations causales

complexes à l’aide de modèles complexes. On voit donc que la question essentielle demeure :

le contexte, qui est de toute évidence fondamental, peut-il être réduit au niveau moléculaire ?

Peut-on trouver des raisons qui laisseraient penser que, par principe, cette réduction serait

impossible ?

Cet article a suscité à son tour une réponse sur le problème du contexte. Dans un

article de 2004, Frost-Arnold rejette les arguments de Laubichler et Wagner, en estimant

qu’ils ne permettent pas de réfuter la thèse de Rosenberg. Il propose à son tour un exemple

qui se veut concluant.

Commençons par rappeler le problème qui est en jeu et qu’il cherche à résoudre :

« Le développement de propriétés morphologiques peut-il être prédit ou expliqué par le seul

recours à des termes moléculaires et aux règles qui gouvernent les interactions moléculaires ?

Selon les termes employés dans le débat entre d’une part Rosenberg et d’autre part Laubichler

et Wagner, cette question est : la « syntaxe moléculaire » suffit-elle à prédire ou expliquer la

morphologie du développement ? »168 Les antiréductionnistes doivent donc montrer que

certains phénomènes biologiques ne peuvent en principe pas être expliqués que par des

molécules et leurs interactions. C’est une forme du problème du contexte, dans la mesure où

montrer que les seules interactions entre molécules ne peuvent suffire à expliquer le

développement revient à affirmer qu’une partie du contexte ne peut être décrite en ces termes.

Frost-Arnold cherche un cas dans lequel une partie essentielle du contexte ne

pourrait être décrite en termes purement moléculaires : « Il nous faut un cas dans lequel le

même ensemble de molécules se comporte différemment dans deux contextes distincts, et

dans lequel la différence entre les contextes ne peut être explicitée au niveau moléculaire [...]

Cela constituerait un cas dans lequel on aurait à présupposer soit des prédicats, soit des règles

d’inférence, formulées dans un langage non moléculaire, pour rendre compte de la régularité

de haut niveau. »169

168 G. Frost-Arnold, "How to be an Anti-reductionist about Developmental Biology", Biology and Philosophy 19 (2004) : 76. 169 Ibid., p. 84.

Page 83: Thèse version3.R

83

Il imagine un œuf homogène au niveau moléculaire, mais qui se différencierait

selon un axe vertical à cause de la gravité. « Nous aurions alors, ex hypothesi, deux situations

qui seraient identiques au niveau moléculaire (les deux côtés de l’embryon), mais différentes

au niveau développemental. Nous ne pourrions pas « calculer – c’est-à-dire prédire – le

développement de l’embryon » sur une base purement moléculaire, s’il était nécessaire de se

référer à des attributs se situant au niveau de l’organisme – « le haut » et « le bas » – pour

prédire le cours du développement. »170

Il montre ensuite qu’un cas correspondant à cette situation existe bel et bien: il

s’agit de l’établissement de l’axe antéropostérieur du poulet, qui dépend de l’orientation du

blastodisque, qui elle-même dépend de la gravité.

Il faut remarquer qu’il n’agit pas ici de montrer qu’on ne peut pas attribuer de rôles

déterminés à des molécules, mais de montrer qu’on ne peut pas tout expliquer en se limitant

au niveau moléculaire. Bien entendu, la question qui se pose d’emblée est : que peut-on

inclure dans ce vocabulaire moléculaire ? Frost-Arnold reconnaît que, si l’on exclut les

relations entre molécules, l’antiréductionnisme a une victoire facile, mais inintéressante. Mais

si certaines relations spatiales doivent être admises, on peut définir une limite : « certaines

propositions portant sur des configurations spatiales ne devraient peut-être pas être acceptées

dans le vocabulaire réducteur. Par exemple, « le côté gauche de l’organisme » fait référence à

une échelle spatiale ou un niveau d’agrégation (à savoir celui de l’organisme) bien plus élevé

que celui des molécules, et ne devrait donc probablement pas être considéré comme

appartenant au [vocabulaire moléculaire]. »171 Il avance deux raisons pour justifier cette

limite. D’une part, les entités et processus étudiés par la biologie moléculaire ne sont pas à

l’échelle de l’organisme et, d’autre part, l’importance de l’organisation est un argument

central de l’antiréductionnisme, donc si on l’accepte, il n’y a plus de différence entre les deux

positions. Si l’on accepte cette limite, son exemple semble régler la question : « Nous

pouvons demander : qu’est-ce qui est responsable de l’arrangement différentiel des molécules

du vitellus et qu’est-ce qui est responsable de la position du blastodisque ? Et ces réponses ne

seront pas formulées en termes d’interactions moléculaires. Nous devons plutôt étendre notre

cadre à l’échelle de l’organisme entier : les molécules plus légères vont s’élever jusqu’au

sommet de l’oeuf et les plus lourdes vont sombrer au fond, à cause de la pesanteur [...] Nous

voyons que c’est la pesanteur, en déterminant « le haut » et « le bas », qui rend compte de la

170 Ibid., p. 85. 171 Ibid., p. 86.

Page 84: Thèse version3.R

84

position du blastodisque et des divers types de vitellus et par conséquent (au travers de

différentes réactions au sommet et en bas) de la détermination de l’axe antéro-postérieur. [...]

Cela pourrait néanmoins être considéré comme une régularité de haut niveau qui ne pourrait

être entièrement expliquée par des mécanismes de bas niveau. Si l’on ne peut utiliser les

termes « haut et bas du disque », on ne peut expliquer pourquoi les molécules du vitellus sont

différentes dans une région du blastodisque par rapport à l’autre. »172 Si l’on doit

nécessairement recourir aux termes « haut » et « bas », cela signifie que le contexte ne peut

pas toujours être décrit en termes de molécules et de leurs interactions.

Cet exemple réfute-t-il vraiment une thèse réductionniste comme celle de

Rosenberg ?

Le problème est donc de savoir si le contexte ou certaines entités non-moléculaires

ne pourraient pas être redécrites en termes moléculaires. En effet, rappelons que l’objectif

principal de Rosenberg était de montrer qu’en principe le pouvoir causal des entités

fonctionnelles pouvait toujours être décomposé en termes moléculaires. Il nous semble

pourtant que l’argument de Frost-Arnold n’est pas suffisant pour invalider cette thèse. La

réponse à cette objection (et à toutes celles de ce type) vient de la possibilité de décomposer

ou d’analyser le contexte et ces entités au niveau moléculaire à l’aide de la modélisation.

En effet, on peut très bien imaginer construire un modèle de l’embryon au niveau

moléculaire avec un référentiel spatial et un champ gravitationnel. Selon leur densité, les

différentes molécules se répartiraient dans l’œuf et cette asymétrie engendrerait ensuite un

développement différentiel de l’embryon selon des mécanismes classiques. Dans ce cas, les

termes « haut » ou « bas » ne seraient pas indispensables dans l’explication. Proposer cela

nous ramène, bien entendu, à la possibilité d’étendre l’analyse d’un système grâce à des

modèles complexes. Le fait que ces derniers modifient la nature des explications est ici

déterminant. En effet, il est clair que beaucoup de cas qui semblent non décomposables en

termes moléculaires, peuvent l’être grâce aux modèles informatiques. Si Frost-Arnold pense

que les termes haut et bas sont indispensables, c’est qu’il raisonne dans le cadre de schémas

mécanistes classiques, c’est-à-dire simples et compréhensibles par les biologistes. En bref,

nous ne pensons pas que Frost-Arnold ait réussi à prouver que l’espace soit en principe

impossible à intégrer dans un modèle réductif.

Avant de voir de quelles manières les modèles complexes pourraient permettre de

réduire le contexte au niveau moléculaire, il vaut la peine de considérer un argument général,

172 Ibid., pp. 88-89.

Page 85: Thèse version3.R

85

visant à prouver que ce type de réduction est possible en principe. Cet argument a été proposé

par Megan Delehanty dans un article de 2005 et fait suite aux discussions suscitées par

l’article de Rosenberg.

L’objection que peuvent faire les antiréductionnistes au principe de la réduction du

contexte, et à laquelle Delehanty veut répondre, est fondée sur l’idée que ce contexte implique

des propriétés émergentes qui ne pourraient être réduites. Notons que l’objection selon

laquelle le contexte est irréductible parce qu’il serait multiréalisable n’est pas envisagé par

Delehanty dans la mesure où ce débat ne se situe plus dans le cadre du réductionnisme

théorique. Tout ce qui est exigé est de pouvoir réduire un cas particulier. « En se fondant sur

la notion de mécanisme qui sera discutée plus tard, la réduction token-token exige l’existence

d’un mécanisme composé d’entités et d’activité de plus bas niveau qui expliquent le

phénomène de haut niveau. [...] Si, en revanche, certaines propriétés du contexte sont

émergentes et ne peuvent être expliquées en termes des parties et de leurs propriétés, alors la

réduction token-token échouera. »173

Le problème qui pourrait faire obstacle à la réduction est donc la présence de

phénomènes émergents, qui empêcherait l’explication en termes de bas niveau. « L’argument

est que l’explication de haut niveau contient des informations causales qui ne peuvent être

contenues dans l’explication de plus bas niveau et elle est donc plus complète. Cela doit être

distingué de l’argument selon lequel les explications en termes de haut niveau sont souvent

supérieures en termes de maniabilité cognitive. »174 (Delehanty rejoint ainsi Rosenberg pour

dire que les arguments épistémiques n’entrent pas en ligne de compte).

Delehanty rappelle que selon Laubichler et Wagner les entités de haut niveau

possèdent des pouvoirs causaux qui ne sont pas présents dans les entités de bas niveau. Cela

serait dû au fait que les entités de haut niveau sont organisées dans l’espace et le temps, et que

cette organisation ne peut être décrite en termes de bas niveau. C’est dans la mesure où les

propriétés de haut niveau dépendent de cette organisation qu’elles seraient émergentes.

« Il a été affirmé que la dépendance au contexte de certains processus biologiques

exigeait que certaines entités de haut niveau (comprenant des parties du contexte nécessaire

pour expliquer un phénomène) causent des effets à des niveau inférieurs, rendant la réduction

impossible en principe. L’argument est que la réduction exige des liens entre niveaux, mais

que, si ces liens dépendent du contexte et que la description du contexte nécessite des

173 M. Delehanty, « Emergent properties and the context objection to reduction », Biology and Philosophy, 20 (2005) : 718. 174 Ibid., p. 719.

Page 86: Thèse version3.R

86

références à des entités de plus haut niveau, nous ne serons jamais capable d’établir une

description simple. »175

Delehanty propose comme solution au problème du contexte l’idée d’extension de

mécanismes. Un mécanisme est caractérisé par des limites spatiales et temporelles qui

délimitent ce qui fait partie du mécanisme de ce qui constitue le contexte. L’extension

correspond à une redéfinition des limites, de sorte qu’une partie de ce qui était considéré

comme le contexte est maintenant intégré dans le mécanisme. Cette extension doit permettre à

la direction de l’explication de toujours aller du bas vers le haut (ce qui est, et il faut insister

sur ce point, une des exigences premières des réductionnistes).

La question qui se pose est de savoir s’il existe des cas d’émergence qui poseraient

un vrai problème à la stratégie d’extension. Elle distingue deux versions de l’émergence.

Selon la version forte, les propriétés émergentes sont irréductibles à celles des composants.

Selon la faible, il s’agit seulement de dire que les systèmes complexes possèdent des

propriétés que les composants ne possèdent pas. Cette deuxième version ne s’oppose pas à la

réduction.

L’idée qu’il y a derrière l’émergence forte est que certaines propriétés d’un système

dépendent des propriétés relationnelles des parties et que celles-ci ne peuvent se réduire à

leurs propriétés non-relationnelles. Mais le réductionniste doit pouvoir inclure les propriétés

relationnelles, sinon le débat est clos et ne présente aucun intérêt (on a vu que Frost-Arnold

fait la même remarque). Une manière raisonnable de formuler la thèse réductionniste serait

donc: « que les propriétés des molécules et des lois physiques qui s’y appliquent peuvent

expliquer, au cas par cas, des propriétés et des événements biologiques de haut niveau. »176

Delehanty discute le contre-exemple de Frost-Arnold. Pour elle, tout peut

s’expliquer au niveau moléculaire, en termes de densités, gradients et gravité. Bien sûr, il faut

tenir compte des membranes et organelles, mais on peut se référer uniquement à leur position

et leurs propriétés physico-chimiques. Ce n’est donc pas un cas d’émergence forte.

Nous n’examinerons pas les exemples qu’elle analyse (il s’agit du phénomène

d’agrégation de Dictyostelum, qui est souvent considéré comme un bon exemple de

phénomène émergent), mais retenons simplement qu’elle ne voit rien dans ces cas qui serait

inexplicable en termes moléculaires. On ne sait pas tout de ces phénomènes, mais rien ne

laisse penser qu’on ne pourra pas inclure les nouvelles propriétés dans des chaînes de

mécanismes. 175 Ibid., p. 721. 176 Ibid., p. 727.

Page 87: Thèse version3.R

87

Cette idée d’extension de mécanisme est tout à fait intéressante pour nous,

puisqu’elle semble offrir une solution au problème du contexte et qu’elle correspond bien à la

tendance amorcée par la biologie des systèmes de construire des modèles mécanistes toujours

plus étendus et complets. Comme nous l’avons dit, les modèles récents comportent parfois

des centaines, voire des milliers de composants et d’interactions.

Le problème général qui menacerait les explications réductives et que l’on trouve

dans l’objection du contexte est donc celui de l’émergence. Delehanty affirme que

l’émergence ne saurait être un problème pour sa stratégie d’extension de mécanisme et pour le

réductionnisme en général. Elle ne traite cependant cette question que de manière rapide dans

cet article. Il est donc nécessaire de voir d’un peu plus près à quoi se réfèrent scientifiques et

biologistes lorsqu’ils parlent d’émergence. Il s’agit d’un vaste et difficile débat, mais qui

mérite un détour, dans la mesure où il pourra nous aider à comprendre les problèmes que

rencontrerait la biologie moléculaire dans son ambition d’expliquer le vivant au niveau

moléculaire et que la biologie des systèmes pourrait éventuellement réussir à surmonter.

2.3 . Phénomènes émergents en biologie Les discussions sur l’émergence représentent un terrain sur lequel il peut être risqué

de s’aventurer et facile de se perdre. Nous ne ferons que le survoler, car ces discussions ne

sont pour une bonne part pas directement pertinentes pour comprendre les défis auxquels est

confrontée la biologie moléculaire. Il est par exemple clair que l’émergence qui est en jeu

dans les phénomènes de la conscience est de toute évidence d’une autre nature que dans le cas

des propriétés fonctionnelles qu’étudient les biologistes moléculaires.

Commençons par donner une idée générale de la géographie de ce débat. L’article

de Achim Stephan, « Varieties of emergentism », donne un bon aperçu des différentes formes

d’émergence qui sont discutées depuis quelques décennies.177 Il distingue une forme faible

d’émergentisme, qui est compatible avec le réductionnisme. Cet émergentisme faible soutient

trois thèses : le monisme physique (qui correspond au physicalisme), les propriétés

systémiques (les propriétés émergentes sont des propriétés systémiques) et la détermination

synchronique (les propriétés d’un système dépendent nomologiquement de sa microstructure).

Les théories plus fortes de l’émergence soutiennent en outre les thèses de

l’irréductibilité (ou la non déductibilité) et de l’imprédictibilité. Si l’on reprend l’idée de C.D.

177 A. Stephan, « Varieties of emergentism », Evolution and Cognition, 5 (1999) : 49-59.

Page 88: Thèse version3.R

88

Broad, une propriété systémique est dite irréductible et donc émergente si, et seulement si,

elle ne peut être déduite de l’arrangement des parties du système et des propriétés qu’elles ont

isolément ou dans des systèmes plus simples. Stephan distingue ensuite deux types

d’irréductibilités aux conséquences différentes. La première est due à la non-analysabilité des

propriétés systémiques. Il prend l’exemple (tiré de Broad) de la couleur d’un objet qui ne

serait pas analysable en termes de comportement des parties. Pour Broad, le vivant ne

relèverait pas de ce type d’irréductibilité. Le deuxième type renvoie au cas où le

comportement des parties du système ne suit pas de leur comportement lorsqu’il sont isolés

ou dans des systèmes plus simples. Pour Stephan, ce deuxième type d’irréductibilité implique

une causalité descendante. Ce sens d’émergence peut également être exprimé de la manière

suivante: on ne peut pas expliquer les propriétés d’un composant ou d’un sous-système en

restant à ce niveau, car lorsqu’il est dans le contexte d’un système plus large, de nouvelles

propriétés apparaissent, qui ne pouvaient être prédites.

C’est cette dernière forme qui semble la plus pertinente lorsque l’on s’intéresse aux

phénomènes biologiques. Elle est notamment utilisée par les auteurs qui critiquent les excès

réductionnistes de la biologie moléculaire. Par exemple, pour Ernst Mayr: « Les systèmes ont

presque toujours pour particularité que les caractéristiques du tout ne peuvent pas (même en

théorie) être déduites de la connaissance la plus complète des composants pris séparément ou

dans d’autres combinaisons partielles. »178 Autre citation : « les unités à des niveaux

hiérarchiques plus élevés sont plus que la somme des leurs parties et donc, une dissection en

parties laisse un reste non résolu – en d’autres termes, la réduction explicative échoue. »179

Dans un article sur l’organicisme, Sahotra Sarkar et Scott Gilbert défendent une conception

similaire: « Un des principes de l’organicisme est que les propriétés à un niveau de

complexité (par exemple les tissus) ne peuvent pas être directement attribuées aux

composants, mais elle apparaissent uniquement à travers les interactions entre les parties. De

telles propriétés, qui ne sont celles d’aucune partie mais qui apparaissent à travers les

interactions entre parties sont appelées propriétés émergentes. » 180

Cette conception de l’émergence correspond donc à la formule qui est sans cesse

utilisée pour caractériser l’émergence : le tout est plus que la somme des parties. Elle est par

178 E. Mayr, The Growth of Biological Thought, The Belknap Press of Harvard University Press, 1982, p. 63 ; voir aussi E. Mayr, Toward A New Philosophy of Biology. Observations of an Evolutionist, Harvard University Press, 1988, p. 15. 179 E. Mayr, 1982, op.cit., p. 66. 180 S. F. Gilbert, S. Sarkar, « Embracing Complexity: Organicism for the 21st Century », Developmental dynamics, 219 (2000) : 2.

Page 89: Thèse version3.R

89

ailleurs étroitement liée au problème du contexte que nous discutons depuis un moment. En

effet, si le tout a des propriétés que l’on ne peut déduire des parties, c’est parce que les parties

se comportent différemment lorsqu’elles sont dans le contexte de ce tout.

Afin de mieux comprendre le problème que pourrait poser cette forme d’émergence

à la biologie, nous allons nous pencher sur un article récent181, écrit par des biologistes et

philosophes, qui présente et analyse en détail un exemple de phénomène émergent qui, selon

les auteurs, ne pourrait être expliqué de manière réductive.

Voyons le cœur de leur argument. Ils imaginent un système biochimique A,

composé de deux sous-systèmes, A1 et A2, qui interagissent de manière dynamique. Leur idée

est qu’il n’est pas toujours possible de prédire le comportement du système, à partir de l’étude

du comportement des deux sous-systèmes isolés.

« Le comportement de A1 pris isolément est parfois qualitativement différent du

comportement de A1 dans A, et par conséquent, comme le comportement de A est fonction de

A1 compris comme un composant, le comportement de A ne peut en général être dérivé de

l’étude de sous-systèmes plus simple de A. En général, le comportement (dynamique) de A

n’est pas simplement la superposition des comportements (dynamiques) de ses sous-systèmes

étudiés isolément. Les interactions dynamiques peuvent engendrer des comportements

qualitativement nouveaux dans des systèmes complexes. C’est précisément là que la

prédiction du comportement du système sur la base de sous-systèmes plus simples échoue.

Nous ne pouvons prédire le comportement des composants à l’intérieur du système entier et

ainsi nous ne pouvons prédire le comportement systémique. Ceci est de l’émergence, avec des

comportements du nouveau système, qui ne peuvent être prédits sur la base du comportement

de sous-systèmes plus simples. »182

Une manière de formuler ce problème est de dire que, lorsqu’on étudie (in vitro ou

par des simulations) les propriétés d’un sous-système, on doit fixer des conditions limites, or

celles-ci dépendent de l’état des autres sous-systèmes auxquels il est connecté, et donc de

l’état du système. Mais nous ne pouvons que reproduire ces conditions d’après ce que nous

observons dans le système en fonctionnement, et pas à partir des propriétés du sous-système

étudié.

Les auteurs insistent beaucoup sur le concept de components properties, qui

désigne les propriétés d’un composant en tant qu’il fait partie du système. Ces propriétés

181 F. Boogerd, F. Bruggeman, R. Richardson, A. Stephan, H. Westerhoff, « Emergence and Its Place in Nature: A Case Study of Biochemical Networks », Synthese, 145 (2005) : 131-164. 182 Ibid., p. 26.

Page 90: Thèse version3.R

90

dépendent, bien entendu, en partie du composant lui-même, mais ce qui est ici plus important

c’est qu’elles dépendent également du système dans lequel il est plongé et auquel il

appartient, ou en d’autres termes du contexte. Les auteurs soulignent que c’est la non-linéarité

qui est la base de l’émergence de nouveaux comportements imprévisibles. Dans des systèmes

au comportement non-linéaire, il n’y a pas de relation proportionnelle entre les causes et les

effets, c’est-à-dire que des petits changements dans une variable peuvent entraîner des

conséquences énormes au niveau du comportement global. C’est donc en ce sens précis que

l’expression « le tout est plus que la somme de ses parties » doit être comprise : la non-

linéarité explique que les propriétés des composants ne s’additionnent pas. Par exemple, deux

sous-systèmes qui, isolément, ont un comportement stable, peuvent une fois liés, présenter un

comportement chaotique.

On voit donc que, pour expliquer le comportement d’un sous-système, il faut

nécessairement tenir compte du contexte et pour cela nous n’avons d’autre choix que de partir

des observations faites sur le système entier. C’est-à-dire qu’il faut déjà connaître certaines

propriétés systémiques pour expliquer le comportement d’un sous-système.

Ce que nous voulons avant tout retenir de cet article, c’est que, pour les auteurs, ce

type d’émergence ne constitue un véritable problème pour les explications réductives, que si

celles-ci sont définies de manière très stricte, c’est-à-dire comme la capacité à prédire les

propriétés systémiques à partir des seules propriétés des composants pris isolément. Mais, si

l’on accepte une position un peu plus souple, l’émergence peut s’expliquer à partir des

propriétés des composants. « Il n’y a pas de phénomènes inexplicables dans les systèmes que

nous avons décrits : chaque phénomène systémique est complètement explicable en principe,

ou calculable, en termes de components properties des parties ; c’est-à-dire en termes de

comportement des parties insérées dans le contexte systémique. Ils sont mécaniquement

explicables. Néanmoins, nous affirmons qu’il y a émergence en biologie cellulaire, et que

celle-ci découle de la condition horizontale [il s’agit de l’imprédictibilité à partir des

propriétés des composants pris isolément]. Cette émergence n’est pas de l’émergence faible.

[...] D’un point de vue méthodologique, si nous attaquons un problème biologique

expérimentalement ou théoriquement, en commençant avec les constituants des cellules

traitées isolément, alors le manque de contexte systémique peut être un obstacle à la recherche

scientifique. Dans le cas de certains effets systémiques, la décomposition peut mener à des

explications mécanistes, mais cela dépend de manière décisive de la compréhension du

comportement des parties en tant que composants. Partir du comportement des parties dans

Page 91: Thèse version3.R

91

des contextes radicalement différents, ou dans des contextes beaucoup plus simples, échouera

parfois à révéler leur contribution au comportement du système. »183

Cet exemple montre donc que l’émergence peut représenter un problème non-trivial

pour la biologie, mais la reconnaissance de cette forme d’émergence est importante avant tout

d’un point de vue méthodologique, dans le sens où il ne faudrait pas se limiter à l’étude des

composants hors du système à expliquer. Parler de causalité descendante dans ce contexte

reviendrait à rappeler l’importance des effets systémiques (nous reviendrons sur cette idée

problématique dans le chapitre suivant). Nous reconnaissons que les biologistes ont trop

souvent ignoré ou minimisé cette forme d’émergence, mais cela ne prouve pas qu’il est

impossible d’analyser et d’expliquer de manière réductive comment le système influence les

composants.

L’important, c’est que les phénomènes émergents peuvent être analysés et dans un

sens expliqués en descendant au niveau des interactions entre composants. Mais, pour cela, il

est nécessaire d’étendre le sous-système étudié. Revenons sur leur exemple. Ils prennent le

cas de deux sous-systèmes qui, pris isolément, peuvent être stables, mais qui, une fois en

interaction, peuvent passer à un régime instable : « même avec des sous-systèmes stables, le

système peut être instable si les interactions entre les sous-systèmes sont plus importantes que

les interactions à l’intérieur de chacun. Ainsi, il est possible d’avoir un système instable même

en supposant que les sous-systèmes sont stables isolément. En d’autres termes, les paramètres

enzymatiques et les conditions limites peuvent être choisies de telle manière qu’une instabilité

systémique se produit. Ce phénomène particulier est appelé une bifurcation noeud-col

[saddle-node]. »184

Un cas de ce genre pourrait constituer un sérieux problème pour une approche

réductionniste, si cette dernière cherchait à partir des propriétés du sous-système pris

isolément pour expliquer certains aspects du fonctionnement du système entier. En effet, les

auteurs nous montrent que ce type d’inférence peut se révéler souvent fallacieux. Mais le

réductionniste, pourra faire valoir qu’il est possible d’expliquer le comportement systémique

(c’est-à-dire l’instabilité) une fois qu’on a modélisé le système dans son entier (ou du moins

en prenant en compte la partie du contexte qui crée l’instabilité). C’est-à-dire que, si notre

modèle ne représente qu’un sous-système, on ne pourra prédire et expliquer l’instabilité, mais

si notre modèle est étendu et couvre les sous-systèmes en interaction, l’instabilité pourra être

183 Ibid., p. 29. 184 Ibid., p. 28.

Page 92: Thèse version3.R

92

prédite et expliquée. Le fait qu’il faille partir de données portant sur tout le système n’est

vraiment pas un problème, car un réductionniste comme Rosenberg n’en demande pas tant.

Comme il le répète à plusieurs reprises, peu importent les méthodes utilisées, l’essentiel est

qu’en définitive les progrès viennent d’une plongée dans les détails moléculaires et qu’une

explication à ce niveau sera forcément meilleure qu’une explication fonctionnelle. Nous

verrons par ailleurs plus bas que la biologie n’a jamais cherché à expliquer les systèmes

vivants en partant exclusivement des propriétés des composants isolés. La question

déterminante est de savoir s’il est possible d’expliquer comment les propriétés d’un

composant ou d’un sous-système peuvent être modifiées par l’environnement systémique,

celui-ci étant décrit et analysé au niveau moléculaire. Cette question est difficile et nous ne

pouvons y répondre de manière générale, mais il faut reconnaître que, dans cet exemple, il

suffit de construire un modèle qui représente les deux sous-systèmes ainsi que leurs relations.

Si l’on réfléchit à cela du point de vue de la modélisation, cela revient à dire qu’on

aura expliqué un phénomène émergent lorsque l’on aura également observé cette émergence à

l’oeuvre dans le modèle. Cette idée appelle deux remarques. D’une part, cela suggère que

pour expliquer mécaniquement certains phénomènes émergents, il sera nécessaire de

construire un modèle du système entier au niveau moléculaire, dans la mesure où certaines

propriétés systémiques n’apparaissent que lorsque le système est entier. Cette nécessité

d’étendre sans cesse les modèles mécanistes afin de pouvoir rendre compte des phénomènes

émergents soulève un certain nombre de questions et fait bien sûr apparaître à l’horizon les

projets de cellule virtuelle, dont parlent de plus en plus de biologistes. Nous laissons pour le

chapitre prochain la question de savoir dans quelle mesure on pourrait progresser dans cette

voie. D’autre part, il est intéressant de remarquer que l’on rejoint certains arguments

réductionnistes affirmant que l’émergence n’est pas un problème, du moment qu’on réussit à

la reproduire par le calcul. Par exemple, Sydney Brenner affirme que, si l’on crée un

programme qui reproduit les phénomènes émergents à partir des propriétés des composants,

alors on aura résolu le problème de l’émergence. « Le problème des propriétés émergentes est

évité en montrant que les parties, lorsqu’elles sont placées dans le bon environnement global,

vont automatiquement produire (compute) le tout » 185 Nous verrons que c’est aussi selon le

même raisonnement que Rosenberg revient souvent à l’idée de calcul de phénomènes

complexes. Ce que nous voulons souligner, c’est que, d’une part, cette forme d’émergence est

pleinement reconnue par les réductionnistes et que, d’autre part, selon ces derniers, ce sont 185 S. Brenner, “Biological computation”, in The limits of reductionism in biology, Wiley, Chichester, Novartis Foundation Symposium 213, 1998, p. 111.

Page 93: Thèse version3.R

93

précisément des modèles complexes qui doivent permettre d’expliquer les phénomènes

émergents.

De manière assez ironique, en voulant montrer qu’il existe des phénomènes

émergents en biologie, l’article de Boogerd nous aide à comprendre comment les modèles

mécanistes et donc réductionnistes doivent et peuvent être étendus. En effet, leur exemple va

tout à fait dans le sens de l’argument de Delehanty, puisqu’ils nous montrent que, lorsqu’un

modèle de mécanisme (i.e. un sous-système) est intégré avec d’autres mécanismes, on peut

rendre compte de comportements qui n’étaient pas explicables auparavant (par exemple des

oscillations alors que le mécanisme isolé était stable). Nous verrons plus loin dans ce chapitre

des exemples de modèles qui expliquent des comportements complexes selon cette démarche.

Mais le défi réductionniste est réel : il faudrait pouvoir rendre compte dans nos

modèles explicatifs de la manière dont les composants moléculaires formant le contexte

déterminent les nouveaux comportements d’un composant ou d’un sous-système une fois

qu’il est dans le système global. La réponse apportée dans ce chapitre est que les modèles

complexes peuvent nous faire progresser dans cette voie et qu’il ne faudrait pas préjuger trop

rapidement des impossibilités à mener ce travail d’analyse.

Mais avant de nous pencher sur ces approches, nous devons revenir sur une idée qui

sous-tend l’article de Boogerd. Nous avons vu que leur critique avait pour cible des méthodes

qui seraient purement bottom-up, c’est-à-dire qui partiraient uniquement des composants et de

leurs propriétés. En fait, ce qui est visé, ce sont les approches de la biologie moléculaire, qui

seraient réductionnistes en ce sens précis. En outre, et c’est en cela que cette question du

réductionnisme exige que l’on s’y attarde autant, cette conception de l’émergence a été

utilisée par un certain nombre d’auteurs (aussi bien philosophes que biologistes) comme

critère permettant de caractériser les approches anti-réductionnistes de la biologie des

systèmes et de les distinguer du réductionnisme de la biologie moléculaire. Nous allons

maintenant montrer qu’il ne s’agit pas d’un bon critère pour établir une telle distinction.

2.4 . L’émergence n’est pas le critère permettant de distinguer la biologie des systèmes de la biologie moléculaire

Rappelons que, si nous avons abordé cette délicate problématique du

réductionnisme et de l’émergence, c’est parce que cette grille d’analyse semblait pouvoir nous

renseigner sur les différences profondes entre biologie moléculaire et biologie des systèmes.

La discussion que nous venons de mener sur le problème de l’émergence va nous aider à y

Page 94: Thèse version3.R

94

voir plus clair. En effet, un certain nombre d’auteurs partent du principe que la biologie

moléculaire est réductionniste dans le sens précis que critique l’article de Boogerd et serait

ainsi incapable de reconnaître et d’expliquer des phénomènes émergents. Au contraire, la

biologie des systèmes ne suivrait pas cette démarche purement réductive et rendrait compte de

ces phénomènes.

Nous pensons qu’il s’agit là d’une caricature qui décrit mal les différences réelles

entre les deux types d’approches. La biologie moléculaire n’est pas réductive au sens fort,

mais mécaniste et dans ce sens ne connaît pas d’impossibilité de principe à expliquer des

phénomènes émergents. Par conséquent, si l’on admet que l’existence de phénomènes

émergents ne pose pas de problèmes fondamentaux à une approche réductionniste

raisonnable, on comprendra que l’émergence ne saurait nous fournir un bon critère pour

caractériser l’originalité de la biologie des systèmes. Cette tendance à caricaturer la biologie

moléculaire et sa démarche réductionniste vient d’un empressement à souligner la rupture

introduite par la biologie des systèmes. Cette section est donc consacrée à corriger cette image

trop simple.

Relativement peu de philosophes ont pour l’instant sérieusement analysé les

différentes questions que soulève le développement de la biologie des systèmes. On trouve du

côté des biologistes un certain nombre d’articles visant à définir ce nouveau domaine ou du

moins à réfléchir à ses particularités, notamment lorsqu’on le compare aux pratiques

courantes en biologie moléculaire et cellulaire, en génétique, ou encore en biochimie. Il faut

être conscient que de telles démarches ne sont jamais complètement innocentes, puisqu’elles

sont liées à des enjeux capitaux pour les scientifiques, à savoir la justification d’un nouveau

courant de recherche et le nécessité d’établir un légitimité scientifique. Le but des biologistes

militant pour les approches systémiques est, bien entendu, de convaincre le reste de la

communauté scientifique qu’il s’agit non seulement d’une bonne forme de recherche, mais

qu’elle est en outre véritablement révolutionnaire. Nous ne voulons pas nous lancer ici dans

une analyse de sociologie des sciences (qui serait légitime et instructive, mais qui dépasserait

le cadre de ce travail en même temps que nos compétences), mais il nous semble important de

garder ce fait à l’esprit. Quelles que soient les raisons de cette attitude, il est difficile de ne pas

être frappé par la manière dont certains scientifiques insistent sur la radicale nouveauté de leur

démarche par rapport à la biologie moléculaire classique. Comme nous l’avons déjà indiqué,

notre intention n’est certes pas de chercher à minimiser ces nouveautés (au contraire, un des

buts de ce travail est de faire apparaître la manière dont la biologie des systèmes contribue à

transformer les sciences biologiques), mais cette insistance peut avoir des effets pervers. Nous

Page 95: Thèse version3.R

95

allons commencer par voir dans quels termes certains auteurs formulent ce changement de cap

de recherche, avant de montrer que cette analyse est superficielle, trompeuse et difficilement

défendable.

Caractérisations de la biologie moléculaire et de la biologie des systèmes

Commençons par voir en quels termes la biologie moléculaire est décrite et

caractérisée. Le chapitre d’introduction d’un ouvrage récent consacré aux fondements

philosophiques de la biologie des systèmes186 est très révélateur. On y lit : « De manière

générale, le but de la biologie moléculaire est de caractériser les constituants des organismes

vivants. Son programme est non complexe ; elle mesure les propriétés de chaque composant

et, dans le cas de la biologie cellulaire, sa localisation dans la cellule. » 187 Et plus loin: « La

biologie moléculaire visait à comprendre les organismes vivants comme la somme des

propriétés de leurs composants individuels, sans permettre l’émergence de propriétés

supplémentaires dans leurs interactions. »188

Si l’on en croit ces auteurs, la biologie moléculaire consisterait donc à caractériser

les composants moléculaires pris isolément. De plus, elle verrait les organismes comme la

somme des propriétés de leurs composants, sans reconnaître l’existence de phénomènes

émergents.

Cette image contraste fortement avec la manière dont est décrite la biologie des

systèmes :

« Le but de la biologie des systèmes est de comprendre comment les propriétés

fonctionnelles et le comportement des organismes vivants sont produits par les interactions de

leurs constituants. »189 On trouve plus loin : « Par contraste, la biologie des systèmes

s’intéresse aux relations entre molécules et cellules ; elle considère les cellules comme des

systèmes moléculaires organisés et organisateurs, qui ont des propriétés moléculaires aussi

bien que cellulaires. Elle s’intéresse à la manière dont la vie, ou ses propriétés fonctionnelles,

qui ne sont pas encore dans les molécules, émergent de l’organisation particulière des

processus moléculaires et des interactions entre ceux-ci. [...] Les systèmes vivants possèdent

des propriétés fonctionnelles qui ne peuvent être découvertes et comprises par la seule 186 F. Boogerd, F. J. Bruggeman, J. H. S. Hofmeyr, H. V. Westerhoff (Eds.), Systems Biology, Philosophical Foundations, Amsterdam, Elsevier Science, 2007. 187 Ibid., p. 4. 188 Ibid., p. 9. 189 Ibid., p. 3.

Page 96: Thèse version3.R

96

biologie moléculaire ; les propriétés fonctionnelles qui ne sont pas dans les molécules elles-

mêmes. »190

Nous pensons que cette vision des choses n’est pas défendable. Nous la rejetterons

sur la base de deux critiques (qui sont en fait deux manières de formuler le même problème).

Premièrement, il nous semble difficile d’affirmer que la biologie moléculaire n’étudie que les

propriétés des composants et deuxièmement, ces auteurs décrivent la biologie des systèmes en

termes mécanistes ; or un large consensus s’est formé en philosophie de la biologie pour

reconnaître que ce cadre rend bien compte de la biologie moléculaire (et également d’autres

disciplines réductionnistes comme la biochimie).

La biologie moléculaire n’étudie pas que les composants et elle reconnaît en partie les phénomènes émergents

Commençons par voir si la biologie considérée comme réductionniste procède

réellement par l’étude des propriétés des composants isolés. Il est indéniable qu’une part

importante de la biologie moléculaire et de la biochimie a progressé de cette manière. Pour

prendre le cas le plus fameux et la découverte fondatrice de la biologie moléculaire, c’est-à-

dire la découverte de la structure de l’ADN, il est vrai que des résultats déterminants ont été

obtenus par l’analyse cristallographique de cette molécule. Il s’agit bien d’une étude

structurelle d’un composant, pris hors de son contexte systémique. Beaucoup de découvertes

reposent sur l’étude de la structure des protéines. De même, les biochimistes étudient souvent

des réactions métaboliques in vitro, c’est-à-dire dans des conditions qui ne correspondent que

très approximativement à l’environnement cellulaire. Mais il serait absurde d’affirmer que la

biologie ne progresse que par ces méthodes. Les biologistes moléculaires consacrent

beaucoup d’efforts à étudier les phénomènes biologiques in vivo, c’est-à-dire dans le contexte

du système entier (il faut bien entendu reconnaître que les conditions in vivo de laboratoire ne

correspondent pas toujours aux conditions naturelles, mais le point important est qu’on

considère une cellule, un tissu ou un organisme dans son entier et pas seulement une

molécule). La biologie moléculaire et surtout la génétique sont fondées sur des approches non

purement réductives. Leur mode opératoire consiste à perturber un élément du système (par

exemple en introduisant un allèle mutant) et à étudier les conséquences à différents niveaux

(le phénotype global ou un aspect particulier du système, par exemple l’expression d’un

gène). À partir des effets observés, on essaiera de proposer un modèle mécaniste rendant

190 Ibid., p. 4.

Page 97: Thèse version3.R

97

compte de la ou des fonctions de cet élément. Dans toutes ces approches, c’est bien le système

complet qui est analysé. Les biologistes s’appuient, bien entendu, sur des données purement

réductives, comme la séquence d’un gène ou la structure d’une protéine, mais jamais

exclusivement. Pour tenter de comprendre comment une certaine protéine participe à un

processus biologique, aucun chercheur ne s’est jamais limité à considérer sa structure. On va

par exemple chercher à voir quelles fonctions cellulaires sont perturbées lorsque cette protéine

est absente, sur-exprimées ou sous une forme altérée, ou à déterminer avec quelles autres

protéines ou séquences d’ADN elle pourra interagir ou encore dans quel compartiment

cellulaire elle est localisée.

Il suffit de considérer n’importe laquelle des grandes découvertes de la biologie

moléculaire (transcription, traduction, cycle cellulaire) pour voir qu’il ne s’agissait jamais de

simplement caractériser les composants cellulaires, mais de construire des modèles, parfois

relativement complexes, des mécanismes responsables des processus cellulaires, souvent à

partir d’études in vivo.

Il est intéressant de citer François Jacob, qui décrivait ainsi les conséquences de

l’existence d’une hiérarchie de niveaux en biologie : « La première [conséquence] est la

nécessité d’analyser les objets complexes à tous les niveaux. Si la biologie moléculaire, qui

présente une attitude fortement réductionniste, a mené une analyse aussi réussie de l’hérédité,

ce fut surtout parce que, à chaque étape, l’analyse a été menée simultanément au niveau des

molécules et au niveau de la boîte noire, la cellule bactérienne. »191

D’autre part, il semble quelque peu naïf de penser que la nouveauté introduite par la

biologie des systèmes serait que les propriétés étudiées ne se trouvent dans aucun des

composants. Les modèles explicatifs les plus classiques de la biologie moléculaire

reconnaissent l’apparition de propriétés au niveau du système, c’est-à-dire de propriétés

systémiques. Dans le modèle de l’opéron, l’induction enzymatique est une propriété qui ne se

trouve dans aucun des composants, mais résulte de leurs interactions et de l’organisation de ce

mécanisme.

En outre, la plupart de ces explications réductives présupposent l’existence du

système entier. Par exemple, dans le modèle de la conduction nerveuse, la différence de

concentration ionique entre les milieux intra- et intercellulaires, n’a de sens que par rapport à

l’existence de la cellule. En général, dès qu’on parle de gradient, de pression osmotique, etc.,

on se place dans le cadre de la cellule ou de compartiments cellulaires.

191 F. Jacob, « Evolution and tinkering », Science, 196 (1977) : 1162.

Page 98: Thèse version3.R

98

Il y a donc quelque chose d’évident et d’un peu creux dans cette insistance à parler

de propriétés qui ne sont pas dans les parties et de l’importance des interactions entre

composants. Roger Brent a comparé cela avec ce qu’on appelle parfois la neuroscience

systémique (systems neuroscience), qui en fait existe depuis très longtemps.192

Mais on peut trouver plusieurs raisons qui, si elles ne justifient pas ce type de

caricature, expliquent que certains aient voulu critiquer les approches classiques. Soyons à ce

sujet bien clair : nous ne voulons pas suggérer que la biologie moléculaire n’est jamais

tombée dans ce genre d’excès, mais seulement qu’il ne s’agit certainement pas d’un problème

intrinsèque et absolu des approches qui cherchent à comprendre comment les composants

moléculaires produisent les phénomènes biologiques. Il est vrai que les généticiens ont

tendance à vouloir attribuer des propriétés bien définies à des gènes ou des protéines. Les

concepts d’oncogène ou de gène maître dans le développement pourraient laisser penser que

des propriétés systémiques sont directement expliquées par des gènes. Nous avons

évidemment ici affaire au problème du déterminisme génétique. Mais il faut admettre que

cette position a rarement été défendue de manière forte par les biologistes et que, dans tous les

cas, il ne s’agit jamais d’expliquer à partir des propriétés du gène isolé, mais de tirer des

inférences à partir des phénotypes de mutants pour ces gènes. De manière générale, il est vrai

que les biologistes moléculaires ont souvent tendance à passer un peu rapidement de la

caractérisation d’un gène ou d’une protéine à l’explication d’un phénomène biologique

complexe. Les nombreuses critiques visant ces dérives ne sont donc pas infondées.

D’autre part, et de manière plus intéressante, nous avons vu dans le premier

chapitre que les grands programmes de recherche des vingt dernières années vont

effectivement dans le sens d’un recensement des composants, sans construction de modèles

mécanistes. C’est dans ce sens que Roger Brent a comparé la biologie moléculaire des années

90 à de l’anatomie et la biologie des systèmes à un retour à de la physiologie. Mais il ne

faudrait pas exagérer cette tendance, car les approches dites à haut-débit n’étudient les

propriétés des composants que dans peu de cas : il s’agit essentiellement de l’établissement

des séquences et du recensement des protéines et de leurs structures. Les autres mesures

(expression des gènes, interactions entre protéines, localisation de protéines, état du

métabolisme) sont faites dans le système fonctionnel ce qui présuppose l’ensemble du

système et ses propriétés. Après tout, si l’expression « génomique fonctionnelle » a été créée,

c’est bien pour marquer la différence avec les approches purement structurelles. Nous avons

192 R. Brent, « A partnership between biology and engineering », Nature Biotechnology, 22 (2004).

Page 99: Thèse version3.R

99

souligné dans le premier chapitre que la génomique fonctionnelle devait être considérée

comme une sorte de retour à l’esprit de la biologie moléculaire, qui ne s’est jamais réduite à

des études biochimiques sur les composants moléculaires, mais a toujours procédé par

perturbation des systèmes biologiques.

Ajoutons que, pour donner plus de poids à leurs descriptions de la biologie

moléculaire, certains citent des réductionnistes extrêmes comme Crick, qui est fameux pour

ses formules aussi rapides que provocantes, telles que celle-ci: « Un organisme n’est

essentiellement rien d’autre qu’une collection d’atomes et de molécules. » 193 Mais même

cette affirmation peut être interprétée de manière non problématique par tout matérialiste, si

elle est reconnue comme une thèse ontologique, qui n’implique pas forcément qu’on doive

expliquer le vivant comme une addition des propriétés des molécules qui le constituent.

Une vision plus réaliste de la biologie moléculaire nous révèle par conséquent

qu’on a affaire à toute une gamme de méthodes, allant du pur bottom-up à une véritable

attention aux phénomènes systémiques. On est donc loin de la description simpliste qu’on

rencontre trop souvent.

Cette caricature est en tension non seulement avec la réalité de la recherche en

biologie, mais également avec les analyses philosophiques du mécanisme que nous avons

introduites plus haut, comme nous allons le voir maintenant.

La biologie des systèmes est décrite en termes mécanistes, or ce cadre est reconnu comme rendant bien compte de la biologie moléculaire

La deuxième critique que l’on peut faire aux analyses qui pensent les différences

entre biologie moléculaire et biologie des systèmes de manière dichotomique est liée à la

première, mais la généralise et prend ironiquement appui sur le même cadre conceptuel, à

savoir le cadre mécaniste. L’idée est simple : les auteurs que nous avons cités décrivent les

explications en biologie des systèmes en des termes qui correspondent complètement aux

définitions du mécanisme. Or, ce cadre a été développé avant tout pour rendre compte des

modèles classiques de la biologie moléculaire (et d’autres disciplines comme les

neurosciences, que nous assimilons ici à la biologie moléculaire). Par conséquent, il semble

inapproprié d’utiliser le concept d’explication mécaniste pour tracer une ligne de démarcation

entre biologie moléculaire et biologie des systèmes.

193 F. Crick, Of molecules and man, 1966, cité dans Systems Biology, Philosophical Foundations, op. cit., p. 11.

Page 100: Thèse version3.R

100

Reprenons la définition déjà citée de la biologie des systèmes : « Le but de la

biologie des systèmes est de comprendre comment les propriétés fonctionnelles et le

comportement des organismes vivants sont produits par les interactions de leurs

constituants. »194 Cette définition nous paraît très proche de celle du mécanisme que l’on

trouve dans l’article de Machamer, Craver et Darden, : « Les mécanismes sont recherchés

pour expliquer comment un phénomène est produit ou comment un certain processus

important fonctionne. De manière spécifique : des mécanismes sont des entités et des activités

organisées de telle manière qu’ils produisent des changements réguliers depuis des conditions

de départ ou initiales, jusqu’à des conditions finales ou terminales. »195

Des auteurs comme Boogerd affirment donc explicitement que le cadre mécaniste

rend bien compte des explications en biologie des systèmes. Mais nous avons vu qu’ils

opposent ces explications aux explications réductives : « La différence essentielle entre une

explication mécaniste et une explication réductionniste réside au cœur de la biologie des

systèmes. Dans les sciences, le réductionnisme est surtout compris comme un moyen

d’expliquer des phénomènes produits par des systèmes en termes de propriétés de leurs

parties, souvent considérées isolément. Si des systèmes complexes, qui ont des propriétés

systémiques produites par les interactions de leurs parties, sont considérés, dans lesquels

aucune des parties prise isolément ne révèle des propriétés similaires, alors le réductionnisme

n’est pas une stratégie féconde pour expliquer les phénomènes. » Mais pour eux, les

explications mécanistes tiennent compte du contexte global : « L’explication mécaniste est

par conséquent une activité inter-niveaux, qui ne s’attache pas au système plus qu’au parties,

ou vice et versa ; c’est-à-dire, elle n’est ni holiste, ni réductionniste. »196

On ne peut qu’être d’accord avec cette description de ce qu’est une explication

mécaniste en biologie. Mais encore une fois, pourquoi ne pas considérer que la biologie

moléculaire se situe dans ce cadre ? Comme nous l’avons déjà signalé, Carl Craver a

développé une analyse de l’explication mécaniste qui montre l’importance de l’intégration

entre différents niveaux. Il souligne que ce n’est pas réductionniste au sens fort, mais

interlevel. Les niveaux supérieurs sont tout aussi importants que les niveaux inférieurs pour

élucider le fonctionnement d’un mécanisme.

Il y a donc là quelque chose d’étonnant, puisque, contrairement à la majorité des

philosophes ayant écrit sur ce sujet, ces auteurs ne semblent pas considérer que le cadre

194 F. Boogerd et al., Systems Biology, Philosophical Foundations, op. cit., p. 3. 195 P. Machamer, L. Darden, C. Craver, op. cit., pp. 2-3. 196 F. Boogerd et al., op. cit., pp. 13-14.

Page 101: Thèse version3.R

101

mécaniste est pertinent pour décrire la biologie moléculaire. Nous reconnaissons pour notre

part le bien fondé des analyses mécanistes de la biologie moléculaire et il nous semble donc

injustifié de rejeter ces analyses dans le but de trouver une ligne de démarcation nette entre

biologie des systèmes et biologie moléculaire.

En conclusion de cette section, il faut admettre que, si l’on interprète les deux

approches dans un cadre mécaniste, on a là un fort élément de continuité entre biologie

moléculaire et biologie des systèmes : il s’agit toujours d’expliquer les phénomènes du vivant

à partir des composants et de leurs interactions. En ce sens, la biologie des systèmes poursuit

clairement le projet de la biologie moléculaire et il faut souligner que contrairement à certains

projets systémiques qui ont pu être discutés dans le passé, il s’agit d’une biologie moléculaire

des systèmes.

Confusions dans ce débat

Comme nous l’avons répété à plusieurs reprises, les problèmes soulevés par le

réductionnisme sont extrêmement délicats et il est facile de s’égarer dans ce débat. Nous

avons essayé de montrer que certaines critiques anti-réductionnistes avaient une fâcheuse

tendance à caricaturer la recherche scientifique et du coup à perdre de leur pertinence. Un

problème encore plus fondamental dans ce débat vient du fait que, malgré les précautions que

prennent les différents auteurs, on n’évite pas toujours des confusions sérieuses, qui finissent

pas obscurcir la question. Bien souvent, on constate des décalages plutôt que des oppositions,

chacun ayant en tête sa version particulière du problème et formulant des arguments ne se

situant pas au même niveau.

Précisons notre pensée en revenant une fois encore aux différents arguments

avancés. Certains biologistes et philosophes critiquent le réductionnisme de la biologie

moléculaire, parce qu’il ne tiendrait pas compte des phénomènes émergents. Or, comme nous

l’avons vu, les partisans du réductionnisme explicatif acceptent sans problème l’émergence,

telle qu’elle est discutée dans ce cadre (c’est-à-dire sous une forme pas trop forte). D’ailleurs,

comme le fait remarquer Frost-Arnold dans l’article que nous avons discuté, si le

réductionnisme exigeait que l’on puisse expliquer des phénomènes complexes uniquement à

partir des propriétés des parties, cette thèse serait trivialement fausse et inintéressante.

S’il n’y a pas de véritable problème concernant ce point, on constate pourtant que

certains auteurs s’engagent dans cette fausse bataille. Un bon exemple est un article de Bickle,

Page 102: Thèse version3.R

102

intitulé « Understanding neural complexity »197. Il présente le débat sur le réductionnisme

comme une opposition entre deux thèses incompatibles. Contre une forme d’émergentisme à

la Boogerd, il défend la thèse suivante: « Une explication mûre de la structure physico-

chimique et moléculaire du cerveau et de ses interactions dynamiques, expliquera sa

physiologie et son anatomie, et de manière combinée, ses propriétés cognitives. » Mais en

réalité, à aucun moment, il ne tente de montrer que tout pourrait être expliqué à partir des

propriétés des composants pris isolément. Les exemples qu’il prend sont un mélange

d’approches bottom-up et top-down. Son but est d’établir que les explications s’améliorent

lorsqu’on incorpore plus de détails. Il y a plusieurs raisons de chercher à développer autant

que possible des modèles au niveau moléculaire, mais c’est notamment pour une question de

plausibilité des modèles. Sa position est donc très proche de celle de Rosenberg. Mais Bickle

ne répond pas au problème posé et l’on ne voit plus très bien l’opposition absolue qu’il y

aurait entre les deux thèses. Rappelons que l’article de Boogerd reconnaît que ces

phénomènes complexes et émergents sont explicables mécaniquement et au niveau

moléculaire.

Donnons un deuxième exemple de thèse anti-réductionniste qui manque clairement

la cible que représentent les positions actuelles les plus intéressantes. Dans un article paru

dans le recueil déjà cité sur les fondements de la biologie des systèmes, Robert Richardson et

Achim Stephan ont soutenu que différents niveaux explicatifs sont nécessaires en biologie :

« Pour autant que le pluralisme a une quelconque substance, il doit au moins reconnaître que

les plus haut niveaux d’explication ne sont pas éliminables. Les explications au niveau

systémique sont importantes. Les systèmes sont importants. »198

Richardson et Stephan reprennent la position que nous avons examinée dans

l’article de Boogerd, mais d’une manière qui rend plus évident le décalage avec le

réductionnisme explicatif que nous considérons dans cette partie. « Il n’est pas suffisant, pour

une explication entièrement réductive, que nous soyons capable de redécrire un certain

comportement, ou un certain mécanisme, en termes de constituants, ou même que nous

puissions décrire certains états des constituants suffisants pour le comportement. C’est

quelque chose que nous pouvons, en principe, faire dans tous les cas. Pour revendiquer une

réduction d’une théorie à une autre, il est également nécessaire que nous soyons au moins

capables de montrer qu’un mécanisme suffisant peut être construit à partir des seuls outils

disponibles à l’intérieur de la théorie de bas niveau. Cela exigera parfois que nous incluions 197 J. Bickle, « Understanding neural complexity », Minds ans Machines, 11 (2001) : 467-481. 198 F. Boogerd et al., op. cit., p. 127.

Page 103: Thèse version3.R

103

des informations concernant la pertinence de l’organisation et concernant le comportement

des constituants, dont aucune n’est nécessairement fonction de la seule constitution. »199

Ce passage appelle plusieurs remarques. Premièrement, répétons que, tel que nous

le comprenons, le réductionnisme de Rosenberg n’exige pas que l’on parte uniquement des

théories de niveau inférieur (dans ce cas, chimie et physique). L’exemple favori de Rosenberg

est la biologie moléculaire, or, comme nous l’avons montré, celle-ci étudie les composants

dans le contexte du système. Par ailleurs, Rosenberg a souvent répété que son réductionnisme

n’était pas un éliminativisme. Il est d’autre part très étonnant de lire dans ce passage qu’il est

toujours possible de décrire un phénomène en termes de constituants. C’est bien le problème

des biologistes de trouver des mécanismes moléculaires capables d’expliquer un phénomène

et il n’y a là rien de trivial. La question qui nous intéresse est précisément de savoir comment

on pourrait analyser des phénomènes fonctionnels complexes en termes de composants

moléculaires. Il faut en outre remarquer que les auteurs restent au moins en partie dans

l’ancien cadre du débat, puisqu’ils parlent encore de théories et de réduction théorique. Or il

est clair que le réductionnisme explicatif rejette cette manière de poser le problème.

Nous n’allons pas insister davantage sur ce décalage, mais on pourrait l’interpréter

comme le signe d’une certaine vacuité de la position que cherchent à défendre Boogerd. En

effet, le réductionnisme soumis au feu de leur critique est bien trop fort et ne semble pas être

défendu par quiconque. Mais, encore une fois, elle soulève des questions intéressantes et

délicates lorsque l’on considère des cas particuliers, c’est-à-dire lorsqu’on regarde la manière

dont les biologistes élaborent des modèles réductifs (nous rejoindrons en partie ces

conclusions lorsque nous discuterons des stratégies explicatives dans le chapitre suivant). Ce

n’est que sous sa forme générale et absolue qu’elle perd de son intérêt.

La question intéressante (parce qu’il y en a bien une derrière la complexité qu’a pris

ce débat, qui, il faut bien le reconnaître, tourne parfois à la scholastique) est : peut-on en

principe toujours expliquer des phénomènes complexes et émergents en termes moléculaires ?

Répétons que l’expression « en termes moléculaires » est ici équivalente à « par des

mécanismes moléculaires » et non pas « à partir des seules propriétés des molécules ». C’est

exactement la question que pose Rosenberg et à laquelle il répond par l’affirmative.

Si personne ne nie l’existence de phénomène émergents, il est nettement plus

fécond de réfléchir à ces questions dans une perspective où réductionnisme et émergence ne

sont pas irréconciliables. C’est ce que des philosophes comme William Wimsatt soutiennent

199 Ibid., p. 139, nous soulignons.

Page 104: Thèse version3.R

104

d’ailleurs depuis longtemps. Il écrit par exemple : « Une opposition entre réduction et

émergence force les gens à prendre position selon un axe qui fait manquer certains des

éléments les plus éclairants sur la question. On peut être un réductionniste et un émergentiste

à la fois, avec une compréhension correcte de ces notions. »200

On trouve également chez lui l’idée que les propriétés émergentes peuvent être

expliquées en termes de composants, et que cela passe par la reconstruction du système : « De

nombreux cas ont été classiquement considérés comme impliquant de l’émergence – des cas

motivant l’affirmation que « le tout est plus que la somme des parties » – comme un circuit

électronique oscillateur. Il n’y a rien d’anti-réductionniste, de mystérieux ou d’inexplicable à

être un oscillateur. Vous pouvez en faire un en liant de la bonne manière un inducteur, un

condensateur et une résistance avec une source de tension. Le système a la propriété d’être un

oscillateur bien qu’aucune de ses parties prise isolément ne révèle de telles propriétés. » D’ailleurs, Wimsatt a très souvent insisté sur le fait que les propriétés émergentes

sont en réalité extrêmement courantes, si bien que souligner la présence d’un phénomène

émergent risque bien de se réduire à une affirmation assez triviale : « très peu de propriétés

systémique sont des fonctions agrégatives des propriétés des parties, ainsi l’émergence – en

tant que défaut d’agrégativité – est très fréquente. »202

Donc, répétons-le, l’émergence n’est pas en soi quelque chose de vraiment

nouveau, ni problématique. Cependant, nous ne voulons surtout pas suggérer qu’il n’existerait

aucune différence dans les méthodes, les modèles ou les explications entre biologie

moléculaire et biologie des systèmes. Nous pensons même que c’est bien au niveau des

phénomènes émergents que cette différence réside, mais c’est plutôt dans la manière de les

représenter et de les expliquer.

Il faut donc reconnaître que certaines idées sont justes dans les analyses que nous

venons de critiquer. Il est certain que les modèles habituellement utilisés en biologie

moléculaire ne peuvent rendre compte des phénomènes émergents que de manière limitée et

sont rapidement dépassés par la non-linéarité. Il y a également une question méthodologique :

comment explorer et analyser les mécanismes complexes et les effets du contexte ? Les

méthodes expérimentales de la biologie moléculaire ont des limites. Nous avons dit que

beaucoup d’inférences sont fondées sur la perturbation des systèmes et l’observation des

200 W. C. Wimsatt, « Emergence as non-aggregativity and the biases of reductionisms », in Re-Engineering Philosophy for limited beings, Harvard University Press, 2002. 201 Ibid. 202 Ibid.

Page 105: Thèse version3.R

105

effets, mais il faut être conscient qu’on ne peut perturber un système que de manière

approximative et dans certaines limites. C’est d’ailleurs sans doute en partie pour cela que les

biologistes ont tendance à attribuer des pouvoirs causaux à certaines entités un peu

rapidement. On ne peut démêler les liens causaux dans ces systèmes complexes que de

manière relativement grossière si l’on ne dispose que de ce type de méthode.

Nous allons maintenant voir comment le développement de modèles

mathématiques est en train de changer la situation, en donnant aux biologistes des moyens

tout à fait nouveaux pour analyser et expliquer les phénomènes émergents. Un des buts de la

section suivante sera donc de comprendre la place qu’occupent ces modèles et simulations

dans ces nouvelles approches.

2.5 . Ce qui distingue la biologie des systèmes : l’étude formelle des phénomènes émergents

Jusqu’à il y a peu, la biologie moléculaire construisait des modèles mécanistes

relativement simples. Le nombre de composants était faible, les interactions étaient très

souvent représentées de manière qualitative, la causalité était plutôt linéaire. C’est ainsi que

ces modèles mécanistes expliquent : on peut comprendre comment les interactions entre

composants produisent le phénomène à expliquer. Un des aspects les plus remarquables des

modèles mécanistes en biologie est qu’ils sont le plus souvent représentés sous la forme de

schémas ou diagrammes. Il suffit d’ouvrir n’importe quel livre ou journal de biologie

moléculaire pour se rendre compte de l’importance des schémas. Il est évident que ce type de

représentation possède de nombreux avantages en termes cognitifs : on voit en un coup d’œil

l’ensemble du mécanisme et il est possible de rapidement comprendre son fonctionnement.

En revanche, il a le gros désavantage de ne pouvoir représenter les interactions que de

manière qualitative et de n’être manipulable que si le nombre des composants n’excède pas

une certaine limite, qui est d’ailleurs vite atteinte. Tout le monde connaît les immenses

schémas du métabolisme qui représentent des milliers de composants et de réactions. Ce

genre de schémas est d’une utilité limitée pour les scientifiques, car il est impossible de suivre

l’ensemble des processus et de déterminer le comportement global du système.

Il est certain que la biologie a connu des grands succès grâce à ce type de modèle,

mais les progrès récents ont changé la situation. Comme nous l’avons vu au premier chapitre,

on se rend compte que le nombre de composants à prendre en compte pour bien expliquer un

phénomène est souvent beaucoup plus grand qu’on ne le pensait et les interactions sont

Page 106: Thèse version3.R

106

beaucoup plus complexes. En outre, les biologistes sont devenus plus attentifs aux

phénomènes non linéaires. En bref, les mécanismes étudiés sont plus complexes. Les

phénomènes complexes présentent plusieurs difficultés pour les scientifiques qui les étudient.

Un des enjeux est de comprendre comment des systèmes très simples peuvent avoir des

comportements très complexes et être très difficiles à prévoir (le cas le plus classique est le

problème des trois corps étudié par Poincaré). À l’inverse, il faut pouvoir comprendre

comment des mécanismes très complexes peuvent se comporter de manière très simple et

robuste. C’est particulièrement important en biologie où l’on constate que des

enchevêtrements inimaginables de processus et de mécanismes de régulation produisent des

comportements et des décisions simples et fiables à l’échelle de la cellule ou de

l’organisme.203 Fondamentalement, ce qu’il était devenu nécessaire de développer, c’est une

analyse fine de la dynamique de ces mécanismes. Dans tous ces cas, il est clair qu’une image

approximative des mécanismes, telle qu’elle nous est donnée par les schémas, ne nous dit pas

grand-chose. Nous allons voir dans cette section de quelle manière la modélisation, c’est-à-

dire le développement de modèles mathématiques et les simulations, permet de faire face à

ces difficultés.

Commençons par souligner que le phénomène de sensibilité aux conditions initiales

oblige à être le plus précis possible (en sachant que nos capacités de prédiction seront toujours

limitées). Rappelons que le problème est que, dans les systèmes dynamiques non linéaires,

des différences infimes dans les conditions initiales produisent assez rapidement des

comportements totalement différents. C’est pour cette raison qu’indépendamment de notre

puissance de calcul, il est impossible de déterminer l’évolution du temps à plus d’une dizaine

de jours (étant donné la précision des mesures).

Cette nécessaire augmentation du degré de précision soulève une double difficulté.

Premièrement, il faut disposer de données quantitatives sur les interactions entre composants.

Comme nous l’avons décrit dans le premier chapitre, les progrès technologiques permettent

précisément de disposer de plus en plus de ce genre de données (mais il ne faudrait pas sur-

estimer les progrès accomplis : il reste beaucoup d’inconnues et de données peu précises et

peu fiables). La deuxième difficulté est computationelle : pour simuler un modèle composé de

nombreux éléments et dont les interactions sont décrites quantitativement, il est nécessaire de

recourir à des modèles mathématiques qui deviennent très difficiles à résoudre. Ici aussi, la

constante augmentation de la puissance de calcul et la mise au point d’outils d’analyse plus 203 D. A. Lauffenburger, « Cell signaling pathways as control modules: Complexity for simplicity? », Proceedings of the National Academy of Sciences, 97 (2000): 5031–5033.

Page 107: Thèse version3.R

107

performants a profondément modifié la situation. Il est donc devenu depuis quelques années

possible de construire des modèles quantitatifs et relativement précis de mécanismes et de

réseaux moléculaires.

Voyons de plus près en quoi la modélisation peut être utile dans l’analyse des

systèmes biologiques.204

2.5.1 La modélisation permet de tester des hypothèses de mécanismes complexes

Les modèles mathématiques et les simulations remplissent un rôle général et

fondamental qui est de pouvoir offrir des moyens de mettre à l’épreuve des modèles

mécanistes, lorsque ceux-ci dépassent un certain degré de complexité. En d’autres termes, ils

permettent de voir si un mécanisme proposé permet de réellement expliquer un phénomène.

Rappelons qu’un mécanisme explique un phénomène s’il rend compte de la manière dont les

composants et leurs interactions produisent ce phénomène. Comme on l’a dit, c’est souvent à

partir de l’examen de schémas du mécanisme que le biologiste est capable de déterminer si

celui-ci pourrait produire les phénomènes observés et que l’on doit expliquer. Si l’on

considère le modèle de l’opéron, on voit assez facilement comment l’inducteur, en séquestrant

le répresseur, peut causer l’induction de la transcription. En revanche, lorsque l’on étudie des

systèmes d’une certaine complexité et dont le comportement est non linéaire, cela n’est plus

possible.205

Les défenseurs de la biologie des systèmes rappellent souvent les limites de

l’intuition et la nécessité de passer à des modèles formalisés, comme en témoignent ces deux

citations :

« Les résultats à ce jour montrent une collection vertigineuse de systèmes de

signalisation agissant à l’intérieur et entre les cellules [...] Dans de telles situations, l’intuition

peut être inadéquate, donnant souvent des prédictions incomplètes ou incorrectes. [...] Face à

une telle complexité, des outils computationels doivent être employés comme outils pour la

204 Les particularités de ces approches ont été présentées et discutées très clairement par Michel Morange dans son dernier livre (M. Morange, Les secrets du vivant, Paris, Editions La Découverte, 2005). Son analyse de ce qu’il appelle des explications physiques non causales (qu’il distingue des explications mécanistes) donne beaucoup d’éléments permettant de comprendre les progrès introduits par la modélisation. Nous avons repris beaucoup de ces idées et nous aurons l’occasion d’y revenir dans la troisième partie. 205 Il faut noter qu’un modèle comme l’opéron est certes composé d’une boucle de rétroaction négative est n’est donc pas linéaire, mais peut être analysé intuitivement. En réalité, l’intuition ne permet dans ce cas que de déterminer le comportement le plus évident de ce système. Michel Morange a montré que des études récentes sur les détails de ce système ont révélé de nouveaux aspects, qui avaient échappé à l’intuition (M. Morange, op. cit., pp. 106-110).

Page 108: Thèse version3.R

108

compréhension. »206

« Peut-être qu’une compréhension adéquate des réseaux complexes de régulation

qui constituent les systèmes cellulaires comme le cycle cellulaire exigera de se départir de la

pensée du sens commun. Nous pourrions devoir nous diriger vers un monde étrange et plus

abstrait, plus facilement analysable en termes mathématiques qu’avec notre imagination

actuelle des cellules fonctionnant comme un microcosme de notre monde de tous les

jours. »207

La description sous forme mathématique d’un mécanisme ou d’un réseau se révèle

donc être indispensable. En effet, une fois que les interactions entre composants sont décrites

pas des systèmes d’équations, il est possible de prédire de manière précise le comportement

dynamique du système. Cependant, les choses ne sont pas si simples, car la particularité des

systèmes dynamiques non linéaires est que, dans la plupart des cas, il n’est pas possible de les

résoudre analytiquement, c’est-à-dire qu’on ne peut trouver les solutions du système par des

techniques d’analyse mathématique classiques. Le seul moyen est de calculer pas à pas,

l’évolution du système. C’est ici que les simulations informatiques jouent un rôle crucial. En

effet, la puissance des ordinateurs permet de simuler des systèmes chaotiques complexes. On

choisit des paramètres et des conditions initiales et l’on observe le comportement du système.

Les simulations représentent donc souvent le seul moyen de prédire le comportement du

modèle et donc de tester des hypothèses. On peut donc dire que les simulations apportent une

solution à l’émergence définie en termes de limites de la connaissance humaine des systèmes

complexes.

Il faut noter que cette incapacité à prévoir le comportement d’un système renvoie à

une autre dimension de l’émergence, qui est l’émergence diachronique, aussi appelée

émergence faible par Marc Bedau.208 L’idée est qu’un état macroscopique pourrait être dérivé

de la connaissance de la microdynamique du système et des conditions externes, mais

uniquement en le simulant en tenant compte de toutes les interactions (il fait référence aux

systèmes chaotiques). Si l’on ajoute que les propriétés physiques ne peuvent être connues que

de manière approchée, on a là une imprédictibilité de principe. Les simulations permettent de

contourner l’émergence diachronique, mais seulement dans une certaine mesure, à cause des

limites computationnelles.

206 S. E. Fraser and R. M. Harland, « The molecular metamorphosis of experimental embryology », Cell, 100 (2000) : 41–55. 207 P. Nurse, « A long twentieth century of the cell cycle and beyond », Cell, 100 (2000) : 71-78. 208 M. A. Bedau, "Weak emergence", Philosophical Perspectives, 11 (1997) : 375-399.

Page 109: Thèse version3.R

109

Le travail de Gary Odell et de son équipe illustre très bien cette nécessité de

recourir à des simulations pour tester des modèles mécanistes complexes.209 Ce groupe

travaille sur un système très étudié depuis vingt ans, le réseau de gènes impliqué dans la

formation des segments chez la drosophile. Un des buts du groupe d’Odell était de déterminer

si leur modèle de ce réseau génétique suffisait à rendre compte de certains aspects importants

de ce phénomène.

Ces gènes sont activés selon un processus en cascade, qui est mis en marche par des

gradients de morphogènes maternels. Au début de l’embryogenèse, lorsque l’embryon n’est

pas encore cellularisé, les gènes lacunaires gap et les gènes pair-rule forment des gradients en

contrôlant leurs activités respectives et induisent l’expression des gènes de polarité

segmentaire. L’activité des gènes gap et pair-rule n’est que temporaire, alors que celle des

gènes de polarité segmentaire est stable tout au long du développement. Ces gènes affinent et

maintiennent leur état d’expression au travers d’un réseau complexe d’interactions et de

communications inter-cellulaires. L’état d’expression de ces gènes va ensuite déterminer

l’identité de chaque segment.

Il semble que ce réseau a des propriétés modulaires, c’est-à-dire des propriétés

intrinsèques qui lui permettraient, à partir des stimuli temporaires que représente l’expression

des gènes pair-rule, de crée un pattern précis et stable des gènes de polarité segmentaire.210

C’est donc cette capacité à « se rappeler » le stimulus de départ et la stabilité des états

d’expression induits qui devaient être expliquées et le mécanisme à tester était le réseau

génétique inféré à partir de toutes les recherches menées depuis plus de vingt ans.

Dans leur article, les problèmes que leur modèle informatique devait permettre

d’aborder sont clairement formulés : « Ainsi, les questions que nous avons cherché à résoudre

en utilisant une simulation informatique étaient les suivantes : notre carte du réseau de

polarité segmentaire est-elle suffisamment complète pour expliquer comment, dans la mouche

en développement, ce réseau se souvient d’une empreinte organisatrice transitoire conférée

par les gènes de parité segmentaire? Est-ce que les interactions connues entre les gènes de

polarité segmentaires rendent compte de la modularité apparente du réseau de polarité

segmentaire? Quelles propriétés émergent de la coalition de ces gènes, que nous n’aurions pas

209 G. von Dassow, E. Meir, E. M. Munro, G. M. Odell, « The segment polarity network is a robust developmental module », Nature, 406 (2000): 188-92 ; ainsi que G. von Dassow et G. M. Odell, « Design and constraints of the Drosophila segment polarity module: robust spatial patterning emerges from intertwined cell state switches », Journal of Experimental Zoology, 294 (2002): 179–215. 210 Nous reviendrons plus loin sur le concept de module.

Page 110: Thèse version3.R

110

pu anticiper à partir des descriptions des parties seules? »211

Afin de tester ce réseau, ils ont construit un modèle dynamique, sous la forme d’un

système d’équations différentielles. Comme beaucoup de paramètres n’étaient pas connus, et

qu’il n’était pas possible de résoudre ce système de manière analytique, ni de tester toutes les

combinaisons de paramètre, ils ont, par des simulations, testé de manière aléatoire des

ensembles de paramètres, en espérant en trouver certains capables de produire le

comportement escompté. À leur grand étonnement, ils n’ont d’abord pas réussi à trouver un

tel ensemble, ce qui signifiait que leur mécanisme n’était pas le bon. En ajoutant deux

interactions (une auto-activation et une répression), qui bénéficiaient d’un certain support

expérimental, une proportion étonnamment grande de paramètres permettait de reproduire le

comportement à expliquer (nous reviendrons dans la troisième partie sur l’importance d’un tel

résultat lorsque nous aborderons la question de la robustesse des systèmes biologiques).

Il n’est pas nécessaire d’analyser plus en détail cet exemple pour comprendre que la

modélisation et les simulations ont joué un rôle indispensable. D’une part, sans un modèle

mathématique de ce réseau, il n’aurait pas été possible de déterminer s’il était capable de

produire ce comportement. D’autre part, il faut insister sur le fait que le comportement d’un

mécanisme non-linéaire dépend des valeurs précises des paramètres et qu’on ne peut donc pas

tester un tel mécanisme de manière rigoureuse sans tenir compte de ces paramètres. Mais,

comme nous l’avons vu dans cet exemple, dans la majorité des cas, ces paramètres sont

difficiles à déterminer précisément in vivo. Pour pallier cette difficulté, le seul moyen est de

procéder à ce qu’on appelle une exploration de l’espace des paramètres, c’est-à-dire de choisir

des paramètres au hasard et de lancer une simulation et de répéter l’opération un nombre

significatif de fois (plus le modèle comporte de paramètres et plus l’exploration sera

évidemment limitée).

La modélisation joue donc un double rôle. Elle permet d’une part, de déterminer le

comportement dynamique d’un mécanisme particulier et d’autre part, de réduire en quelque

sorte la sous-détermination expérimentale en testant les alternatives non discriminables

expérimentalement (c’est-à-dire en faisant varier les paramètres dans un gamme de valeurs

plausibles). Il faut insister sur le fait que, si ce type d’exploration des variantes d’un

mécanisme est si important, c’est parce qu’on a affaire à des phénomènes non linéaires et que

les détails sont absolument déterminants.

Comme cela a souvent été remarqué, la fonction des simulations peut sembler

211 G.von Dassow et G.Odell, op. cit., p. 184.

Page 111: Thèse version3.R

111

plutôt négative, puisqu’elles permettent de rejeter un modèle lorsque aucun paramètre ne

permet de retrouver le comportement observé, ce qui a d’abord été le cas dans l’étude du

groupe d’Odell, avant qu’ils n’ajoutent des liens dans leur réseau. Mais il ne faudrait pas

limiter l’utilisation des modèles informatiques à ce seul rôle. En effet, leur modèle, une fois

corrigé, a réellement été considéré comme une bonne explication de plusieurs aspects

importants du processus de segmentation chez la mouche. En d’autres termes, un modèle

mathématique qui possède un certain succès prédictif peut être considéré comme explicatif

exactement au même titre qu’un modèle mécaniste classique.

Cet exemple nous montre également que, contrairement à ce que pensent beaucoup

de biologistes (et ce qui justifierait leur scepticisme), les modèles mathématiques sont

falsifiables et ne sont pas toujours sauvés en ajustant les paramètres jusqu’à ce que le « bon »

comportement ait pu être reproduit. En effet, d’une part, si le modèle n’est pas bon, il n’est

pas toujours possible de l’ajuster pour le sauver. D’autre part, le fait qu’un modèle soit

robuste aux changements de paramètres montre bien que son succès n’est pas le fait d’un

ajustage habile.

Cette exploration des phénomènes émergents possède plusieurs facettes et mérite

d’être analysée plus en détail. Après avoir vu comment la modélisation était devenue

indispensable pour tester des modèles mécanistes, nous allons maintenant montrer qu’elle

permet également de représenter et d’expliquer des processus qui restaient hors de portée des

modes de représentation habituels.

2.5.2 Expliquer les phénomènes émergents complexes grâce aux modèles mathématiques complexes : le cas des voies de signalisation

Il nous semble que le domaine d’étude des voies de signalisation (ou transduction

de signaux) illustre particulièrement bien comment des phénomènes systémiques peuvent être

expliqués au niveau moléculaire.

Commençons par définir ce que sont des voies de signalisation. Les voies ou

réseaux de signalisation permettent aux cellules de répondre de manière spécifique à des

signaux de l’environnement, par l’intermédiaire de cascades de réactions biochimiques. Très

souvent, il s’agit de réactions de phosophorylation et de déphosphorylation de protéines, qui

ont l’avantage d’être rapides, réversibles et de demander peu d’énergie. La phosphorylation

d’une protéine peut en effet provoquer un changement important de son activité. Ces cascades

causent des modifications dans l’expression des gènes ou dans d’autres processus cellulaires.

Page 112: Thèse version3.R

112

Initialement, les voies de signalisation ont été étudiées linéairement et l’on

concevait le transfert d’information selon une succession d’étapes (d’où l’image de

la cascade), chaque réaction entraînant la suivante, depuis la liaison d’un ligand à un

récepteur, jusqu’à l’étape finale (par exemple la transcription d’un gène). Ce qui permettait de

raisonner assez facilement sur ces modèles, de manière intuitive.212

Les nombreux efforts qui ont été faits pour étudier ces voies ont commencé à

révéler une image beaucoup plus complexe que cela. Les biologistes ont pris la mesure du

grand nombre de composants, du haut degré de connectivité, des nombreux mécanismes de

contrôle dans ces réseaux et de la nécessité de tenir compte des phénomènes à différentes

échelles spatio-temporelles. Pour donner une idée de la complexité de ces réseaux, rappelons

que, d’après des estimations récentes, il existe chez l’homme plus de 1 500 récepteurs, plus de

500 protéines kinases et environ 150 protéines phosphatases. En outre, il ne faut pas négliger

l’explosion combinatoire impliquée dans les voies de signalisation. Une idée importante est

que le nombre d’états fonctionnels d’un système augmente beaucoup plus vite que le nombre

des composants.213 On sait également depuis un certain temps que les voies se croisent et

interagissent entre elles, ce qui limite la validité d’une vision linéaire.

On sait par exemple que des facteurs de croissance, suivant qu’ils activent de

manière brève ou longue une certaine kinase, vont induire dans un cas la prolifération

cellulaire et dans l’autre la différenciation cellulaire.214

La citation suivante exprime bien le problème qui est en jeu : « La simplicité

biochimique apparente de la voie MAPK contraste fortement avec ses fonctions cellulaires

pléiotropiques, ce qui pose une question brûlante. Comment cette voie spécifie-t-elle

différentes réponses biologiques ? Cette énigme se pose pour toutes les voies de signalisation.

L’amplitude et la durée du flux du signal à travers la voie peuvent déterminer le résultat

biologique. L’exemple classique est le cas des cellules PC12 chez lesquelles l’activation

212 « Les études sur les voies de signalisation se sont habituellement concentrées sur la détermination des interactions directement en amont ou en aval et ensuite sur l’organisation de ces interactions en cascades linéaires qui relaient et régulent l’information depuis les récepteurs à la surface cellulaire vers les effecteurs cellulaires, comme les enzymes métaboliques, les canaux ou les facteurs de transcriptions. » (N. J. Eungdamrong et R. Iyengar, « Modeling Cell Signaling Networks », Biology of the Cell, 96 (2004) : 355–362) 213 Voir à ce sujet J. A. Papin et al., « Metabolic pathways in the post-genome era », Trends in Biochemical Sciences, 28 (2003) : 250-258. 214 C. J. Marshall, « Specificity of receptor tyrosine kinase signaling: transient versus sustained extracellular signal-regulated kinase activation », Cell, 80 (1995) : 179–185.

Page 113: Thèse version3.R

113

prolongée d’ERK entraîne la différenciation neurale, tandis que l’activité transitoire de ERK

est nécessaire pour la prolifération. »215

Des modèles mécanistes classiques de cascades peinent à rendre compte de

plusieurs phénomènes importants. Premièrement, comment expliquer qu’une même voie peut

avoir des effets très différents et être impliquée dans des processus variés ? Ou, en d’autres

termes, comment la spécificité d’un signal peut-elle être assurée, alors que des voies

identiques sont utilisées (c’est-à-dire qu’il n’y a pas de molécules spécifiques pour chaque

voie et qu’un petit nombre de récepteur peut être suffisant pour discriminer un grand nombre

de stimuli environnementaux)? Deuxièmement, comment expliquer que des différences

d’intensité et de durée des signaux provoquent des réponses parfois très hétérogènes ? En un

mot, par quels mécanismes ou modes de contrôle une cellule peut-elle discriminer de manière

extrêmement fine et robuste une richesse inouïe de signaux de l’environnement et cela malgré

un haut niveau de bruit ?

Ces problèmes nous ramènent aux objections soulevées par les anti-

réductionnistes : il semble impossible d’expliquer ces phénomènes fonctionnels par des

mécanismes moléculaires, puisque d’une part, les propriétés fonctionnelles ne peuvent être

directement dérivées des propriétés des composants, et d’autre part, l’effet d’un signal dépend

si fortement du contexte dans lequel opèrent les voies de signalisation.

Une des réponses apportées depuis quelques années est qu’il ne suffit pas de décrire

comment une cascade de réactions biochimiques est capable d’induire des changements dans

les processus cellulaires, il est surtout crucial de comprendre comment la dynamique précise

de ces mécanismes permet la régulation fine de ces processus. Pour utiliser le vocabulaire

informationnel, l’information n’est pas seulement transmise de la membrane à l’intérieur de la

cellule, elle est également traitée. Les relations entre stimuli et réponses cellulaires sont

incroyablement complexes et l’on ne peut en rendre compte au moyen de schémas mécanistes

classiques. L’idée sous-jacente est que la spécificité d’un signal est « encodée » dans la

dynamique spatiale et temporelle du réseau de signalisation. La clé permettant de comprendre

ces traitements de signaux réside donc dans l’étude fine de cette dynamique.

Comme l’écrit l’auteur d’une revue récente sur ce sujet : « Ces voies ne font pas

que transmettre, mais elles traitent, encodent et intègrent également des signaux internes et

externes. Récemment, il est devenu évident que des profiles spatio-temporels d’activation

distincts du même répertoire des protéines de signalisation produisent différents patterns 215 W. Kolch et al., « When kinases meet mathematics: the systems biology of MAPK signalling », FEBS Letters, 579 (2005) : 1891-1895.

Page 114: Thèse version3.R

114

d’expression des gènes et des réponses physiologiques diverses. Ces observations indiquent

que des décisions cellulaires centrales, comme la réorganisation du cytosquelette, les

contrôles du cycle cellulaire et la mort cellulaire (l’apoptose), dépendent du contrôle temporel

précis et de la distribution spatiale relative des transducteurs de signaux. »216

En outre, les nombreuses interactions entre différentes voies de signalisation et

d’autres processus (métabolisme, etc.) ont également compliqué ces modèles. Il est donc

crucial de pouvoir analyser les réseaux entiers pour comprendre leurs propriétés (on parle

souvent de whole-cell signalling networks). Cela est vrai d’un point de vue expérimental

(d’où l’importance des approches de génomique fonctionnelle, qui permettent d’observer le

comportement d’un grand nombre de composants parallèlement) que théorique, c’est-à-dire

qu’il faut pouvoir représenter et analyser les propriétés dynamiques de ces larges réseaux.

La clé pour comprendre ces phénomènes de traitement des signaux est d’analyser

plus en détail et de manière plus exhaustive, comment certains éléments structuraux ou sous-

systèmes de ces réseaux (que l’on appelle souvent circuits) déterminent des comportements

dynamiques fonctionnellement importants.

Nous allons voir comment certaines parties d’un réseau de signalisation peuvent

générer des phénomènes de bi-stabilité, de changements brusques d’états ou encore

d’oscillations et de quelle manière ces comportements dynamiques peuvent nous éclairer sur

des phénomènes biologiques généraux. Il faut tout de suite noter que ces éléments de base

sont essentiellement des boucles de rétroactions, qui sont naturellement connues depuis

longtemps et font partie des principes explicatifs de base en biologie moléculaire. Mais la

modélisation mathématique a permis de caractériser et d’expliquer beaucoup plus finement

ces dynamiques. De plus, on n’avait jusqu’à récemment étudié en détail que relativement peu

de systèmes présentant ce type de structures.217

Rôle des boucles de rétroaction positives : bistabilité et interrupteurs

Les boucles de rétroaction positives ont la particularité de pouvoir créer des

réponses discontinues, ou ce qu’on appelle en anglais des switch.218 Lorsque l’intensité du

216 B.N. Kholodenko, « Cell-signalling dynamics in time and space », Nature Reviews Molecular Cell Biology, 7 (2006) : 165–176. 217 Sur tous ces aspects, nous recommandons la lecture de l’article suivant : J. J. Tyson, K. C. Chen and B. Novak, « Sniffers, buzzers, toggles and blinkers: dynamics of regulatory and signaling pathways in the cell », Current Opinion in Cell Biology, 15 (2003) : 221-231. 218 On connaît depuis longtemps ces phénomènes, notamment dans le passage de la lysogénie à la lyse chez le phage lambda (voir M. Ptashne, A Genetic Switch: Phage and Higher Organisms, Oxford, Blackwell, 1992) et

Page 115: Thèse version3.R

115

signal augmente, la réponse reste faible, jusqu’à ce que cette intensité dépasse une certaine

valeur critique, ce qui cause un brusque changement de réponse qui atteint une valeur haute.

Comme son nom l’indique, ce type de comportement correspond au principe de l’interrupteur.

On parle aussi d’effet de seuil. Il y a bi-stabilité, car le système peut exister sous deux états

stables et basculer très rapidement d’un état à l’autre. Ajoutons que ce point de changement

est appelé point de bifurcation.219

On peut distinguer deux types de switch. Premièrement, les switch irréversibles, qui

une fois passé à l’état stable actif, ne reviennent jamais à l’état inactif, même lorsque le signal

diminue (en anglais one-way switch). Il s’agit donc d’un point de non-retour, qui garantit

qu’un processus, une fois passé un certain stade, ne pourra pas revenir en arrière. Cette

propriété semble jouer un rôle important dans les processus développementaux.220

Le deuxième type de boucle de rétroaction positive est appelé toogle switch et,

contrairement au premier, il est réversible. Cependant, le stimulus nécessaire pour activer un

système est quantitativement différent de celui qu’il faut pour le maintenir dans cet état

activé. C’est-à-dire que le système ne va pas revenir à son état de départ au même niveau de

stimulus qui l’avait fait passer à l’état activé. Cela permet d’avoir une sorte de mémoire

cellulaire, ce qui joue un rôle déterminant dans des processus comme la différenciation. Ce

phénomène est appelé hystérèse (ou hystérésis).221

Pour comprendre en quoi l’analyse mathématique est essentielle, il faut insister sur

le fait que le rapport entre les détails du mécanisme et son comportement est subtil. En effet,

une même structure peut produire ces différents comportements selon les valeurs des

paramètres. La figure 3 illustre très bien ce point fondamental.222

dans l’opéron lactose (A. Novick, et M. Weiner, « Enzyme induction as an all-or-none phenomenon », Proceedings of the National Academy of Sciences, 43 (1957) : 553–566). 219 René Thomas a été l’un des premiers à étudier sérieusement ces phénomènes. Voir par exemple, R. Thomas, « On the relation between the logical structure of systems and their ability to generate multiple steady states or sustained oscillations », Springer Ser. Synergetics, 9 (1981) : 180-193. 220 M. Laurent, N. Kellershohn, « Multistability: a major means of differentiation and evolution in biological systems », Trends in Biochemical Sciences, 24 (1999) : 418-422 ; J. E. Ferrell, E. M. Machleder, « The biochemical basis of an all-or-none cell fate switch in Xenopus oocytes », Science, 280 (1998): 895-898. 221 W. Sha et al., « Hysteresis drives cell-cycle transitions in Xenopus laevis egg extracts », Proceedings of the National Academy of Sciences, 100 (2002) : 771-772. 222 Voir aussi J. E. Ferrell Jr., « Self-perpetuating states in signal transduction: positive feedback, double-negative feedback and bistability », Current Opinion in Cell Biology, 14 (2002) : 140–148, ainsi que D. Angeli et al., « Detection of multistability, bifurcations, and hysteresis in a large class of biological positive-feedback systems », Proceedings of the National Academy of Sciences, 101 (2004) : 1822-1827.

Page 116: Thèse version3.R

116

Figure 3 : Cette figure représente le comportement d’une boucle de rétroaction positive selon la force de la rétroaction. Le système est simple et consiste en une molécule qui peut passer d’une forme inactive A à une forme active A*. L’activation est régulée d’une part, par un stimulus externe et d’autre part, par une boucle de rétroaction positive. Les différents graphiques représentent les relations entre le stimulus et la réponse à l’équilibre. Chaque graphique correspond à une intensité de la boucle de rétroaction (notée f). On voit qu’à mesure que f augmente, on passe d’une courbe hyperbolique à une courbe de forme sigmoïdale (b-h). La forme sigmoïde correspond à un comportement de type switch. A partir de i, on remarque que la courbe se divise en deux ; une partie représente le stimulus nécessaire pour activer le système et l’autre celui qui est nécessaire pour le maintenir dans cet état. Il faut aussi noter que le système devient bistable pour certaines valeurs du stimulus. En outre, on observe le phénomène d’hystérèse et celui-ci augmente avec f. Finalement, à partir de k, la boucle de rétroaction devient suffisamment forte pour maintenir le système dans l’état actif, même si le stimulus disparaît. On est alors dans le cas d’un switch irréversible. (La figure ainsi que l’explication sont tirées de W. Xiong et J. E. Ferrell Jr., « A positive-feedback-based bistable 'memory module' that governs a cell fate decision », Nature, 426 (2003) : 460-465).

Rôle des feedbacks négatifs : homéostasie et oscillations

On sait depuis longtemps qu’une boucle de rétroaction négative permet

l’homéostasie, comme dans le cas connu des voies biosynthétiques, où le produit inhibe

Page 117: Thèse version3.R

117

l’enzyme catalysant sa synthèse, ce qui permet d’ajuster la production à la demande.

Cependant, ce type de rétroaction peut aussi, dans certaines conditions, générer des

oscillations. Autant l’homéostasie que les oscillations jouent des rôles essentiels dans

différents processus biologiques. On pense naturellement au cycle cellulaire, mais les

oscillations peuvent également être impliquées dans les voies de signalisation. Beaucoup de

travaux, théoriques et expérimentaux, ont contribué à analyser l’émergence et l’importance

des oscillations dans les réseaux biologiques. Nous n’entrerons pas dans les détails, mais

signalons des travaux dans le cas des voies de signalisation223 et dans le cas de la fameuse

protéine p53, qui est impliquée dans le maintien de l’intégrité du génome et dont le

mécanisme d’action est fondé sur des oscillations224.

Cependant, ces comportements sont rarement le fait d’une boucle de rétroaction

négative simple. Dans beaucoup de cas, pour avoir des oscillations stables, il est nécessaire

d’avoir un système à trois composants, de manière à introduire un délai dans la boucle. La

stabilité est renforcée lorsque des boucles de rétroactions positives et négatives sont

combinées. La boucle positive crée un état bi-stable et la boucle négative fait passer le

système d’un état à l’autre. C’est notamment le cas du système responsable du cycle

circadien.225

Nous aimerions maintenant nous arrêter un instant sur un exemple précis montrant

comment ces approches peuvent permettre de révéler des aspects insoupçonnés de la

régulation des gènes par ces voies et de contribuer ainsi à expliquer par des mécanismes

moléculaires des effets systémiques.

Exemple du module IκB-NF-κB

NF-κB est un facteur de transcription qui régule l’activité de nombreux gènes

jouant des rôles importants dans la signalisation inter- et intracellulaire, les réponses

223 B. N. Kholodenko, « Negative feedback and ultrasensitivity can bring about oscillations in the mitogen-activated protein kinase cascades », European Journal of Biochemistry, 267 (2000) : 1583-1588. 224 A. Ciliberto, B. Novak et J. J. Tyson, « Steady States and Oscillations in the p53/Mdm2 Network », Cell Cycle, 4 (2005) : 488-493 ; R. Lev Bar-Or et al., « Generation of oscillations by the p53–Mdm2 feedback loop: a theoretical and experimental study », Proceedings of the National Academy of Sciences, 97 (2000) : 11250–11255. 225 J. C. Leloup, A. Goldbeter, « Modeling the molecular regulatory mechanism of circadian rhythms in Drosophila », Bioessays, 22 (2000) : 84-93 ; P. Smolen, D. A. Baxter, J. H. Byrne, « Modeling circadian oscillations with interlocking positive and negative feedback loops », Journal of Neuroscience, , 21 (2001) : 6644-6656.

Page 118: Thèse version3.R

118

cellulaires au stress, la croissance cellulaire et l’apoptose. La spécificité et le contrôle

temporel de l’expression de ces gènes est donc crucial. L’activité de ce facteur de

transcription est régulée par trois isoformes IκB (α, β, ε) qui s’y lient, empêchent ainsi sa

liaison à l’ADN et entraînent sa localisation dans le cytoplasme. Différents signaux sont

« acheminés » au complexe IκB Kinase (IKK), qui phosphoryle les isoformes, entraînant leur

ubiquitination et leur protéolyse, ce qui permet la translocation de NF-κB dans le noyau et sa

liaison à l’ADN.

La figure 4 permettra de rendre plus claire la structure de ce module.

Figure 4 : Le module IκB-NF-κB, tiré de Hoffmann et al., Op.cit.

Les interactions entre IKK, les isoformes IκB et NF-κB peuvent être considérées

comme un module de transduction de signal contenant une boucle de rétroaction négative. En

effet, lorsque NF-κB rentre dans le noyau, il active IκBα (IκBβ et ε sont synthétisés

continuellement). Le module reçoit donc un input sous la forme d’un signal au niveau des

récepteurs membranaires et renvoie un output sous la forme d’une régulation de l’expression

de gènes. Dans un tel système, suivant la force des rétroactions et des auto-régulations, on

peut observer des oscillations persistantes, des oscillations amorties ou l’augmentation

jusqu’à un plateau. Les mesures effectuées sur des systèmes réels montrent qu’il y a des

oscillations amorties, mais qui ne correspondent pas tout à fait au modèle le plus simple à

Page 119: Thèse version3.R

119

deux composants. Les auteurs en concluent que la dégradation, la synthèse et la localisation

des trois isoformes doivent être coordonnées pour générer l’activation requise. C’est pour

examiner les fonctions des différentes isoformes que les auteurs ont construit un modèle

computationnel de ce système (fondé sur des équations différentielles). Ce modèle a été en

partie construit sur la base de l’étude de systèmes plus simples obtenus par génétique inverse,

dans lesquels des isoformes d’IκB ont été supprimés. La modélisation a permis de clarifier les

rôles de chaque protéine dans ce mécanisme. IκBα est responsable de l’activation rapide de

NF-κB et d’une forte régulation négative, ce qui entraîne un comportement oscillatoire. IκBβ

et -ε répondent moins vite à l’activation de IKK et sont responsables de l’amortissement de

l’oscillation à long terme.

Les auteurs ont étudié comment ce module répondait à différentes durées de signal.

Ils ont constaté que des courtes activations entraînaient une réponse temporaires dont la durée

est indépendante de celle du stimulus, du moins lorsque celui-ci dure moins d’une heure. Pour

les stimulations longues, la réponse dure aussi longtemps que le stimulus.

Le module possède donc des caractéristiques bimodales de traitement des signaux :

le premier mode permet à de courtes stimulations de causer l’activation de NF-κB et le

deuxième mode opère dans le cas de stimulations longues et génère des réponses

proportionnelles à la durée du stimulus.

IκBα joue un rôle essentiel, car c’est la boucle de rétroaction négative qui permet

cette bimodalité. En l’absence de cet isoforme, NF-κB reste actif beaucoup plus longtemps et

un court pic d’activation suffit à activer les gènes qui nécessitent normalement un stimulus

long.

Mais le résultat le plus intéressant est que cette bimodalité permet l’activation

différentielle de deux classes de gènes, ceux qui nécessitent l’activation permanente de NF-

κB et ceux qui ne nécessitent qu’une activation courte. Il s’agit donc d’une régulation non

seulement quantitative, mais aussi qualitative.

Le processus de modélisation a donc permis de mieux comprendre plusieurs aspects

de ce système. Premièrement, les différents rôles joués par les isoformes IκB, qui semblaient

jusque là redondants. Deuxièmement, comment une voie de signalisation relativement simple

pouvait avoir un comportement bimodal et ainsi déterminer l’activation de différentes classes

de gènes. Il s’agit bien de ce genre de comportement qui semblait résister aux explications

mécanistes classiques.

Page 120: Thèse version3.R

120

Cet exemple est toutefois encore très simple et n’illustre pas tout le potentiel de la

modélisation à étendre les modèles mécanistes. La modélisation des voies de signalisation a

également permis de mieux comprendre comment, lorsque des voies interagissent, des

nouvelles propriétés émergent. Il s’agit évidemment d’expliquer les effets du contexte sur un

mécanisme. Dans un article intitulé « Emergent properties of networks of biological

signaling »226, U.S. Bhalla et R. Iyengar montrent comment la modélisation a été utilisée pour

comprendre comment les interactions entre différentes voies peuvent faire apparaître des

propriétés que des voies individuelles n’ont pas : « Nous avons développé des modèles de

réseaux simples constitués de jusqu’à quatre voies de signalisations pour déterminer si le

réseau possède des propriétés que les voies individuelles n’ont pas. »227

La propriété qui intéressait les auteurs est la capacité à produire un effet qui persiste

même après que le signal a cessé. Ils s’intéressent plus particulièrement à l’effet appelé long

term potentiation (LTP), qui correspond à une forme de mémoire cellulaire dans les cellules

nerveuses. Des modèles intégrant jusqu’à quatre voies de signalisation (notamment MAPK,

PKC et CaMKII) permettent de déterminer dans quelles conditions cette propriété apparaît.

Comme nous l’avons décrit plus haut, ce sont des boucles de rétroaction entre différentes

voies qui permettent de faire basculer le réseau entier dans un autre état stable (actif) au lieu

de retourner à l’état d’activité basale (inactif) après la fin du signal. Il faut souligner que le

maintien de l’état actif n’est pas dû à des changements dans l’expression des gènes, mais

s’explique uniquement par les propriétés du réseau de réactions biochimiques. Il faut

également remarquer que ces boucles de rétroaction sont elles-mêmes régulées et peuvent être

désactivées dans certaines conditions. Il est essentiel d’étudier la dynamique du réseau entier

pour déterminer les seuils suffisants pour l’activation prolongée d’une réponse.

Ces auteurs rappellent clairement que c’est l’analyse détaillée et quantitative qui

permet d’expliquer ces phénomènes : « La complexité et la variété des réseaux biologiques de

signalisation défient souvent les analyses fondées sur l’intuition. Les propriétés systémiques

dépendent souvent de relations temporelles subtiles et de la compétition entre des régulateurs

positifs et négatifs. »228 Mais ils reconnaissent que leur simulation a des limites, notamment

parce que les constantes sont mesurées in vitro (ce qui nous montre que le problème discuté

par Boogerd est réel pour les biologistes, mais rien n’empêche de faire les mesures in vivo ce

226 U. S. Bhalla et R. Iyengar, « Emergent properties of networks of biological signaling », Science, 283 (1999) : 381-387. 227 Ibid., p. 381. 228 Ibid., p. 386.

Page 121: Thèse version3.R

121

qui permettrait de construire un modèle plus réaliste au niveau moléculaire).

On a beaucoup parlé de l’aspect temporel des régulations, mais il faut tenir compte

de l’aspect spatial. La aussi, les modèles classiques sont incapables d’en rendre compte. C’est

en outre un bon exemple d’émergence horizontal, puisque les conditions physico-chimiques

dans lesquelles se déroulent ces réactions sont très différentes des tubes à essai du

biochimiste. Sans entrer dans les détails, signalons les phénomènes de compartimentalisation,

de crowding, de channeling, qui peuvent tous profondément modifier le comportement de ces

mécanismes. Ce qu’on appelle le molecular crowding, et qu’on pourrait traduire

par encombrement moléculaire, est le fait que le milieu cellulaire est extrêmement dense en

molécules de toutes sortes. Cette densité modifie plusieurs propriétés des processus, comme la

vitesse de diffusion des protéines. Le channeling désigne le fait que parfois les enzymes

assurant une cascade de réactions biochimiques sont assemblées en un complexe, ce qui a

pour effet de nettement augmenter la vitesse de réaction. Mais répétons que si c’est un défi

énorme au niveau expérimental (mesurer les constantes de réactions in vivo, voir les

phénomènes de séquestration, etc.) et au niveau computationel (la prise en compte des aspects

spatiaux nécessite de recourir à des équations aux dérivées partielles qui sont beaucoup plus

difficiles à résoudre que des équations différentielles ordinaires), on peut néanmoins espérer

progresser énormément dans la construction de modèles mécanistes.229

Nous ne pourrons malheureusement pas aborder d’autres exemples très instructifs

de processus complexes dont le fonctionnement et les modes de régulation ont été mieux

compris grâce à un gros travail de modélisation. Notons tout de même que le cas du cycle

cellulaire est à cet égard intéressant, puisqu’on commence à mieux voir comment différentes

structures simples se combinent pour générer ce processus dont le fonctionnement est

extraordinairement précis, régulés de beaucoup de façons tout en étant très robuste. 230

Évidemment, à mesure que les modèles s’élargissent et se complexifient et que les circuits de

base se combinent de mille façons, il devient difficile de comprendre comment des propriétés

émergent, mais il est néanmoins possible de les prédire grâce aux simulations.

229 Sur l’influence du milieu physico-chimique de la cellule, voir M. B. Elowitz et al., « Protein Mobility in the Cytoplasm of Escherichia coli » Journal of Bacteriology, 181 (1999) : 197–203 ; R. J. Ellis, A. P. Minton, « Cell biology: join the crowd », Nature, 425 (2003) : 27-28 ; A. P. Minton, « How can biochemical reactions within cells differ from those in test tubes? », Journal of Cell Science, 119 (2006) 2863-2869. 230 W. Sha et al., « Hysteresis drives cell-cycle transitions in Xenopus laevis egg extracts », Proceedings of the National Academy of Sciences, 100 (2003) : 975–980 ; J. R. Pomerening, E. D. Sontag, J. E. Ferrell, « Building a cell cycle oscillator: hysteresis and bistability in the activation of Cdc2 », Nature Cell Biology, 5 (2003) : 346-351 ; B. Novak et al., « Irreversible cell-cycle transitions are due to systems-level feedback », Nature Cell Biology, 9 (2007) : 724-728.

Page 122: Thèse version3.R

122

2.6 . Les modèles complexes sont indispensables à plusieurs points de vue

Nous n’avons pu donner ici qu’un aperçu des rôles que peut jouer la modélisation

dans l’étude des systèmes biologiques, mais nous pouvons déjà tirer quelques conclusions

générales sur leur utilité. Cette question est importante, car beaucoup de biologistes, ainsi que

certains philosophes, restent assez sceptiques quant à l’utilité des modèles complexes dans ce

domaine. Certains pensent qu’il ne s’agit que de jouer avec des modèles trop abstraits, d’autre

que les modèles ne prouvent rien car ils peuvent toujours sauver les phénomènes en ajustant

les paramètres, ou encore que, si les modèles deviennent aussi complexes que les systèmes

étudiés, pourquoi se donner tant de peine à les construire ?

Il existe donc différentes raisons de penser que la construction de modèles

complexes ne nous fournira pas la clef pour comprendre le vivant. Pour explorer un peu cette

question, nous partirons des réflexions que nous livre Evelyn Fox Keller dans la conclusion

de son ouvrage Expliquer la vie.231 Elle soulève dans ces pages plusieurs questions de fond sur

le rôle que peuvent jouer les modèles complexes en biologie.

Elle fonde toute une partie de sa discussion sur la question posée il y a quelques

années par le biologiste Lewis Wolpert : l’embryon sera-t-il un jour calculable à partir d’une

description suffisamment précise des constituants moléculaires de l’œuf fécondé (ADN,

ARN, protéines) ? De nombreuses raisons permettent de douter que cet objectif puisse être un

jour atteint, mais en admettant qu’il le soit, Fox Keller pose la question suivante : « qu’est-ce

que cela demanderait de passer d’une description à une compréhension, de comprendre un

ensemble aussi vaste de données. »232 Elle discute ensuite de la possibilité et de la pertinence

de calculer le développement à partir de cette description. « Supposons, par exemple, que

l’information requise soit irréductible au calcul. J’entends par là qu’il n’y aurait pas de

représentation suffisante qui soit moins complexe que l’œuf fécondé lui-même ou, plus

précisément, que l’ensemble du système de gestation. »233 Dans ce cas, « pourquoi se donner

la peine de reproduire cet effort ? Étant donné que nous avons déjà une machine qui exécute

normalement le calcul du développement (à savoir l’organisme lui-même), pourquoi se

donner tout ce mal et dépenser autant pour en construire une autre ? La réponse à cette

question dépend de ce que nous espérons gagner par cet effort. »234

231 E. Fox Keller, Expliquer la vie, Paris, Gallimard, 2005. 232 Ibid., p. 322. 233 Ibid. 234 Ibid., p. 324.

Page 123: Thèse version3.R

123

« À partir du moment où nous n’effectuons plus nous-mêmes les calculs, quelle

importance que ce soit tel ou tel type de machine qui le fasse ? D’ailleurs, est-il même évident

que nous appréhendions beaucoup mieux un processus lorsque nous sommes parvenus à

construire une machine capable de le calculer que quand nous pouvons observer le même

calcul réalisé par une machine qui a été fabriquée par l’évolution ? »235

La modélisation soulève des questions, parce que les modèles deviennent

extrêmement complexes (nombre de composants, nature des interactions). La question est : si

ces modèles deviennent aussi complexes que les systèmes modélisés, que peut-on y gagner ?

En d’autres termes, quelle est la valeur explicative et cognitive de ces modèles ?

Le gain en termes de compréhension intuitive que permet la modélisation sera

abordé dans le chapitre suivant et nous aurons l’occasion de revenir sur la position de Fox

Keller. Nous montrerons que les modèles complexes peuvent nous aider à développer une

certaine intuition de ces phénomènes complexes. Mais, même en admettant provisoirement

que ces modèles sont aussi opaques à notre intuition que les systèmes modélisés, il faut

néanmoins reconnaître qu’ils nous font progresser d’une manière décisive.

Comme nous l’avons vu, en permettant de prédire avec une grande précision le

comportement d’un mécanisme, ils nous fournissent le moyen de tester nos hypothèses de

manière plus rigoureuse et de pouvoir discriminer entre des hypothèses alternatives. Comme

le disent bien von Dassow et Meir : « nous en sommes arrivés au point où des modèles

informatiques suffisamment réalistes puissent faire des suggestions plausibles sur la manière

de combler les lacunes ; les modèles informatiques, contrairement à nous, ne peuvent être

trompés par n’importe quel diagramme complété par une salade de mots rhétoriquement

convaincante. »236

Le deuxième avantage des modèles complexes est qu’ils nous aident à progresser

dans la détermination des conditions d’apparition des phénomènes émergents. En effet,

lorsqu’on construit un modèle complexe, on ne fait pas que constater que, dans des conditions

similaires, les mêmes phénomènes émergents apparaissent, ce qui effectivement ne nous ferait

pas comprendre beaucoup mieux la nature de ces phénomènes. On peut en outre caractériser

plus précisément les conditions dans lesquelles des phénomènes fonctionnels apparaissent. Il

faut souligner que c’est le processus de modélisation qui est important, et pas seulement les

modèles auxquels on parvient. Au cours de ce processus, on a l’occasion d’explorer les 235 Ibid., pp. 325-326. 236 G. von Dassow, E. Meir, « Exploring modularity with dynamical models of gene networks », in G. Schlosser et G.P. Wagner (eds.), Modularity in Development and Evolution, Chicago, University of Chicago Press, 2004, p. 255.

Page 124: Thèse version3.R

124

propriétés des systèmes modélisés, en faisant varier la structure, les paramètres et les

conditions initiales, d’une manière relativement facile et inatteignable en se limitant à des

techniques expérimentales. Il ne s’agit donc pas seulement de représenter, mais d’une certaine

manière d’expérimenter. En d’autres termes, ce n’est plus seulement le système, mais

également le modèle que l’on interroge.

John Holland dans son livre sur l’émergence237, développe précisément cette idée.

Dans la dernière partie de son ouvrage, il montre que, parmi les moyens de s’approcher d’une

connaissance des conditions suffisantes de l’émergence (un de buts qu’il juge primordial dans

la recherche sur l’émergence), la modélisation informatique est tout à fait centrale. En effet,

étant donné que le nombre de configurations que peut prendre un système, même relativement

simple, est gigantesque, l’exploration par des modèles informatiques peut nous permettre de

découvrir de manière mi-empirique, mi-théorique, des caractéristiques intéressantes de ce

système en observant les effets de changements de conditions initiales.

Mais il ne faudrait pas perdre de vue que cette exploration des modèles, que

certains appellent expériences in silico, ne peuvent pas être légitimement considérées comme

de véritables expériences. En effet, on ne teste pas le comportement du système étudié, mais

du modèle et on n’est jamais dans les mêmes conditions. Bien sûr, dans la mesure où le

modèle représente bien les propriétés du système, les résultats de simulations peuvent nous

fournir des informations précieuses impossibles à acquérir par les moyens expérimentaux

classiques. Mais cela reste hypothétique.

Ces remarques permettent déjà d’apporter quelques éléments de réponse au

problème soulevé par Fox Keller. Une des raisons pour lesquelles celle-ci doute de l’utilité de

construire des modèles très complexes est que, s’il s’agit de faire des prévisions et de

manipuler le système, il est sans doute plus simple de travailler directement sur celui-ci que

de construire une sorte de réplique. Il semble pourtant qu’il existe une profonde différence

entre un système complexe naturel et un modèle complexe qui le représente (même en

imaginant atteindre le même ordre de complexité). Premièrement, nous connaissons par

définition le modèle jusque dans ses moindres détails, ce qui n’est évidemment pas le cas des

systèmes naturels. La modélisation nous oblige à explorer le système de manière rigoureuse et

chaque fois qu’un modèle échoue, il nous offre l’occasion de remettre en question nos

connaissances et de les corriger. Les modèles permettent de faire des prédictions impossibles

avec les systèmes naturels, parce que nous ne pouvons pas, pour des raisons techniques,

237 J. H. Holland, Emergence: From Chaos to Order, Addison-Wesley, 1998.

Page 125: Thèse version3.R

125

perturber précisément toutes leurs parties. C’est l’un des avantages les plus évidents des

modèles et c’est dans ce sens qu’ils sont souvent considérés comme faisant partie du domaine

expérimental. Si l’on disposait d’un modèle très complet du développement et qui serait en

adéquation avec nos données empiriques, on pourrait dire que nos connaissances des

mécanismes moléculaires permettent de (relativement) bien rendre compte de ce processus.

Bien sûr, l’adéquation empirique ne nous dit pas qu’un modèle est vrai (et d’ailleurs par

définition et en toute rigueur un modèle est toujours faux, mais utile par rapport à un but ou

une question), mais on dispose néanmoins d’un puissant moyen de tester nos hypothèses.

Avant de conclure cette section, nous aimerions remarquer que cet effort de

reconstruction des systèmes biologiques in silico doit être rapproché de ce qu’est en train

d’accomplir ce qu’on appelle la biologie synthétique. La biologie synthétique vise

essentiellement à concevoir et construire de nouveaux systèmes biologiques assurant de

nouvelles fonctions.238 Concrètement, il s’agit le plus souvent d’introduire dans une cellule de

nouveaux composants, formant un nouveau réseau et d’étudier les propriétés de ce réseau

dans le contexte du système cellulaire. Nous ne voulons pas présenter ce domaine, mais il faut

remarquer que, de plusieurs points de vue, la biologie synthétique joue un rôle similaire à la

modélisation et permet de mieux comprendre sa démarche. Dans certains cas, les expériences

in silico peuvent être complétées par des expériences in vivo. La biologie synthétique, comme

la biologie des systèmes, étudie précisément la manière dont des propriétés émergent des

interactions entre composants. S’il est vrai qu’il est souvent difficile, voire impossible, de

prévoir exactement les propriétés qui vont émerger, le but est clairement d’expliquer

mécaniquement ces phénomènes. Cette explication passe par une reconstruction du système à

partir des éléments qui ont été identifiés par l’analyse réductionniste de décomposition. Si, en

reconstituant le mécanisme ou le système de manière symbolique, c’est-à-dire mathématique

dans le cas de la modélisation, ou de manière concrète dans le cas de la biologie synthétique,

on retrouve les propriétés émergentes à expliquer, on peut considérer que nos connaissance du

mécanisme sont relativement bonnes.

« La conjonction des techniques expérimentales avancées de la biologie

moléculaire et des outils mathématiques de la dynamique non linéaire et de la physique

statistique fournit une opportunité passionnante de progrès rapides dans la compréhension et

le contrôle du comportement cellulaire. »239

238 D. Endy, « Foundations for engineering biology », Nature, 438 (2005) : 449-453. 239 J. Hasty et al., « Engineering gene circuits », Nature, 420 (2002) : 224-230 ; D. Sprinzak et al., « Reconstruction of genetic circuits », Nature, 438 (2005) : 443-448.

Page 126: Thèse version3.R

126

C’est ainsi que les prédictions des comportements des boucles de rétroactions

positives faites par des modèles computationnels ont été confirmées par des approches de

biologie synthétique.240 Le même genre de travail a été mené pour les boucles de rétroaction

négatives241.

Un autre exemple, qui n’est pas de la biologie synthétique à proprement parler,

confirme la complémentarité des approches de reconstruction des réseaux biologiques. Il

s’agit d’une étude visant à explorer les propriétés du réseau génétique impliqué dans

l’établissement de l’axe de la drosophile que nous avons décrit plus haut.242 Les auteurs ont

utilisé une chambre en plastique pour représenter le syncitium (l’état avant la cellularisation,

c’est-à-dire où les noyaux sont dans le même cytoplasme) de la drosophile. Dans cette

chambre, un système in vitro de transcription et de traduction permettait de recréer le réseau

en question et des billes magnétiques auxquelles des ARN étaient fixés recréaient

l’hétérogénéité du syncitium. L’avantage de ce système est qu’il permet de varier des

propriétés comme la structure du réseau, la force des interactions entre les gènes ou la

viscosité du milieu et donc la vitesse de diffusion des molécules. Les aspects spatiaux de ces

processus peuvent donc être beaucoup mieux représentés. Le but était de tester différentes

hypothèses sur les mécanismes de formation de patterns, comme l’importance des répressions

entre gènes ou la vitesse de diffusion des différentes molécules. Un des avantages d’un tel

système est qu’il est possible de contrôler beaucoup plus précisément les différents

paramètres que dans des conditions in vivo. Ce qui doit retenir notre attention dans cette

étude, c’est qu’un modèle informatique de ce système a été utilisé en complément de la

construction matérielle. Ce modèle a servi à explorer l’espace des paramètres de manière plus

complète, afin de confirmer les conclusions tirées des expériences in vitro. Cet exemple

illustre très clairement l’essence des approches de modélisation : reconstruire des systèmes

complets dans le but de tester des hypothèses mécanistes.

Ce cas diffère de la biologie synthétique dans la mesure où il ne s’agit pas d’étudier

le comportement d’un système dans le contexte de l’organisme entier. Mais il vise aussi à

confirmer des prédictions théoriques par une reconstitution matérielle du système.

240 T. S. Gardner, C. R. Cantor, J. J. Collins, « Construction of a genetic toggle switch in Escherichia coli », Nature, 403 (2000) : 339–342. et aussi : F. J. Isaacs et al., « Prediction and measurement of an autoregulatory genetic module », Proceedings of the National Academy of Sciences, 100 (2003):7714–7719. 241 M. B. Elowitz, S. Leibler, « A synthetic oscillatory network of transcriptional regulators », Nature, 403 (2000) : 335-338. 242 M. Islan et al., « Engineering gene networks to emulate Drosophila embryonic pattern formation », PLoS Biology, 3 (2005) : 0488-0496.

Page 127: Thèse version3.R

127

Il faut toutefois souligner que la biologie synthétique connaît d’autres limites que

les simulations. En effet, il semble difficile de reconstituer des réseaux comprenant des

centaines de composants. En revanche, il s’agit de modèles beaucoup plus réalistes, concrets

et, insistons sur ce point, qui permettent d’étudier les propriétés d’un mécanisme dans le

contexte du système entier.

On voit donc qu’un des enjeux de toutes ces approches (modélisation et biologie

synthétique) est la reconstruction des systèmes. C’est-à-dire qu’il est essentiel de pouvoir

retrouver les propriétés à expliquer à partir des composants auxquels nous a mené la

décomposition. Il est intéressant de noter que la biochimie, qui constitue certainement le

paradigme des approches réductionnistes du vivant, a toujours accordé une grande importance

à la reconstitution des phénomènes biologiques, en d’autres termes à la démarche de synthèse.

Comme le dit Marcel Weber, « il semble que les biochimistes ne considèrent un mécanisme

comme « résolu » que lorsqu’il a été reconstitué in vitro. »243 Weber souligne à juste titre que

la reconstruction d’un système a une grande valeur épistémique parce qu’elle offre de

nouvelles possibilités d’expérimentation contrôlée.244

De ce point de vue, on voit bien que les approches traditionnellement considérées

comme réductionnistes ont toujours reconnu l’importance de la synthèse, c’est-à-dire du

passage des propriétés des composants aux propriétés des systèmes. Le projet même de

reconstitution in vitro ou d’ingénierie génétique montre qu’aucun réductionniste ne se satisfait

de connaître les propriétés des composants ; il veut voir comment des propriétés émergent des

interactions entre ces composants. Tout cela nous permet de penser que les approches de

modélisation, bien qu’elle ne se fondent pas directement sur les propriétés des composants

pris isolément, peuvent fournir un soutien à la thèse du réductionnisme explicatif, dans la

mesure où elles permettent d’expliquer comment les propriétés fonctionnelles émergent des

interactions entre molécules.

Conclusion La question qui oppose réductionnistes et anti-réductionnistes est de savoir s’il est

possible en principe d’expliquer les phénomènes fonctionnels en termes moléculaires. La

réponse à cette question dépend évidemment de ce qu’on entend par explication en termes

243 M. Weber, Philosophy of experimental biology, Cambridge, Cambridge University Press, 2004, p. 142. 244 Ibid., p. 146.

Page 128: Thèse version3.R

128

moléculaires. Nous avons vu que les objections anti-réductionnistes se fondent sur les

modèles classiques de la biologie moléculaire qui ne peuvent expliquer la complexité des

systèmes biologiques que de manière limitée. Ces critiques ignorent les bouleversements que

représente la modélisation, qui introduit de nouveaux modes de représentation et d’analyse et

qui modifie profondément la notion même d’explication moléculaire et mécaniste. Ces outils

repoussent les limites de ce qu’il est possible d’expliquer au niveau moléculaire. Il devient

possible d’expliquer l’émergence de phénomènes fonctionnels systémiques et complexes à

partir des interactions entre composants moléculaires, tout en tenant compte des effets de

contexte en intégrant un grand nombre de mécanismes.

Notre but n’est pas de défendre une position réductionniste, mais de montrer que la

biologie des systèmes suit une démarche d’extension des modèles mécanistes de la biologie

moléculaire et que cette extension doit lui permettre d’expliquer des phénomènes qui

résistaient aux anciens modèles moléculaires. Nous avons voulu tirer deux conséquences de

cette idée. Premièrement, il ne faudrait pas exagérer la rupture entre biologie moléculaire et

biologie des systèmes, car, dans les deux cas, le but est d’expliquer les phénomènes

biologiques par des modèles mécanistes au niveau moléculaire. Deuxièmement, il nous

semble imprudent, voire vain, de chercher à tracer des limites a priori à ce que peuvent

expliquer des modèles réductifs.

Toutefois, si l’on ne veut pas en rester au niveau des pures questions de principe, il

faut se pencher sur les aspects pratiques du problème et se poser la question suivante : étant

donné l’état actuel de la recherche en biologie et de ses développements prévisibles,

particulièrement des progrès de la modélisation informatique, est-il raisonnable de penser que

cette stratégie explicative sera suffisante et comblera les attentes des réductionnistes? Ou en

d’autres termes : la volonté d’expliquer les phénomènes biologiques au niveau moléculaire

constitue-elle toujours un bon credo méthodologique ? Car, comme le soulignent Laublicher

et Wagner : « Quel sens y a-t-il à défendre une position ontologique qui ne peut pas être

transformée en véritable pratique scientifique ? »245

C’est donc aux limites des modèles complexes et aux aspects pragmatiques de

l’explication que le chapitre suivant sera consacré.

245 M. D. Laubichler, G. P. Wagner, op. cit., p. 61.

Page 129: Thèse version3.R

129

Chapitre 3

Pour un réductionnisme pragmatique et pluraliste

Après avoir montré dans le chapitre précédent qu’en principe, les modèles

complexes de la biologie des systèmes permettaient l’extension des explications réductives,

nous défendrons l’idée qu’on ne peut en rester là et qu’il faut prendre en compte deux types

de limites que connaissent les modèles réductifs : d’une part, les limites pratiques et, d’autre

part, les aspects pragmatiques de l’explication et parmi ceux-ci, particulièrement le problème

de la compréhension.

Ces limites sont par nature relatives à nos moyens technologiques et cognitifs. Or,

nous l’avons dit, Rosenberg est explicite sur ce point : le fait que de telles limites existent n’a

aucune importance pour sa thèse réductionniste. On devrait donc en rester aux conclusions du

chapitre précédent. Cependant, la manière dont Rosenberg formule sa thèse ne permet pas en

réalité de l’immuniser contre ce genre d’attaque. En effet, après avoir énoncé la partie

objective de son réductionnisme, il affirme que cette thèse a des conséquences au niveau

méthodologique et des stratégies de recherche. Il soutient que la biologie moléculaire peut

dans tous les cas corriger, approfondir et améliorer nos explications. Comme nous allons le

montrer, cette dernière affirmation entraîne nécessairement la thèse réductionniste sur un

nouveau terrain, dans lequel les aspects pragmatiques de la recherche et de l’explication ne

peuvent être ignorés. Il faut souligner que sa thèse repose sur le concept d’explication et

dépend donc de lui. Nous allons préciser quelle conception Rosenberg défend, puis nous

verrons vers quelles difficultés elle l’entraîne. D’une part, nous pensons qu’elle est en tension

avec une partie de son projet, qui est de rendre compte des aspects méthodologiques de la

biologie, et d’autre part, nous défendrons une conception pragmatique de l’explication de

manière générale, qui nous paraît plus à même de rendre compte de la pratique effective de la

recherche scientifique.

Page 130: Thèse version3.R

130

Le versant méthodologique de la thèse réductionniste nous paraît soulever des

difficultés de deux ordres. Premièrement, l’idéal réductionniste peut être un mauvais guide

méthodologique et pousse parfois les biologistes à suivre de mauvaises stratégies explicatives.

Deuxièmement, une conception non pragmatique de l’explication et de la réduction est

incapable de rendre compte de certains aspects essentiels de la recherche scientifique, à savoir

la recherche par les scientifiques de principes intelligibles au-delà des modèles explicatifs

complexes. Nous défendrons par conséquent la nécessité d’une réelle prise en compte de la

compréhension dans l’analyse de la recherche scientifique.

Il faut insister sur le fait que toutes les idées que nous défendrons dans ce chapitre

ne visent pas à réfuter la thèse selon laquelle il existerait en principe une explication complète

au niveau moléculaire de tous les phénomènes biologiques. Cette thèse ne nous paraît pas

réfutable par l’examen des résultats scientifiques. C’est donc uniquement les conclusions

qu’en tire Rosenberg au niveau des stratégies explicatives et de recherche que nous voulons

critiquer. Il faut garder ce point à l’esprit, car un réductionniste qui s’en tiendrait à la thèse de

principe ne verra certainement aucun problème dans les arguments que nous discuterons.

Commençons par revenir plus en détail sur la conception de l’explication que

défend Rosenberg et qui fonde sa thèse réductionniste.

3.1. Explication causale et objective contre explication pragmatique et protagoréenne

La conception de l’explication que défend Rosenberg est tout à fait essentielle pour

comprendre son réductionnisme. Revenons sur le lien entre ces deux concepts chez

Rosenberg.

« Le réductionnisme est une thèse métaphysique, une affirmation portant sur des

explications, et un programme de recherche. La thèse métaphysique que les réductionnistes

avancent (et que les antiréductionnistes acceptent) est le physicalisme, la thèse selon laquelle

tous les faits, y compris tous les faits biologiques fonctionnels, sont fixés par les faits

physiques et chimiques ; il n’y a pas d’événements, d’états ou de processus non physiques, et

ainsi, les événements, états, et processus biologiques ne sont « rien d’autre » que physiques.

Le réductionniste affirme que la thèse métaphysique a des conséquences pour les explications

biologiques : elles doivent être complétées, corrigées, rendues plus précises, ou alors

approfondies par des explications plus fondamentales en biologie moléculaire. [...]

L’antiréductionnisme ne conteste pas l’affirmation métaphysique du réductionnisme, mais nie

Page 131: Thèse version3.R

131

qu’elle a des conséquences, que ce soit pour les stratégies explicatives ou les morales

méthodologiques. L’antiréductionniste soutient que les explications en biologie fonctionnelle

n’ont pas besoin d’être corrigées, complétées ou alors rendues plus adéquates par des

explications en termes de biologie moléculaire. »246

De toute évidence, la conception de l’explication de Rosenberg est objective et

causale. Elle semble proche de la vision de Wesley Salmon, pour qui le monde possède une

structure causale que les explications scientifiques mettent en partie au jour.247

Rosenberg fait une distinction entre deux conceptions générales de l’explication.

D’une part, une conception objective de l’explication et, de l’autre, ce que Rosenberg appelle

explanatory Protagoreanism, c’est-à-dire la thèse selon laquelle « un homme ou l’autre est la

mesure de toutes les explications possibles, de celles qui expliquent et de celles qui

n’expliquent pas. »248

Un argument fameux en faveur de cette seconde conception a été donné par Hillary

Putnam.249 Selon lui, une explication du fait qu’une cheville rentre dans un trou circulaire

dans une planche (square peg-round hole), qui est donnée en termes géométriques, est

supérieure à une explication fondée sur la mécanique quantique. Il s’agirait d’une explication

non seulement adéquate, mais également complète. L’idée est que l’explication donnée par la

mécanique quantique fournit des détails non pertinents et ne permet pas de voir ce qu’il y a de

commun à différents cas similaires. Selon Rosenberg, il s’agit d’une conception

protagoréenne, d’une part dans la mesure où la pertinence est jugée par rapport à nos intérêts

et, d’autre part, parce que la question de la similarité entre différents cas est également

relative à l’observateur. Sober a également critiqué l’argument de Putnam sur des bases

proches.250

Dans le cas de la biologie, cette conception pourrait fonder l’idée que les

explications moléculaires ne sont pas toujours les meilleures, notamment à cause des limites

cognitives des chercheurs. Mais cette idée semble inacceptable pour Rosenberg : « Mais cela

semble une victoire creuse pour l’antiréductionnisme, même si l’on accepte l’affirmation

tendancieuse selon laquelle nous ne connaîtrons jamais assez pour que de telles explications

246 A. Rosenberg, Darwinian reductionism, op. cit., p. 26, nous soulignons. 247 W. Salmon, Scientific explanation and the causal structure of the world, Princeton, Princeton University Press,1984. 248 Op. cit., p. 35. 249 H. Putnam, Mind, Language, and Reality, New-York, Cambridge University Press, 1975, pp. 295-298. 250 E. Sober, « The multiple realizability argument against reductionism », Philosophy of Science, 66 (1999) : 542-564.

Page 132: Thèse version3.R

132

aboutissent. Ce qui est pire, cela relègue l’antiréductionnisme au statut d’une affirmation sur

les biologistes, pas sur la biologie. De telles restrictions philosophiques de nos pouvoirs

épistémiques ont été régulièrement invalidées dans l’histoire des sciences. »251

Il veut donc s’en tenir à une conception objective de l’explication. Selon cette

position, il doit exister une explication complète des phénomènes biologiques au niveau

moléculaire. Le fait qu’on ne puisse l’atteindre pour des raisons pratiques n’a par conséquent

aucune importance.252

Nous allons voir plusieurs raisons qui nous poussent à dépasser cette conception

objective de l’explication et de la réduction. L’essentiel de ce chapitre sera consacré à montrer

que cette position peut être un mauvais guide méthodologique et que, d’autre part, elle ne

rend pas bien compte de la manière dont les scientifiques travaillent et la science progresse.

Mais avant de développer ces points, il faut déjà remarquer que cette conception souffre d’un

problème intrinsèque sérieux.

3.2. À quel niveau fondamental les phénomènes biologiques doivent-ils être réduits ?

Rosenberg nous dit que si l’on est physicaliste, il faut admettre que tous les faits du

monde, y compris les faits biologiques, sont déterminés par les faits physiques. De là, il en

conclut qu’il existe une explication causale complète au niveau physique et que les

explications complètes des phénomènes biologiques doivent être formulées en termes

moléculaires. Un des problèmes de cette thèse concerne sa définition du niveau fondamental.

Pourquoi faudrait-il choisir le niveau moléculaire comme niveau fondamental ? Qu’est-ce qui

permet à Rosenberg d’affirmer que les explications complètes doivent être formulées en

termes moléculaires et que c’est la biologie moléculaire qui pourra nous y conduire ?

Pourquoi ne serait-ce pas le niveau des particules ou un autre que la physique donnerait pour

fondamental ? Pourquoi l’explication des phénomènes biologiques ne devrait-elle pas être

formulée en termes de champs quantiques ? Dans ce cas, ce serait à la mécanique quantique

d’expliquer ces phénomènes.

251 Op. cit., pp. 36-37. 252 Pour un autre bon exemple de réflexion sur le réductionnisme qui ne tient absolument pas compte des limites pratiques et qui se situe entièrement au niveau des principes : M. Esfeld et C. Sachse, "La biologie entre autonomie et réduction", à paraître dans B. Fantini (ed.): Hommages à Jean Jacques Dreifuss (article disponible sur le site internet de M.Esfeld (http://www.unil.ch/philo/page43600.html).

Page 133: Thèse version3.R

133

Il semble bien que des aspects pragmatiques interviennent dans ce choix et qu’en

tout cas on ne puisse parler de conception purement objective. Il y a dans le choix de ce

niveau fondamental, deux aspects relatifs. Premièrement, il dépend clairement de l’état actuel

de la science. Depuis le milieu du vingtième siècle, on connaît bien les constituants

moléculaires du vivant et l’on a réussi à proposer beaucoup d’explications convaincantes des

phénomènes biologiques à partir de ce niveau. Mais à une autre époque, le niveau

fondamental aurait été autre, par exemple la cellule. Les bouleversements que ne vont pas

manquer de connaître la physique et la chimie risquent fort de désigner un autre niveau

comme étant le lieu de l’explication complète.

S’il est vrai que pour les biologistes le niveau moléculaire est souvent considéré

comme fondamental, ce choix reflète leurs intérêts et surtout les moyens dont ils disposent

pour analyser le vivant. Dans l’étude de la plupart des phénomènes biologiques, les

scientifiques estiment qu’il n’est pas nécessaire de décomposer le phénomène plus dans les

détails pour l’expliquer. Carl Craver a exprimé cette idée en utilisant l’expression bottom-out,

qui signifie que la descente réductionniste doit connaître une fin. Il est par exemple évident

que le biologiste moléculaire est intéressé par des propriétés comme la structure tri-

dimensionnelle d’une molécule, son poids moléculaire, les liaisons qu’elle peut établir avec

d’autres molécules, ses propriétés d’hydrophobie, etc. Les théories et modèles de la chimie

sont donc très utiles, mais il est très rare que le biologiste sente le besoin de recourir aux

propriétés quantiques des particules composant une molécule et donc d’utiliser la mécanique

quantique. Mais, s’il ne le fait pas, ce n’est pas que ce soit inutile de manière absolue, et il est

même probable qu’il sera de plus en plus nécessaire de descendre à ce niveau pour expliquer

certains phénomènes. Si le biologiste moléculaire s’arrête aux propriétés des macromolécules,

c’est parce que ce niveau est suffisamment détaillé par rapport à ce qu’il cherche à expliquer.

Il y a donc des éléments pragmatiques qui interviennent dans le choix du niveau en dessous

duquel on estime que les explications ne méritent pas d’être poussées.

Nous allons maintenant considérer les problèmes que rencontrent la thèse de

Rosenberg, lorsqu’elle comprise comme décrivant ce que doivent être les meilleures stratégies

de recherche en biologie.

Page 134: Thèse version3.R

134

3.3. Aspects pratiques de la recherche et des stratégies explicatives : pourquoi l’idéal réductionniste peut être contre-productif et trompeur

Il existe différentes raisons de penser que les explications sous forme de modèles

moléculaires constituent un bon idéal pour le développement de la biologie. Nous avons vu au

chapitre précédent que la biologie des systèmes progressait en partie par extension des

modèles moléculaires, ce qui peut conforter le réductionniste dans cette idée. Mais la

généralité de la thèse réductionniste exige de se demander si effectivement la biologie

contemporaine progresse toujours (ou pourrait toujours le faire) en suivant cette méthodologie

et cette stratégie explicative. En d’autres termes, dans quelle mesure pourra-t-on progresser

par extension de modèles moléculaires? Cette stratégie ne comporte-t-elle pas des dangers ?

Si l’on en croit les scientifiques qui parlent de cellules virtuelles et de modèles

complets au niveau moléculaire, il semble que c’est bien le chemin qui est suivi. Dans ce cas,

on pourrait accepter que la construction et l’extension de modèles moléculaires constituent la

meilleure stratégie de recherche. En outre, il faudrait admettre que la biologie des systèmes

nous mènerait à ces explications complètes au niveau moléculaire dont parlent les

réductionnistes.

Cette interprétation nous paraît toutefois poser problème. Nous allons dans un

premier temps montrer que la stratégie d’extension de mécanisme ne peut fonctionner que

dans certaines limites. Pour expliquer certains phénomènes, il faudrait étendre les modèles

moléculaires à toute la cellule ou l’organisme, voire au-delà. C’est l’idée de modèle complet.

Nous montrerons tout d’abord que cette idée n’a en réalité pas grand sens. Pour différentes

raisons, mais essentiellement à cause de limites computationnelles, construire de tels modèles,

qui reposeraient vraiment sur les propriétés moléculaires des composants cellulaires, n’est pas

envisageable dans un futur concevable. Cette idée paraîtra sans doute évidente, mais elle a des

conséquences importantes.

3.3.1. Les limites pratiques : les modèles mécanistes ne peuvent être étendus sans limites Nous avons déjà mentionné plusieurs fois les expressions « modèle complet » ou

« cellules virtuelles ». Certains scientifiques n’hésitent pas à affirmer que le but de la biologie

des systèmes est la construction de tels modèles. Il est important de souligner que les progrès

ont été tellement impressionnants dans le domaine de la modélisation, qu’il ne paraît en effet

plus complètement déraisonnable de réfléchir à de tels buts. En imaginant que les progrès

Page 135: Thèse version3.R

135

dans les techniques expérimentales et dans la puissance des ordinateurs vont continuer à

s’accélérer, il serait à moyen ou long terme (certains parlent de quelques décennies) possible

de disposer d’un modèle d’une cellule bactérienne, voire eucaryote, représentant tous les

processus biochimiques (régulation génétique, métabolisme, etc.) à un niveau détaillé. Cette

stratégie de modélisation correspond à ce que Richard Levins appelait la brute force

approach, puisqu’il s’agit de représenter autant que possible tous les aspects d’un système

complexe. L’idéal poursuivi est clairement celui de complétude.

Cependant, même en étant très optimiste sur les progrès informatiques, ce type

d’approche ne nous mènera pas à des modèles de cellules virtuelles au niveau moléculaire, si

on prend cette expression dans un sens relativement strict, c’est-à-dire un modèle qui

représenterait toutes les espèces moléculaires présentes dans une cellule. Dans un article

récent sur la modélisation du cœur, Denis Noble s’est amusé à estimer la puissance de calculs

qui serait nécessaire pour rendre compte de l’activité d’une seule cellule en partant du niveau

physique et conclut qu’il n’y a pas assez de matière dans le système solaire pour construire un

tel calculateur.253 On peut, bien entendu, douter de la pertinence, voire de la rigueur de ce

genre de spéculations, mais ces limites sont néanmoins réelles. Un bon exemple de défi que

rencontre la prédiction de propriétés émergentes est la prédiction de structure

tridimensionnelle des protéines à partir de la connaissance des atomes. D’immenses progrès

ont été réalisés ces dernières années, mais les plus gros calculateurs actuellement disponibles

ont de la peine à effectuer les calculs pour des petites protéines et on est très loin de pouvoir

faire ce genre de prédiction pour des grosses protéines. Les obstacles sont en fait très

nombreux. Nous avons déjà mentionné le fait que beaucoup de protéines existent sous des

dizaines, voire des centaines de formes différentes, qu’il faudrait idéalement représenter. Les

effets d’espace sont également à prendre en compte, ce qui exige des mathématiques plus

sophistiquées et plus difficiles à manipuler (rappelons que les équations aux dérivées

partielles sont plus difficiles à résoudre que les équations différentielles ordinaires). Il n’est

sans doute pas nécessaire de multiplier les exemples, car le problème est clair.

Un deuxième type de problème tient à la nature de ces systèmes dynamiques non-

linéaires et en particulier au phénomène de sensibilité aux conditions initiales. Pour pouvoir

faire des prédictions fiables, il faut pouvoir déterminer le plus précisément possible les

paramètres des modèles, en sachant que la précision des mesures sera toujours limitée. C’est

un problème similaire à celui des prévisions météorologiques : même en augmentant la

253 D. Noble, « Systems biology and the heart », BioSystems, 83 (2006) : 75–80.

Page 136: Thèse version3.R

136

puissance de calcul, il est impossible de faire des prévisions à long terme, car il y a toujours

des incertitudes dans les mesures. Bien sûr, un système biologique est très différent et se

comporte de manière beaucoup moins chaotique, mais dans certains cas le problème reste

entier.

Mais quelle est la pertinence de la prise en compte de ces limites dans ce débat ?

Nous avons vu que Rosenberg pense qu’un antiréductionnisme fondé sur nos limites pratiques

ou épistémique ne peut être pris au sérieux, car ce serait une thèse à propos des biologistes et

pas de la biologie. On touche là à un problème très important et délicat pour la philosophie

des sciences. D’une part, la biologie, en tant que science, peut-elle être considérée

indépendamment des scientifiques qui la font ? Rosenberg ne confond-t-il pas ici la biologie

avec le vivant ? Une thèse ontologique porte sur le monde et pas directement sur la manière

dont nous pouvons le connaître. Si le réductionnisme est véritablement une thèse ontologique,

ce ne peut pas être une thèse sur la biologie, mais uniquement sur le vivant (en admettant

évidemment que des conséquences au niveau épistémologique sont possibles). Si c’est une

thèse sur la biologie, comment ignorer totalement les scientifiques qui la font ? De manière

générale, le philosophe des sciences peut-il se contenter de parler de ce que la science devrait

pouvoir faire en principe ?

En discutant les deux problèmes que nous allons aborder dans ce chapitre, nous

espérons montrer qu’on ne peut oublier que la science est fondamentalement dépendante des

hommes qui la font et des outils qu’ils utilisent. Il nous semble important de garder à l’esprit

qu’il n’y a pas de biologie sans biologiste. Notre démarche sera précisément de parler de la

biologie telle qu’elle se pratique, c’est-à-dire avec ses limites et ses intérêts. Nous croyons

qu’une philosophie des sciences qui s’occupe de méthodologie et de stratégies explicatives et

qui a la prétention de nous aider à comprendre la nature de l’entreprise scientifique ne peut se

payer le luxe d’ignorer tous ces aspects. La philosophie des sciences a traditionnellement

accordé peu d’importance à ces limites, mais les choses sont en train de changer, notamment

grâce aux travaux portant sur le rôle des simulations. En effet, les simulations occupent depuis

peu une place centrale dans de nombreux domaines de recherche. Or, elles dépendent

directement des capacités de calcul des ordinateurs.

Paul Humphreys est l’un des chercheurs qui s’est le plus sérieusement penché sur le

cas des simulations et qui a placé les limites pratiques au centre de sa réflexion sur la science.

Selon lui, les arguments de principe sont justifiés lorsqu’il s’agit d’arguments négatifs, par

exemple le théorème de Gödel ou les relations d’incertitude de Heisenberg. Mais les principes

positifs doivent être considérés autrement.

Page 137: Thèse version3.R

137

« Pourtant, lorsque l’on s’intéresse à des résultats positifs plutôt que négatifs, la

situation est inversée – ce qui peut être fait en principe est fréquemment impossible à réaliser

en pratique. Bien entendu, la philosophie ne devrait pas ignorer ces résultats « de principe »,

mais si nous sommes intéressés par, entre autres choses, comment la science progresse, alors

la question de la manière dont la science repousse les frontières de ce qui peut être connu en

pratique devrait être du plus haut intérêt. [...] Dire, pour un but scientifique, qu’une fonction

est calculable, alors qu’elle n’est calculable qu’en principe et pas en pratique, revient à offrir à

un ami un million de dollars dans un coffre doté d’une serrure inviolable et lui dire,

« maintenant tu es millionnaire ». »254

Il est intéressant de noter que, comme Rosenberg, Humphreys refuse de juger la

science en fonction des limites épistémiques des hommes, car les progrès technologiques lui

permettent de repousser ces limites. Il partage donc le souci de prendre en compte ce que

Rosenberg appelle les prothèses de l’esprit humain. En revanche, il n’oublie pas que ces

techniques ne sont pas elles-mêmes sans limites.

Il convient ici d’examiner une autre objection générale que l’on pourrait nous faire

à propos de ce genre d’arguments. Parler de limites pratiques, c’est restreindre la validité de la

discussion à une période bien limitée, c’est-à-dire l’état présent de la science. Comment

pourrait-on en effet prévoir les développements à venir ? Comme le souligne à juste titre

Rosenberg, l’histoire des sciences est pleine de prévisions concernant ces limites qui ont vite

été balayées par des progrès inattendus. L’histoire récente de la biologie offre à cet égard de

bons exemples. Nous avons vu dans le premier chapitre de ce travail que le séquençage du

génome humain semblait complètement hors de portée dans les années 70, alors que, moins

de 30 ans plus tard, il était achevé. N’est-il par conséquent pas complètement vain de faire

dépendre cette discussion de telles limites ?

Nous reconnaissons pleinement cette difficulté, mais pensons néanmoins qu’elle ne

constitue pas une raison suffisante pour ne pas réfléchir aux limites pratiques. Il faut

reconnaître qu’il existe des limites de différentes natures et que certaines sont plus sérieuses

que d’autres et ne semblent pas devoir disparaître dans un futur concevable. Les limites

computationnelles font partie de cette dernière catégorie et diffèrent profondément de

l’efficacité des méthodes de séquençage par exemple. Bien entendu, il ne s’agit pas d’une

limite absolue et une révolution comme l’avènement d’un ordinateur quantique pourrait

évidemment rendre caduque toute notre discussion. Mais il existe néanmoins de bonnes

254 P. Humphreys, Extending Ourselves, Oxford, Oxford University Press, 2004, p. 154.

Page 138: Thèse version3.R

138

raisons (en partie théoriques) de penser qu’il est pratiquement impossible de calculer un

système aussi complexe qu’une cellule au niveau des réactions biochimiques, sans même

parler de la mécanique quantique et cela même en admettant des progrès immenses. Le fait

que des estimations effectuées il y a 30 ans de notre pouvoir de calcul actuel soient

relativement correctes nous semble un bon argument en faveur de cette idée.

3.3.2. L’idée de modèle complet : importance et limites

Delehanty semble penser que des extensions modérées de mécanismes pourraient

suffire à intégrer le contexte. Ce que nous voulons montrer ici, c’est que les réductionnistes

ont tendance à sous-estimer la complexité du contexte à prendre en compte. Il peut être

nécessaire d’être exhaustif pour expliquer des propriétés et des comportements qui

n’émergent qu’au niveau du système entier, c’est-à-dire qu’idéalement il faudrait dans

certains cas des modèles complets. En d’autres termes, un modèle mécaniste ne tiendra pas

compte de certains effets du contexte s’il n’est pas complet. C’est pour cette raison que l’idée

de cellules virtuelles, comprises comme des modèles complets, a d’une certaine manière un

véritable sens. Elle renvoie à la reconnaissance de l’insuffisance de modèles mécanistes pour

expliquer certains phénomènes et à l’importance des effets de contexte. Mais, dans le même

temps, il faut reconnaître qu’il est matériellement impossible de tout représenter au niveau

moléculaire. Les biologistes semblent pourtant parfois ignorer ces limites, lorsqu’ils parlent

de modèles complets : « La cellule ne sera jamais ‘conquise’ avant que son comportement

complet ne soit compris et le comportement complet de la cellule ne sera jamais compris

avant qu’il ne soit modélisé et simulé. La modélisation de cellule entière, qui était considérée

comme insoluble jusqu’à récemment, est soudainement devenue réaliste. »255

Un réductionniste comme Rosenberg admettra sans difficulté cette limite,

puisqu’elle ne posera pas de problème à sa conception, qui se veut indépendante de l’état de la

science à un moment donné. Il lui suffira de dire que le réductionnisme est un guide

méthodologique, une sorte d’idéal régulateur pour la science, même si l’on ne devait jamais

pouvoir atteindre ce but. Toutefois, le fait qu’il ne soit pas possible de représenter

complètement les processus biologiques au niveau moléculaire est important parce que cela

implique que les scientifiques doivent faire des choix. Ces choix portent principalement sur le

niveau de détails auquel le modèle va se situer et l’étendue du système à prendre en compte.

255 M. Tomita, « Whole-cell simulation :a grand challenge for the 21st century », Trends in Biotechnology, 19 (2001): 210.

Page 139: Thèse version3.R

139

Même en imaginant des progrès immenses en biologie des systèmes, il faudra toujours faire

des choix, les représentations seront toujours partielles. Le coeur du problème que nous

identifions ici tient au fait que l’idéal réductionniste peut mal nous guider dans ces choix ou

nous faire oublier qu’en privilégiant le niveau moléculaire, on est forcé de négliger des effets

de contexte qui n’ont, pour des raisons pratiques, pas pu être analysés dans ces modèles. C’est

la raison pour laquelle le succès d’un modèle moléculaire peut facilement conduire à

surestimer sa capacité explicative et sous-estimer la complexité du contexte à prendre en

compte ou, en d’autres termes, à accepter trop vite des modèles réductifs. L’idéal

réductionniste peut entrer en conflit avec la nécessité de s’abstraire des détails pour pouvoir

représenter des propriétés systémiques.

Commençons par voir comment le credo réductionniste peut conduire à surestimer

le pouvoir explicatif des modèles réductifs.

3.3.3. Excès de confiance dans des modèles réductifs et sous-estimation de l’importance du contexte

Un des dangers de l’idéal réductionniste que défend Rosenberg est qu’il risque de

nous pousser à accepter des modèles et des explications trop réductifs et à grandement sous-

estimer l’étendue et la complexité du contexte à prendre en compte dans nos modèles. Celui-

ci est en effet beaucoup plus compliqué que les réductionnistes ne semblent l’imaginer. Cette

complexité fait qu’il n’est pas évident que nos capacités d’analyses puissent nous permettre

d’expliquer comment certains phénomènes apparaissent en restant au niveau moléculaire.

Nous illustrerons ce danger par deux exemples. Premièrement, nous discuterons un

exemple pris par Kitcher concernant l’influence du milieu tissulaire sur l’expression d’un

gène. Contrairement à Kitcher, Rosenberg soutient qu’une explication moléculaire est

possible. Sans accepter l’argument de Kitcher, nous verrons que Rosenberg sous-estime

grandement la complexité du contexte à prendre en compte pour bien expliquer ce genre de

phénomène. Nous analyserons ensuite en détail le cas du modèle de régulation génétique

impliqué dans le développement que Rosenberg utilise pour nous convaincre de la puissance

du réductionnisme. Cet exemple est d’autant plus intéressant que certains biologistes

considèrent également ces modèles comme les explications les plus fondamentales du

développement, alors que ces modèles ignorent visiblement de nombreux processus

essentiels. Ces exemples feront apparaître très clairement les biais introduits par l’idéal

réductionniste.

Page 140: Thèse version3.R

140

3.3.4. L’influence du niveau tissulaire sur l’expression des gènes

Dans un article célèbre, Kitcher prend l’exemple suivant : un gène mutant produit

une protéine dont la structure est altérée et qui modifie la structure cellulaire. Cela a pour

conséquence de perturber les interactions entre cellules, ce qui provoque finalement des

modifications dans l’expression de certains gènes. Pour Kitcher, les réductionnistes peuvent

dire qu’il y a une description moléculaire très complexe de la situation, mais cela n’est pas

pertinent : « certains gènes ne sont pas exprimés à cause de la structure géométrique des

cellules dans le tissu : les cellules pertinentes sont trop éloignées. Quelle que soit la manière

dont c’est réalisé au niveau moléculaire, notre explication doit faire apparaître le fait

remarquable que c’est la présence d’un espace entre des cellules qui sont normalement

adjacentes qui explique l’absence d’expression des gènes... [N]ous perdons de vue les

connexions importantes en essayant de traiter la situation d’un point de vue moléculaire. »256

Selon Kitcher, on n’identifierait pas les propriétés causales pertinentes en utilisant le

vocabulaire et le type de raisonnement de la biologie moléculaire.

Rosenberg rejette l’argument de Kitcher, parce que la géométrie des cellules est du

domaine physique. Ce qui compte, ce n’est pas que certaines cellules soient trop éloignées,

mais la distance entre les molécules. Il affirme que l’effet que la présence de la cellule a sur le

développement est identique à l’effet d’une structure purement macromoléculaire (dans ce cas

une bicouche lipidique qui empêche la diffusion).

« Notons que c’est la géométrie physique de la structure qui est causalement

pertinente ici, pas le fait que la structure soit composée de tissus, ou composée de cellules.

[...] La distance spatiale entre les séquences de nucléotides et le gradient de la distribution de

la protéine maternelle sont conjointement causalement suffisants, dans les circonstances du

développement embryologique normal, pour réprimer et stimuler diverses séquences géniques

qui assurent le développement de l’aile de poulet. »257

Les processus causaux importants se limiteraient donc à la diffusion et à la distance

entre molécules. Rosenberg pense qu’on ne peut pas réconcilier l’idée de causalité

descendante avec la thèse que les faits physiques déterminent tous les faits. Son interprétation

semble raisonnable, mais elle ne répond pas à l’enjeu majeur qu’il y a derrière les appels à la

causalité descendante. Et, dans ce cas, elle est même fausse. Reprenons cet exemple. D’abord

256 Cité dans A. Rosenberg, op. cit., pp. 81-82. 257 A. Rosenberg, op. cit., p. 195.

Page 141: Thèse version3.R

141

du côté de la source du changement de géométrie : comment expliquer qu’une mutation

change la géométrie du tissu ? Cela présuppose la cellule et toutes ses propriétés, car entre une

mutation et un changement dans la structure de la cellule qui contient le gène, interviennent

une foule de processus imbriqués, faisant intervenir les complexes impliqués dans la

transcription et la traduction, les propriétés du milieu intracellulaire, ou encore le

cytosquelette. C’est ce qui caractérise la cellule en tant que système physique complexe.

Ensuite, du côté de l’influence du gradient sur l’expression des gènes, cela n’est pas toujours

aussi simple que Rosenberg le pense. La distance ne suffit pas, puisque généralement il y a

différents processus entre la diffusion d’un ligand et l’ADN. Comme nous l’avons montré

dans le chapitre précédent, il peut y avoir des régulations au niveau des récepteurs sur la

membrane, et surtout au niveau des voies de signalisations qui « traitent les signaux » et qui

font que l’effet d’un signal sera différent selon le contexte cellulaire. Bien entendu, tout cela

reste constitué de processus physiques, mais des processus qui sont caractéristiques d’une

cellule. Ce que veulent souligner à juste titre certains antiréductionnistes, c’est que l’on ne

peut pas comprendre ce genre de phénomène si l’on ne tient pas compte de la cellule dans son

entier. Rosenberg reprend l’argument selon lequel le pouvoir causal d’une cellule est le même

que celui de ses constituants physiques. (Mais pour lui cela ne veut pas dire qu’il faudrait

abandonner l’usage du premier, il n’est pas éliminativiste). « Ici, nous devons tenir compte de

l’idée de Kim selon laquelle les termes fonctionnels n’identifient pas des types distincts «de

haut niveau » avec des propriétés causales distinctes « de haut niveau ». Ils sont, plutôt, des

termes « d’ordre supérieur », qui désignent les mêmes propriétés que les termes « de bas

niveau » – moléculaires – désignent. »258 La causalité descendante serait donc une illusion.

Nous reviendrons à la fin de ce chapitre sur ce problème.

Il est intéressant de voir comment Rosenberg interprète l’exemple de Kitcher, car

cela en dit long sur sa vision des explications en biologie moléculaire. Le problème est qu’il

rêve d’explications moléculaires simples : dans ce cas, que l’on puisse tout expliquer avec une

bi-couche lipidique et un brin d’ADN. Nous avons dit au chapitre précédent que la thèse

réductionniste n’exigeait pas qu’une relation causale simple puisse être trouvée, et c’est

pourquoi les contre-arguments de Laubichler et Wagner ne suffisaient pas à la réfuter. Mais

ce sur quoi nous voulons insister ici, c’est que le réductionnisme introduit un biais

interprétatif dangereux : il nous fait croire que des relations causales relativement simples

peuvent être identifiées.

258 Ibid., p. 196.

Page 142: Thèse version3.R

142

Il est vrai que si l’on est physicaliste, on doit reconnaître que la cellule n’est rien

d’autre qu’une structure moléculaire. Rosenberg a raison de penser que l’influence du niveau

tissulaire doit pouvoir être étudiée au niveau moléculaire, mais ce processus est beaucoup plus

compliqué qu’il ne l’imagine. Le problème c’est que cette structure peut être si complexe

qu’on peut avoir beaucoup de peine à voir ce qui produit l’effet que l’on observe. Dans

certains cas, ce ne peut être rien de moins que l’ensemble de cette structure. Nous avons dit

que les modèles complexes permettaient d’expliquer comment des réseaux moléculaires

pouvaient produire des phénomènes fonctionnels, mais si le contexte à prendre en compte

pour expliquer comment le signal est interprété par la cellule est très large, on ne pourra pas

de manière satisfaisante le représenter, et donc l’expliquer, en restant au niveau moléculaire.

3.3.5. Les réseaux de régulation génétique comme modèles complets du développement Rosenberg affirme que le réductionnisme est une stratégie de recherche qui marche,

et même qu’il s’agit de la meilleure stratégie concevable. Pour gagner l’adhésion du lecteur, il

présente en détail un exemple de modèle réductif qu’il juge suffisamment convaincant. « Le

réductionniste doit prouver la faisabilité du programme par un exemple bien étudié.»259 Cet

exemple est classique et nous en avons déjà parlé au chapitre précédent ; il s’agit des modèles

de réseaux de régulation génétique impliqués dans le développement de la drosophile. Pour

lui, ces modèles constituent bien la preuve que le réductionnisme est la meilleure stratégie de

recherche en biologie et que les modèles réductifs nous donnent les meilleures explications.

Cet exemple représente un des piliers de son argumentation en faveur du

réductionnisme. Le fait que la génétique moléculaire du développement connaisse de si

grands succès serait, sinon une preuve, au moins une indication forte que le réductionnisme

tel qu’il le conçoit est une réalité. « En 1953, le réductionnisme était pure philosophie.

Aujourd’hui, c’est un programme de recherche prospère. Demain, ce sera un truisme

évident. »260

Notre but sera ici de voir dans quelle mesure ces progrès incontestables soutiennent

la thèse de Rosenberg. Nous essaierons de montrer que, si ces modèles sont féconds et

informatifs, ils connaissent certaines limites importantes qu’il convient de ne pas perdre de

vue. Or, Rosenberg, ainsi que certains biologistes, semblent oublier ces limites et accorder à

ces modèles un pouvoir explicatif presque absolu.

259 Ibid., p. 56 260 Ibid.

Page 143: Thèse version3.R

143

L’exemple sur lequel se fonde Rosenberg est un modèle booléen d’un réseau de 28

gènes impliqués dans la segmentation de la drosophile (nous avons déjà introduit ce réseau en

présentant les travaux du groupe de Gary Odell, mais il s’agit ici d’un autre travail, un modèle

booléen de ce réseau réalisé par Bodnar261). Ce modèle part d’un gradient initial de protéines

maternelles (bicoid, torso et tailless) et à partir des interactions entre ces gènes, il permet de

retrouver les patrons d’expressions des différents gènes dans les segments de l’embryon.

Rosenberg tire du succès de ce modèle une conclusion très forte. En réalité, en

discutant cet exemple, Rosenberg défend plusieurs thèses réductionnistes, qui doivent bien

être distinguées. Pour lui, ce modèle prouve non seulement la validité de sa thèse

réductionniste dans sa formulation générale, telle que nous l’avons discutée, mais également

une forme de réductionnisme génétique, qui se fonde sur une interprétation très forte et

littérale du concept de programme génétique. Voyons en quels termes il décrit ces résultats :

« Il devint évident pour les biologistes moléculaires que, dans la construction de

l’embryon, les gènes opèrent conformément à des règles booléennes de commutation, dans un

petit nombre de programmes linéaires relativement simples. Il faut souligner que je ne prends

pas cette affirmation dans un sens métaphorique. Comme je l’illustrerai et ensuite le

défendrai, les gènes programment littéralement la construction de l’embryon de Drosophila,

de la façon dont les logiciels dans un robot programment le montage du châssis d’une

voiture. »262 Il continue en écrivant : « Le développement de l’embryon de Drosophila

réalise, exemplifie, instancie une séquence d’étapes complètement descriptibles par un

ensemble de règles booléennes, qui révèlent comment chaque étape est une fonction

algorithmique de sortie des états précédents, conformément à ces règles. Ainsi, au fond, le

développement de Drosophila suit simplement un programme qui, à chaque processus

moléculaire, produit un output, qui est traité par le processus suivant conformément aux

règles booléennes (extensionnelles), qui peuvent également être implémentées par n’importe

lequel parmi différents ordinateurs de bureau ou portables. »263

On pourrait penser que seul un philosophe pourrait se laisser tromper par le succès

d’un modèle scientifique et en tirer des conclusions hâtives. Or, on trouve chez certains

biologistes un enthousiasme comparable. Eric Davidson, qui est l’un des pionniers dans ce

domaine, défend une interprétation extrêmement forte de ces modèles. Son idée est que le

261 J. W. Bodnar, « Programming the Drosophila embryo », Journal of Theoretical Biology, 188 (1997) : 391-445. 262 Ibid., p. 61. 263 Ibid., p. 62.

Page 144: Thèse version3.R

144

développement est codé, ou encore « cablé » (hardwired) dans le génome. Plus précisément, il

pense que l’ensemble des éléments de régulation de la transcription contrôle le

développement et qu’un modèle fondé sur les interactions entre facteurs de transcriptions et

séquences régulatrices permet d’expliquer tous les processus majeurs du développement,

comme on le constate dans ces deux citations :

« Le lieu du contrôle programmatique de chaque événement est la séquence des

éléments régulateurs en cis particuliers, qui répondent aux inputs présentés. »264

« En déterminant la succession des transactions régulatrices en cis fondées sur la

séquence d’ADN, qui gouvernent l’expression spatiale des gènes, il est possible de répondre à

la question de savoir pourquoi une quelconque partie du développement se produit. »265

De son point de vue, des processus comme les voies de signalisation sont

importantes, mais uniquement dans la mesure où elles permettent de transmettre des signaux

d’un gène à un autre. Il ne semble pas reconnaître que des processus essentiels pour la

régulation et le contrôle du développement puissent se dérouler ailleurs qu’au niveau de la

régulation de la transcription. Son concept de programme génétique, laisse bien une place à la

« machine » qui est censée le lire, c’est-à-dire la cellule, mais lui confère un rôle

fondamentalement passif. Comme les véritables causes se situent au niveau des régulations

génétiques, c’est aussi là que les meilleures explications doivent être formulées.

« Le modèle de réseau lie directement au génome ces propriétés développementales

du processus de la spécification de l’endomésoderme, parce qu’il est formulé en termes

d’interactions régulatrices en cis au niveau de l’ADN. Le modèle représente ainsi une

esquisse du programme développemental, mais le programme n’est pas la machine. Le réseau

de régulation de l’ADN coexiste avec de nombreux autres systèmes multi-composants, qui

constituent la machine. Ces systèmes exécutent les fonctions biochimiques, produisent les

voies de transduction de signaux, et causent la réalisation des changements biologiques

cellulaires. Ils représentent la majorité des parties actives de la cellule. Leur mobilisation est

contrôlée par les commutateurs transcriptionnels qui les lient au système génomique de

régulation et de contrôle. »266

Nous ne nous étendrons pas sur les conceptions de Davidson. Celles-ci ne font sans

doute pas l’unanimité dans la communauté des biologistes du développement, mais il faut

reconnaître que ses travaux jouissent d’une grande publicité et d’un véritable respect,

264 E. H. Davidson, « A genomic regulatory network for development », Science, 295 (2002): 1669. 265 Ibid. 266 Ibid., p. 1677.

Page 145: Thèse version3.R

145

certainement mérité. Nous ne remettons d’ailleurs en question ni la qualité, ni l’intérêt, ni la

fécondité de ces recherches. Mais, comme nous le verrons un peu plus bas, on peut douter de

certaines interprétations qu’il en donne.

Mais revenons aux thèses de Rosenberg. Comme on l’a dit, il veut montrer que le

réductionnisme qu’il défend est un programme de recherche qui marche. Mais que réussit-il

réellement à montrer au travers de son exemple ? De manière générale, que faut-il entendre

par l’idée de faisabilité du programme réductionniste ?

La manière dont il se sert du succès de ce modèle pour asseoir ses thèses est

critiquable de plusieurs points de vue. Une première objection concerne le fait qu’il est

discutable de tirer des conclusions fortes à partir du succès que rencontre un certain

formalisme dans la description d’un système. Dans le cas des réseaux de régulation génétique,

non seulement d’autres formalismes peuvent convenir (par exemple des systèmes d’équations

différentielles), mais en outre certains phénomènes ne peuvent pas être bien modélisés par des

réseaux booléens. Nous aimerions à ce propos citer deux biologistes qui soulignent bien les

limites des modèles booléens :

« Les réseaux booléens permettent d’analyser des grands réseaux de régulation de

manière efficace, en faisant des présuppositions simplificatrices fortes, concernant la structure

et la dynamique d’un système génétique de régulation. Dans le formalisme des réseaux

booléens, un gène est considéré comme actif ou inactif, et les niveaux intermédiaires

d’expression sont négligés. Par ailleurs, les transitions entre les états d’activation des gènes

sont supposés se produire de manière simultanée. Lorsque les transitions n’ont pas lieu

simultanément, comme c’est habituellement le cas, certains comportements pourraient ne pas

être prédits par l’algorithme de simulation. Il existe des situations dans lesquelles les

idéalisations sous-tendant les réseaux booléens ne sont pas appropriées, et des méthodes plus

générales sont nécessaires. »267

La deuxième citation souligne encore plus explicitement les aspects pragmatiques

de la modélisation booléeene et ses limites : « Le modèle présenté ici fait partie d’une famille

plus large de modèles utilisant une approche logique des réseaux de régulation génétique.

Comme ces modèles l’ont illustré, cette approche permet l’intégration, en une image

cohérente, d’observations qualitatives sur les interactions entre gènes, en ajoutant un

minimum d’hypothèses cinétiques complémentaires. L’analyse d’un modèle booléen est plus

facile à mener que celle d’un modèle fondé sur des équations différentielles, qui a 267 H. De Jong, “Modeling and Simulation of Genetic Regulatory Systems: A Literature Review”, Journal of Computational Biology, 9 (2002): 74.

Page 146: Thèse version3.R

146

inévitablement de nombreux paramètres inconnus, et un modèle booléen facilite une étude

plus systématique des états d’équilibre possibles et leurs bassins d’attraction. Nous

considérons la modélisation booléenne fondée sur des topologies réalistes comme une

première étape importante dans la compréhension des relations entre la topologie et la

dynamique des réseaux de régulation génétique et pour tester la complétude des données

topologiques disponibles. Alors que le réseau des gènes de polarité segmentaire a été

modélisé avec succès par un simple modèle booléen binaire et synchrone, d’autres réseaux

exigent des modèles plus détaillés, incorporant la mise à jour asynchrone et/ou des variables

multi-niveaux. Bien entendu, il existe sans aucun doute des systèmes, comme les réseaux

métaboliques, pour lesquels une approche booléenne pourrait ne pas être un premier niveau

d’analyse approprié. »268

Ces remarques sont importantes puisqu’elles rappellent que tout formalisme n’est

capable de décrire qu’un ensemble limité de phénomènes et de systèmes et n’est satisfaisant

que jusqu’à un certain point. C’est pourquoi nous avons insisté sur l’irréductible diversité des

formalismes utilisés en biologie des systèmes.

Mais au-delà de la question du formalisme, on peut se demander en quel sens il

faudrait comprendre qu’un tel programme puisse décrire complètement le développement,

comme le suggère Rosenberg (rappelons sa thèse : « le développement de l’embryon de

drosophile réalise, examplifie, instancie une séquence d’étapes complètement descriptible par

un ensemble de règles booléennes »). De toute évidence, un tel modèle ignore une foule de

processus essentiels pour le développement. On peut bien entendu dire qu’étant donné nos

intérêts et limites, un tel modèle est suffisamment complet. Mais il est clair que Rosenberg

veut dire quelque chose de beaucoup plus fort, puisqu’il rejette les aspects pragmatiques de

l’explication.

Pour éclaircir ce point, imaginons que nous disposions d’un modèle d’un réseau

génétique incluant tous les gènes et leurs interactions. Peut-on considérer qu’il s’agirait d’un

modèle complet du développement ? Il est difficile de voir comment on pourrait affirmer qu’il

serait complet, puisqu’on ne comprendrait pas comment l’état d’expression d’une cellule

détermine ses propriétés, par exemple la manière dont elle migre (bien qu’on pourrait

constater que les protéines impliquées dans la motilité cellulaire sont produites pas la cellule).

En effet, les mouvements cellulaires sont produits en partie par des processus complexes au

niveau du cytosquelette et, bien que ces processus dépendent des gènes et de leur expression, 268 R. Albert, « Boolean Modeling of Genetic Regulatory Networks », Lecture Notes in Physics, 650 (2004): 479-480.

Page 147: Thèse version3.R

147

on ne peut ni les représenter, ni les expliquer au seul niveau de la régulation des gènes. Il

faudrait donc inclure une représentation des processus dynamiques de polymérisation des

microtubules, de modification des structures membranaires, etc.

Si l’on poursuit cette réflexion sur les limites de tels modèles, on s’aperçoit que

s’ils prennent en compte les interactions entre cellules, ils le font de manière peu fine. Ici

encore, les processus complexes qui ont lieu entre la liaison d’un ligand à des récepteurs et la

régulation de la transcription ne doivent pas être négligés. Cette dimension de la régulation

cellulaire et développementale n’est pas représentée par des réseaux booléens. Il faut

également remarquer que des signaux extracellulaires peuvent agir à d’autres niveaux que la

régulation des gènes, par exemple directement sur le cytosquelette.269 D’autre part,

l’expression des gènes est régulée à d’autres niveaux que la transcription : les régulations de

la traduction semblent jouer certains rôles importants dans le développement. En outre,

l’expression des gènes est également influencée par d’autres types de facteurs, comme la

température ou les forces mécaniques.270 Scott Gilbert a récemment discuté l’importance des

facteurs environnementaux pour le développement et particulièrement au niveau de la

régulation de l’expression des gènes.271 On sait par exemple que les bactéries symbiotiques

qui peuplent en masse notre système digestif influencent l’expression des gènes de nos

cellules de l’intestin. Cette influence est non seulement tout à fait normale, mais la

différenciation de ces cellules ne peut tout simplement pas se faire complètement sans la

présence de certaines bactéries. Suivant les espèces, l’activité de dizaine de gènes pourrait être

modifiée par ces bactéries.

Tous ces aspects sont fondamentaux pour comprendre le développement et l’on ne

peut certainement pas parler de modèle complet si ces processus ne sont pas intégrés. Le

genre de modèle booléen sur lequel s’appuie Rosenberg ne peut toutefois pas rendre compte

de toutes ces dimensions. Ce que nous critiquons, ce n’est évidemment pas le fait que ces

modèles ignorent tous ces processus, mais que Rosenberg (et d’une certaine manière

Davidson) semble oublier que des choix ont été faits lors de la modélisation, ou du moins

sous-estimer sérieusement l’importance de ces choix. 269 M. Raftopoulou et A. Hall, « Cell migration: Rho GTPases lead the way », Developmental Biology, 265 (2004) : 23-32. 270 Pour ce dernier cas voir E. Brouzés et E. Farge, “Interplay of mechanical deformation and patterned gene expression in developing embryos”, Current Opinion in Genetics & Development, 14 (2004): 367-374 et aussi D. E. Ingber, « Tensegrity I et II », Journal of Cell Science, 116 (2003) : 1157-1173 + 1397-1408 ; D.E. Ingber, « Mechanical control of tissue growth : function follows form », Proceedings of the National Academy of Sciences, 102 (2005) : 11571-11572. 271 S. F. Gilbert, « Mechanisms for the environmental regulation of gene expression: Ecological aspects of animal development. », Journal of Biosciences, 30 (2005) : 101-110.

Page 148: Thèse version3.R

148

Rosenberg n’envisage qu’un type de critique qu’on pourrait lui faire. Il reconnaît

qu’étant donné qu’il n’y a pas de principes universels en biologie, il se peut que ce type

d’explication connaisse des limites. « Ainsi, peu importe jusqu’où l’on accumule les détails

soutenant la stratégie explicative consistant à découvrir le programme génétique, nous

laissons formellement ouverte l’affirmation existentielle qu’il existe quelque part un contre-

exemple à ce programme de recherche. »272 Sa réponse est qu’à partir d’un certain point, la

charge de la preuve doit passer à ceux qui s’opposent au réductionnisme. Le fait que le même

genre de processus ait été découvert dans des organismes très différents, conduit Rosenberg à

penser que ce point a maintenant été atteint.

Ce n’est cependant pas du tout ce que nous voulons suggérer. Notre idée n’est pas

qu’il existerait un contre-exemple à proprement parler qui falsifierait ce programme de

recherche, mais plutôt que cette stratégie explicative laisse dans l’ombre beaucoup de

phénomènes essentiels pour comprendre le développement. Il ne s’agit donc pas de dire que

les réseaux génétiques fonctionnent de manière complètement différente dans d’autres

organismes ou à d’autres étapes du développement, mais simplement que d’autres types de

modèles, avec d’autres formalismes, et situés à d’autres niveaux, sont et resteront nécessaires.

Cet oubli du caractère fondamentalement partiel de ces modèles de réseaux

génétiques a deux conséquences qui peuvent être fâcheuses.

Premièrement, on risque de passer trop vite du succès d’un modèle à des

conclusions générales sur la nature des systèmes étudiés. Dans le cas de Rosenberg, il s’agit

de son réductionnisme génétique et de sa conception littérale du programme génétique. Le

biais réductionniste de Rosenberg le conduit à ne pas toujours distinguer clairement sa thèse

générale de son réductionnisme génétique. Il écrit par exemple : « Même si l’on suppose que

l’action des 28 gènes identifiés jusqu’à la fin du vingtième siècle dans le développement de

l’embryon de Drosophila, est compris avec raison comme réalisant un programme

informatique, pourquoi supposer que le reste des détails du développement et du

comportement de Drosophila sont également intelligibles d’un point de vue purement

macromoléculaire ? »273

Le problème dans ce passage est que Rosenberg semble considérer comme

équivalent le fait que le développement puisse s’expliquer en termes de programme et qu’il

puisse être intelligible en restant au niveau moléculaire. Or il ne s’agit pas du tout de la même

chose. On peut rejeter son idée de programme génétique et néanmoins penser que le 272 Ibid., p. 77 273 A.Rosenberg, op. cit., p. 73.

Page 149: Thèse version3.R

149

développement pourra être complètement expliqué au niveau moléculaire. Le point important

est qu’il admet un peu rapidement qu’on tient une explication complète.

Dans le cas de Davidson, il s’agit de son idée que le génome contrôle le

développement. Dans les deux cas, c’est l’idée que le génome, à travers les régulations

transcriptionnelles, constitue le lieu privilégié de contrôle du développement et par

conséquent le niveau auquel il doit être expliqué. Le problème de la conception qu’ont

Davidson et Rosenberg des réseaux de régulation génétique est le même que lorsque Lewis

Wolpert posait la question : pourra-t-on calculer le développement à partir de l’ADN, les

ARN et les protéines ? Si l’on prend l’idée de calcul sérieusement, la réponse est évidemment

non, puisqu’on laisse de côté beaucoup trop d’éléments essentiels.

La morale est que des modèles de réseaux de régulation génétique, aussi complexes

et détaillés soient-ils, ne pourront jamais être des explications complètes du développement.

Le deuxième problème, c’est que, du point de vue méthodologique, les biologistes risquent de

s’enfermer dans un cadre et ne plus pouvoir accorder de l’attention aux autres aspects lorsque

c’est nécessaire. Certains phénomènes ne pourront être expliqués. En d’autres termes, il

risque de négliger l’absolue nécessité de développer d’autres types de modèles, qui devront

idéalement être combinés (nous reviendrons plus bas sur le principe d’intégration des

modèles).

Notre but n’est donc pas de défendre un antiréductionnisme fort. Il ne s’agit pas de

chercher à prouver que la thèse de Rosenberg est fausse. Nous voulons simplement souligner

qu’en ignorant complètement les limites que peut connaître ce programme de recherche,

Rosenberg affaiblit sa position.

Il n’est pas non plus question de critiquer ces modèles en disant qu’ils sont

mauvais, ni même d’en donner une interprétation purement instrumentaliste. Le fait que des

réseaux booléens puissent fournir de bons modèles des réseaux génétiques nous révèle

certainement des aspects importants de ces systèmes. Mais il faut rester prudent et garder à

l’esprit qu’il s’agit de modèles très partiels de ce que l’on connaît, sans même évidemment

parler de tous les processus que l’on ignore. Imaginer que nous puissions en tirer des

descriptions ou des explications complètes pose de sérieux problèmes. De même, il ne faut

pas présupposer que ce genre de formalisme sera pertinent dans tous les cas. En bref, il ne

faut pas seulement être attentif aux succès d’un type de modèle, mais aussi, et en un sens plus

encore, à ses limites. En bref, une trop grande soif de modèles réductionnistes peut pousser à

des mauvaises interprétations de résultats réellement importants au niveau moléculaire.

Page 150: Thèse version3.R

150

Ce type de critique n’est bien sûr pas nouveau et le danger que peut représenter une

orientation excessivement réductionniste a souvent été souligné. Nous pouvons rapidement

citer quelques exemples en médecine que discute Van Regenmortel (il faut toutefois noter que

son analyse générale du réductionnisme appelle les mêmes critiques que nous avons faites

dans le chapitre précédent, puisqu’il identifie le réductionnisme à l’incapacité d’accepter les

phénomènes émergents). Son idée est que la méthodologie extrêmement réductionniste qui

prévaut dans la recherche bio-médicale explique en partie les progrès relativement limités

dans la découverte de nouvelles thérapies, alors que les données moléculaires abondent. Il cite

notamment le cas de la conception rationnelle des vaccins : il s’agit dans ce cas de concevoir

de nouveaux vaccins à partir de l’étude la structure des antigènes. C’est la manière dont on

procède pour la mise au point de certains médicaments, mais dans le cas des réactions

immunitaires, la situation est nettement plus complexe que dans la liaison d’un médicament à

une molécule cible (par exemple à un récepteur). Plusieurs problèmes se posent.

Premièrement, un épitope ne peut être défini que par rapport à une réaction avec un anti-

corps. Deuxièmement, il ne suffit pas de trouver un anti-corps qui se lie à l’agent pathogène,

il faut en outre qu’il y ait une réaction fonctionnelle, capable de neutraliser le pathogène. Il

n’est pour l’instant pas possible de prédire l’activité fonctionnelle à partir de l’étude de la

structure de l’anti-corps. Il faut également tenir compte d’effets de synergie entre différents

anti-corps : parfois la liaison d’un anti-corps induit un changement conformationnel de

l’antigène, ce qui augmente son accessibilité à d’autres anti-corps. Pour ces raisons, ainsi que

pour d’autres, chercher à concevoir des vaccins à partir de l’étude de structures chimiques

semble être une mauvaise stratégie, en tout cas moins bonne que les méthodes empiriques

d’essais et d’erreurs.

On peut également citer le cas de l’identification de gènes responsables de diverses

pathologies. Comme cela a souvent été souligné, les biologistes ont souvent tendance à

identifier un peu rapidement des gènes comme causes d’une maladie à partir de quelques

expériences de perturbations. On peut voir dans ces dérives, la conséquence d’un trop grand

empressement à trouver une explication moléculaire des phénomènes biologiques.

3.3.6. Niveaux de description et d’explication : le pluralisme de la biologie des systèmes Nous voudrions maintenant montrer comment une partie des progrès réalisés par les

approches dites systémiques correspond non pas à une « descente » dans les détails

moléculaires, mais à un effort d’abstraction et à la construction de modèles qui évitent de

Page 151: Thèse version3.R

151

représenter les processus avec un grain trop fin. Ces modèles correspondent également à un

déplacement du poids de l’explication : celui-ci repose moins sur les détails moléculaires et

davantage sur des propriétés structurales, organisationnelles et systémiques.

On entend souvent dire que le but des nouvelles approches est de parvenir à une

compréhension systémique, mais cette formule n’est pas toujours très claire. Une manière

simple de préciser ce qu’on entend par là est de dire qu’il s’agit de représenter non pas des

mécanismes moléculaires, mais des états et des comportements dynamiques de systèmes. Un

système est bien un ensemble de mécanismes moléculaires, mais il n’est pas toujours possible

de le représenter comme tel. C’est pour cette raison que les progrès viennent parfois d’un

mode de représentation qui ignore les détails mécanistiques pour se focaliser sur ces

propriétés plus abstraites.

On peut considérer que la question de la réduction prend ici la forme d’un problème

de représentation. Tout l’enjeu est de pouvoir représenter des phénomènes qui ont longtemps

été ignorés par la biologie moléculaire. Le fait que cette dernière ait négligé ces phénomènes

systémiques s’explique, bien entendu, en partie par le manque de données expérimentales et

le faible développement des outils de modélisation disponible. Mais il faut en outre

reconnaître que, jusqu’à très récemment, peu de biologistes ont senti le besoin d’analyser les

propriétés systémiques au-delà des détails moléculaires sur lesquels ils ont porté toute leur

attention. Le problème est donc que la trop grande attention aux détails moléculaires a rendu

certains biologistes aveugles aux aspects systémiques. C’est en ce sens que nous pensons que

l’idéal réductionniste n’est pas toujours un bon principe méthodologique.

Des phénomènes systémiques masqués par les détails

Nous allons rapidement voir comment les détails peuvent masquer certaines

propriétés systémiques et comment le développement de modèles « grossiers » peut parfois

corriger cette cécité.

Le premier cas que nous voulons examiner concerne la régulation du métabolisme.

Au cours du vingtième siècle, les biochimistes ont découvert et étudié en détail un nombre

immense de réactions biochimiques qui permettent aux cellules de produire l’énergie et les

constituants dont elles ont besoin. Ces réactions s’organisent en voies et en cycles. Une voie

métabolique est une succession de réactions biochimiques qui permet la transformation d’un

composé en un autre. Ces voies doivent absolument être régulées de manière à ce que la

cellule dispose en tout temps et en toutes circonstances des molécules qui lui sont nécessaires

Page 152: Thèse version3.R

152

mais sans que des substances potentiellement dangereuses ne s’accumulent. Les biochimistes

ont découvert des mécanismes de régulation au niveau des réactions enzymatiques. Ce mode

de régulation correspond au principe de l’étape limitante. Simplement énoncé, ce principe dit

que le produit final d’une voie va exercer un contrôle négatif sur une des enzymes de cette

voie. Ce type de boucle de rétroaction permet un ajustement des besoins et de la production :

lorsque le produit est présent en grande quantité, la « vanne » est fermée, mais lorsque le

produit est rapidement consommé dans un autre processus cellulaire, la répression est levée et

le produit à nouveau synthétisé.

Ce type de régulation a été étudié en détail par des approches in vitro et a fourni des

explications qui semblaient tout à fait satisfaisantes. Dans un tel schéma, l’activité globale

d’une voie est donc expliquée par les propriétés d’une ou de quelques enzymes. Il s’agit donc

de modèles classiques très réductionnistes, dans le sens critiqué habituellement, puisqu’ils

expliquent les phénomènes de régulation au niveau des propriétés des enzymes isolées.

Mais en se concentrant trop sur des composants, sans poser des questions au niveau

du système, les biochimistes ont manqué certains aspects importants de la régulation de ces

voies. En effet, ce modèle s’est révélé être beaucoup trop simple et en partie inadéquat. Il a

notamment donné des prédictions fausses. Une des conséquences de ce modèle était que, si

l’on augmentait l’activité de l’enzyme censée contrôler la voie, on aurait dû pouvoir

augmenter la concentration du produit final de cette voie. Ce principe a, bien entendu,

intéressé l’ingénierie biologique. Cependant, plusieurs tentatives ont donné des résultats

décevants, voire même étonnants puisque, dans certains cas, l’effet contraire fut observé. Un

bon exemple est la tentative d’augmentation de la production d’amidon par des pommes de

terre via la surproduction d’enzymes de la voie de synthèse de l’amidon. Le résultat de ces

expériences fut plus que décevant, car la taille des pommes de terre diminua !274

Dès les années 60, certains chercheurs avaient anticipé les limites du modèle

standard en imaginant que le contrôle était non pas localisé dans une seule étape, mais partagé

entre toutes les enzymes d’une voie métabolique. Un nouveau cadre d’analyse, appelé

Metabolic Control Analysis (l’expression Metabolic Control Theory a été utilisée

originairement) fut développé d’abord par Kacser & Burns275, puis Heinrich & Rapoport276,

274 G. Leggewie et al., « Overexpression of the sucrose transporter SoSUT1 in potato results in alterations in leaf carbon partitioning but has little impact on tuber morphology », Planta, 217 (2003) : 158-167. Cet exemple est cité dans R. Goodacre et al., « Metabolomics by numbers », Trends in Biotechnology, 22 (2004) : 245-252. 275 H. Kacser ans J. A. Bums, « The control of flux », Symposia of the Society for Experimental Biology, 27 (1973) : 65-104.

Page 153: Thèse version3.R

153

afin de rendre compte de ces phénomènes. Ces deux approches ont ensuite fusionné.277

L’idée sur laquelle repose ce cadre d’analyse est qu’il existe dans tout système

métabolique une certaine quantité définie de contrôle de flux et de concentration des

métabolites et que cette quantité est distribuée quantitativement entre les enzymes qui

composent le système. Ce principe est exprimé sous la forme du théorème de sommation de

contrôle du flux, qui énonce que la somme de tous les coefficients de contrôle pour un flux est

toujours 1. La conséquence directe de ce théorème est que, quand une réaction change son

contrôle du flux, ce changement est compensé par des modifications du contrôle de toutes les

autres réactions. Il est évidemment toujours concevable qu’une étape contrôle totalement le

flux (si son coefficient est égal à 1), mais cette approche permet de tester l’hypothèse

opposée.

Le but est donc de déterminer les coefficients de contrôle de chaque enzyme. Un

coefficient de contrôle mesure le changement relatif dans l’état d’équilibre d’une variable

(concentration ou flux) en réponse à un changement relatif d’un paramètre (l’activité d’une

enzyme). Ces techniques sont proches de ce qu’on appelle en ingénierie la sensitivity analysis,

qui correspond à la détermination de l’effet d’un petit changement de paramètre sur une

propriété systémique. Cette détermination passe par des approches expérimentales. Le but est

toujours de perturber un composant du système et de mesurer l’effet sur le système.

Sans entrer dans le détail, retenons que ces approches systémiques ont montré que

les phénomènes de contrôle étaient nettement plus complexes et ne pouvaient se comprendre

qu’au niveau du système. Il était difficile de formuler, ni de tester la thèse selon laquelle le

contrôle est partagé entre tous les éléments, en se focalisant sur les propriétés d’une enzyme.

Ce sur quoi nous voulons avant tout insister, c’est que cette approche opère

délibérément une abstraction par rapport aux détails moléculaires afin de pouvoir représenter

ces phénomènes de régulation. Athel Cornish-Bowden exprime clairement ce point :

« L’analyse du contrôle métabolique tend à traiter les propriétés métaboliques des

enzymes composantes comme une boîte noire. Certains auteurs ont vivement critiqué cela,

suggérant qu’éclaircir le mécanisme est bien la seule raison d’étudier la cinétique. Cependant,

en réalité, c’est le type d’abstraction habituel que l’on trouve (et dont on a besoin) à tous les

niveaux de la science. Bien que la mécanique ondulatoire est au fondement de toute la chimie,

276 R. Heinrich and T. A. Rapoport, « A linear steady-state treatment of enzymatic chains. General properties, control and effector strength », European Journal of Biochemistry, 42 (1974) : 89–95. 277 Voir J. A. Bums, et al., « Control analysis of metabolic systems », Trends in Biochemical Sciences, 10 (1985) : 16.

Page 154: Thèse version3.R

154

il est difficilement possible de présenter une liste de réactions typiques des aldéhydes, par

exemple, en termes d’équations d’onde. Même si c’était possible, cela ne serait pas utile,

parce que cela masquerait les aspects intéressant derrière beaucoup d’algèbre. [...] Les études

de cinétique biochimique ont été dominées pendant près d’un siècle par un intérêt dans les

mécanismes moléculaires, mais pour comprendre comment des voies entières se comportent,

il s’est révélé utile de réduire l’attention aux mécanismes. »278

On retrouve là l’argument de Putnam. La morale, c’est que l’explication détaillée

est peut-être meilleure en principe, mais en essayant de proposer l’explication la plus détaillée

possible, on risque de donner une fausse explication, alors qu’en faisant abstraction des

détails que l’on connaît on pourra parvenir à une explication plus juste. Dans l’exemple de

Putnam, ce problème n’apparaît pas clairement, puisqu’on sait au départ que la cheville rentre

ou ne rentre pas dans le trou. Pour comprendre le danger d’une démarche trop centrée sur les

détails, il faut imaginer qu’on ne connaît pas le résultat à l’avance : dans ce cas, l’explication

en termes de géométrie sera sans doute meilleure, car si l’on cherche à partir de modèles

quantiques, on risque fortement de se tromper, car nos connaissances et nos moyens d’analyse

sont trop limités.

À travers cet exemple, nous voulons faire apparaître deux points. Tout d’abord,

dans certains cas, la démarche réductionniste peut conduire à de mauvaises explications (c’est

le cas du concept d’étape limitante dans le métabolisme). Il est important de souligner cela,

car on pourrait penser qu’il est bien normal de ne pas pouvoir parvenir tout de suite à des

explications moléculaires et que des modèles grossiers constituent une première étape. Mais

ici, les modèles grossiers ont été développés dans un deuxième temps. En outre, les premiers

modèles systémiques qui prédisaient un contrôle partagé n’ont pas été pris au sérieux par la

majorité des biochimistes, qui restaient attachés à des explications mécanistes classiques. Il

s’agit en fait d’un problème de prudence méthodologique.

D’autre part, on s’intéresse non pas aux détails des mécanismes, mais à des

structures, des états et des dynamiques de systèmes, ainsi qu’à des contraintes qui pèsent sur

ces systèmes, ce qui est moins tangible et nécessite d’autres modes d’investigation et de

représentation. Il faut insister sur le fait que les modèles destinés à analyser les propriétés

systémiques sont moins détaillés que les modèles développés par les biochimistes. Il y a donc

une sorte de dézoomage nécessaire.

Ce que les biologistes des systèmes reconnaissent donc sans doute davantage que

278 Site internet de Athel Cornish-Bowden : http://bip.cnrs-mrs.fr/bip10/mcafaq.htm.

Page 155: Thèse version3.R

155

les biologistes moléculaires et les biochimistes, c’est que les détails peuvent masquer les

aspects importants des phénomènes étudiés. La citation suivante expose très clairement ce

problème : « Un modèle biologiquement fidèle pourrait devenir si compliqué qu’il masquerait

le phénomène sous-jacent que l’on cherche à saisir, qui pourrait être plus clair dans un modèle

simple. »279

Cette citation montre bien qu’une conception protagoréenne de l’explication est

importante si l’on veut pouvoir rendre compte du travail scientifique. Les scientifiques

cherchent à expliquer certains phénomènes et pas à tout représenter en même temps. La

science est fondamentalement une activité de représentation, et la représentation est liée à nos

limites cognitives et techniques.

L’idée qu’il est nécessaire de s’abstraire des détails pour pouvoir expliquer les

phénomènes systémiques a été bien exprimée par Hiroaki Kitano, dont il vaut la peine de citer

un long passage.

« La connaissance au niveau systémique devrait être fondée de manière à ce que le

système soit composé de molécules et que les molécules suivent les lois de la physique.

Pourtant, la manière dont un système opère, peut seulement être décrite par un ensemble de

théories qui se concentrent sur le niveau des comportements systémiques. L’idée est que de

telles théories doivent refléter les réalités des systèmes biologiques et des molécules, sans

abstraire les aspects essentiels de la biologie. [...] Une question qui pourrait intriguer les

biologistes traditionnels lorsqu’ils découvrent la recherche en biologie des systèmes, est qu’ils

doivent s’occuper de l’état du système, plutôt que des composants du système. Les biologistes

moléculaires et les généticiens ont travaillé à comprendre les gènes et les protéines, qui sont

des objets tangibles. Ce sont des substances physiques que l’on peut désigner et dire « ceci est

une protéine ». Par contraste, la biologie des systèmes doit s’occuper non seulement de gènes

et de protéines, mais également des états des systèmes, qui ne sont pas tangibles. Bien

entendu, les composants des systèmes sont tangibles, mais un système n’est pas simplement

un assemblage de composants. Ce qui compte dans le système est sa dynamique, plutôt

qu’une simple liste de composants ou des structures statiques. Cela soulève une question

importante : « que cela signifie-t-il de comprendre un système ? » Un système est en lui-

même un concept abstrait. C’est fondamentalement un assemblage de composants dans un

certain ordre, qui révèle certains comportements. De manière évidente, il n’est pas suffisant

de dessiner un diagramme de toutes les interactions entre gènes et protéines. Un tel 279 A. Wuensche, « Basins of Attraction in Network Dynamics: A Conceptual Framework for Biomolecular Networks », in G. Schlosser et G.P. Wagner (ed.), Modularity in Development and Evolution, op. cit., p. 290.

Page 156: Thèse version3.R

156

diagramme est, bien entendu, nécessaire et donne une idée de la manière dont le système

fonctionne. Mais c’est comme une carte routière, alors que nous voulons comprendre les

patterns et la dynamique du trafic. Le centre d’intérêt de la recherche se déplace des éléments

vers des réseaux, de la matière vers des états, et des structures vers des dynamiques. »280

Ce passage permet de préciser le problème : la biologie moléculaire n’était pas

assez attentive à la dynamique des systèmes et trop aux détails des composants. Nous avons

vu dans le chapitre précédent comment la modélisation et les simulations permettaient

d’étudier la dynamique des mécanismes complexes. Cependant, à cause des limites dont nous

avons parlé plus haut, il n’est pas possible de représenter la dynamique des systèmes entiers

en restant au niveau des détails moléculaires. Représenter et expliquer la dynamique d’un

système demande par conséquent un changement sérieux de perspective et de méthodes. Pour

différentes raisons, sur lesquelles nous aurons l’occasion de revenir par la suite, il apparaît

que beaucoup de comportements qualitatifs ne dépendent pas tellement des détails

moléculaires, mais des structures des réseaux. C’est cette propriété importante qui permet de

proposer des modèles explicatifs et dans certains cas prédictifs, qui ne représentent que

relativement grossièrement les réseaux d’interactions.281

Bernhard Palsson, qui a beaucoup travaillé sur ces méthodes systémiques, a

distingué ce qu’il appelle les approches components view des approches systems view. Dans le

cas des secondes, « ce ne sont pas tellement les composants eux-mêmes et leur état qui

importent, contrairement à la component view, mais c’est l’état de tout le système qui

compte. »282

Ces citations précisent l’originalité de ce qu’on appelle les approches systémiques.

Ce n’est pas que les détails ne soient pas importants. Il est certain que les modèles de réseaux

métaboliques vont profiter de l’accumulation de données quantitatives et précises. Mais,

encore une fois, le fait que l’attention des biologistes se soit déplacée des composants et de

leurs interactions à des états et des dynamiques de systèmes entiers, ainsi qu’aux modes de

contrôle qui apparaissent à l’échelle de ces systèmes, implique des changements de méthodes

et de modes de représentation. Une des conséquences importantes est que, comme le souligne

Palsson, dans ces explications en termes de topologie, le poids explicatif repose nettement 280 H. Kitano, « Looking beyond the details: a rise in system-oriented approaches in genetics and molecular biology », Current genetics, 41 (2002): 2, nous soulignons. 281 La méthode appelée Flux Balance Analysis est un exemple de modélisation qui ne prend délibérément pas en compte les détails pour pouvoir expliquer des propriétés systémiques des réseaux métaboliques. Voir par exemple, J. S. Edwards, M. Covert et B. O. Palsson, « Metabolic modelling of microbes: The flux-balance approach », Environmental Microbiology, 4 (2002): 133–133. 282 B. Palsson, Systems Biology: Properties of Reconstructed Networks, op. cit., p. 13.

Page 157: Thèse version3.R

157

moins sur les propriétés des composants.

Il faut ajouter que, malgré les progrès considérables qu’ont récemment connus les

approches expérimentales, on est encore loin de pouvoir construire de bons modèles prédictifs

à large échelle, car il nous manque trop de valeurs quantitatives. De manière ironique, d’un

côté, on a trop de données (dans le sens où leur gestion et leur analyse pose problème), mais

d’un autre, on n’en a pas assez.283

Ici encore, William Wimsatt a depuis longtemps bien analysé les limites des

explications qui ne font pas intervenir les propriétés systémiques. Il écrit : « Ceci est une

erreur de localisation fonctionnelle particulièrement courante – le passage de l’affirmation

selon laquelle une décomposition est particulièrement puissante ou révélatrice, à l’affirmation

selon laquelle les entités et les forces auxquelles elle mène sont tout ce qui compte. De telles

affirmations du type « rien d’autre que » sont fausses ou méthodologiquement trompeuses, si

elles nous suggèrent qu’il est inutile de construire des modèles ou des théories du système à

des niveaux ou avec des méthodes autres que celles des parties en question, ou que ces entités

favorites sont les seules « vraies », ou que les questions que l’on peut examiner avec ce type

de décomposition sont plus importantes. »284

Nous venons d’évoquer l’existence d’explications en termes topologiques et cette

question mérite qu’on s’y arrête. Ce cas pourrait être interprété comme une limite « absolue »

de la démarche réductionniste. En effet, si l’on explique une propriété systémique par la

structure du système, on pourrait considérer que les propriétés des composants perdent leur

importance dans l’explication. En effet, une fois que l’on a une représentation abstraite de

cette structure, il deviendrait inutile de la représenter avec plus de détails. C’est effectivement

ce qu’affirme parfois Stuart Kauffman. Nous aurons l’occasion de revenir dans le chapitre

suivant sur ce scientifique qui a joué un rôle de premier plan dans le développement d’une

biologie des réseaux. Sans présenter ses travaux, on peut néanmoins comprendre son

argument et le problème qu’il soulève. Kauffman a cherché à expliquer des propriétés

systémiques, comme l’existence d’états cellulaires stables, par la structure globale et abstraite

des réseaux de régulation génétique. Ses modèles expliquent l’existence d’états cellulaires

discrets et stables en montrant que ce type de système est caractérisé par la présence

d’attracteurs, c’est-à-dire de régions de l’espace de phase dans lesquelles le système a

283 Sur ce point, voir J. E. Bailey, « Complex biology with no parameters », Nature Biotechnology, 19 (2001) : 503-504. 284 W. Wimsatt, « Emergence as non-aggregativity and the biases of reductionisms », Foundations of Science, 5 (2000) : 269-297.

Page 158: Thèse version3.R

158

tendance à se maintenir, en pouvant basculer brusquement d’un état stable à un autre.

Les explications qu’il propose peuvent être considérées comme des explications en

termes de topologie, puisqu’il montre que c’est le fait d’avoir cette propriété structurale qui

explique le comportement du système. Ce type de modèle illustrerait donc parfaitement notre

idée, selon laquelle, pour expliquer certains aspects des systèmes biologiques, il faut ignorer

les détails. Dans ce cas, Kauffman utilise des modèles très grossiers, qui lui permettent de

simuler le comportement de réseaux extrêmement complexes. Kauffman insiste sur le

caractère fondamentalement anti-réductionniste de sa démarche. Il écrit : « Si nous

découvrions qu’il est possible de rendre compte, d’expliquer, de prédire des propriétés très

répandues des organismes sur la base des propriétés génériques d’ensembles sous-jacents,

alors nous n’aurions pas à mener en détail l’analyse réductionniste des organismes pour

expliquer certaines de leurs propriétés fondamentales. »285

Devrait-on penser que certaines propriétés systémiques ne pourront être expliquées

qu’en termes de structures de réseaux abstraites, sans pouvoir intégrer les détails moléculaires

que nous connaissons de mieux en mieux. S’agit-il d’une limite à la stratégie de

décomposition classiquement suivie dans l’étude des systèmes complexes ? Voyons

rapidement quelle est la nature de ce problème et dans quelle mesure il est sérieux pour l’idéal

réductionniste en biologie.

3.3.7. Décomposition des systèmes complexes L’essence de la démarche réductionniste dans l’analyse des systèmes complexes

(comprise dans un sens mécaniste, tel qu’il a été discuté au chapitre précédent) peut être

décrite comme une stratégie de décomposition et de localisation. William Bechtel et Robert

Richardson ont analysé avec soin et de manière très fine les particularités de cette stratégie,

ainsi que les difficultés auxquelles elle devait faire face.

De manière très schématique, cette double stratégie consiste à trouver un moyen de

décomposer le système de manière à pouvoir mener un travail d’analyse sur des aspects

particuliers. Pour cela, on présuppose qu’un certain comportement du système considéré est

produit par un petit nombre de fonctions réalisées par des parties du système. Le but est

ensuite de procéder à l’identification de propriétés et de comportements de parties du système

capables d’expliquer comment ces fonctions sont réalisées. Cette deuxième étape correspond

à ce qu’ils appellent la localisation. Comme les auteurs le précisent bien, il n’est pas 285 S. Kauffman, The origins of order, Oxford, Oxford University Press, 1993, p. 25.

Page 159: Thèse version3.R

159

nécessaire que chaque élément soit une unité spatialement localisée, mais l’important est

qu’on puisse identifier quelque chose qui réalise chaque fonction.

Ce qui nous intéresse particulièrement dans leur analyse, c’est qu’ils considèrent le

cas des modèles qui ne font intervenir que les aspects topologiques des systèmes complexes.

Ces modèles introduisent selon eux une différence profonde avec les approches classiques, en

ce que l’organisation joue un rôle prépondérant :

Les modèles de réseau sont en un sens toujours mécanistes, mais une différence de

taille est introduite : « La différence est que ce qui est important lorsque l’on détermine le

comportement du système dans un modèle de réseau n’est pas la contribution des parties,

mais leur organisation. [...] Les techniques analytiques qui se concentrent sur le

comportement des composants individuels à travers des études d’excitation ou d’inhibition

échoueront ; en outre, les approches synthétiques ne sont pas fiables pour révéler la structure

des composants ou l’organisation. Par conséquent, la localisation et la décomposition

échouent avec les systèmes de réseaux. »286 Et ailleur : « ces approches s’efforcent de montrer

comment les propriétés du système émergent simplement comme résultat de la connectivité

de composants très simples dans un réseau. Dans les cas les plus extrêmes, les parties ne

réalisent individuellement aucune activité qui peut être caractérisée en termes de ce que fait le

système. La décomposition et la localisation échouent. »

Sahotra Sarkar insiste lui aussi sur le fait que, dans une explication en termes de

structure, les détails des interactions ne jouent plus de rôle explicatif : « Les propriétés

topologiques ne sont pas des propriétés physiques ; par conséquent, le poids épistémologique

dans de telles explications n’est pas porté par les interactions impliquées. »287

La question est donc de savoir si, avec l’étude formelle des réseaux, on ne serait pas

arrivé à un point où les approches mécanistes auraient atteint leurs limites. Dans ce cas, on

n’expliquerait plus en termes de parties et de leurs propriétés, mais uniquement de structure

et, comme Kauffman le pense, il ne serait plus nécessaire de poursuivre l’analyse au niveau

des détails moléculaires pour expliquer les propriétés systémiques les plus importantes. Ou,

pour le dire autrement, jusqu’ici notre critique a consisté à dire que l’idéal réductionniste

pouvait être un mauvais guide lorsqu’il poussait les biologistes à chercher trop vite

l’explication d’un phénomène dans les détails moléculaires. Doit-on maintenant conclure que,

dans certains cas, il faudrait renoncer à expliquer des propriétés systémiques en termes

286 W. Bechtel and R. C. Richardson, Discovering complexity: Decomposition and localization as strategies in scientific research, Princeton: Princeton University Press, 1993, pp. 227-228. 287 S. Sarkar, Molecular Models of Life, The MIT Press, 2005, p. 98.

Page 160: Thèse version3.R

160

moléculaires ? Doit-on revenir sur les conclusions que nous avons acceptées dans le chapitre

précédent, à savoir qu’il ne fallait pas admettre de limite a priori dans l’entreprise

réductionniste ? Ne voit-on pas par ailleurs apparaître le risque de tomber dans une forme de

holisme ?

Nous voulons toutefois immédiatement exclure cette possibilité. On ne peut pas

accepter l’idée que des modèles tels que ceux de Kauffman puissent constituer une

explication complète, en quelque sens que ce soit. Nous reviendrons dans les chapitres

suivants sur les problèmes que soulèvent ces représentations très abstraites et générales. Mais

nous pouvons déjà reconnaître que l’immense majorité des approches en biologie des

systèmes n’ont pas pour objectif d’expliquer les propriétés systémiques en termes purement

topologiques. La biologie des systèmes développe un cadre d’analyse modulaire, qui lui

permet de trouver un niveau intermédiaire entre les détails des mécanismes moléculaires et les

représentations purement topologiques. C’est ce que nous allons maintenant décrire.

Modularité et décomposition des systèmes complexes

L’idée de modularité est intéressante, parce qu’elle rejette deux extrêmes

méthodologiques. On reconnaît que des représentations centrées sur des détails sont

insuffisantes, mais on ne va pas jusqu’à se contenter de modèles qui ne représentent que les

aspects topologiques des réseaux biologiques. Il s’agit clairement d’un déplacement de niveau

explicatif par rapport aux explications mécanistes habituelles en biologie moléculaire, mais

tout en conservant une stratégie de décomposition et de localisation de fonction au niveau

moléculaire. Elle correspond en partie à ce que nous avons décrit dans le chapitre précédent :

l’étude des propriétés dynamiques biologiquement importante de circuits ou sous-systèmes.

Si beaucoup de chercheurs s’accordent sur l’avantage de décomposer les systèmes

biologiques en modules, il n’est pas évident de savoir ce qu’est exactement un module.288

Différentes façons de définir ou d’identifier un module existent. On peut légitimement se

demander si ces entités existent ou sont de simples abstractions facilitant le travail des 288 Il existe une très vaste littérature sur la modularité en biologie. Nous renvoyons à deux recueils parus récemment ainsi qu’à quelques articles qui peuvent constituer une bonne introduction à ces approches dans le contexte de la biologie des systèmes. G. Schlosser and G. P. Wagner (eds.), Modularity in Development and Evolution, Chicago, University of Chicago Press, 2004 ; W. Callebaut et D. Rasskin-Gutman (eds.), Modularity : Understanding the Development and Evolution of Natural Complex Systems, The MIT Press, 2005; A. W. Rives et al., « Modular organization of cellular networks », Proceedings of the National Academy of Sciences, 100 (2003) : 1128 –1133 ; L. H Hartwell et al., « From molecular to modular cell biology », Nature, 402 (1999): C47-C52 ; D. A. Lauffenburger, « Cell signaling pathways as control modules : complexity for simplicity ? », Proceedings of the National Academy of Sciences, 97 (2000) : 5031-5033 ; H. H. McAdams et al., « A bacterial cell-cycle regulatory network operating in time and space », Science, 301 (2003) : 1874-1877.

Page 161: Thèse version3.R

161

biologistes. Notre idée est que le concept de module possède une double composante : il

dépend en partie des intérêts des chercheurs, mais il possède certaines propriétés structurales,

dynamiques et fonctionnelles, qui sont objectives.

La manière la plus générale de définir un module est de dire qu’il s’agit d’une

partie d’un système dont les composants sont étroitement liés entre eux et relativement peu

liés aux autres composants du système. Un module est donc structurellement et fonctionnelle-

ment intégré. Lenny Moss le définit ainsi : « une unité qui est une partie d’un système plus

large et qui pourtant possède sa propre identité structurale et/ou fonctionnelle. »289

Un aspect important de l’idée de module est qu’il est possible de définir

précisément une relation de type input-output et que celle-ci est déterminée par les propriétés

du module. Nous avons rencontré cette propriété dans le cas du réseau de régulation génétique

impliqué dans l’établissement de l’axe de la drosophile. Ce réseau est activé par un certain

input et produit un certain output, et cela de manière stable et robuste.

L’idée de module renvoie donc à deux aspects. Premièrement, le niveau modulaire

permet d’articuler une analyse fonctionnelle complexe, ce qui n’est pas le cas des approches

globales à la Kauffman. D’une certaine manière, il s’agit toujours de suivre la stratégie de

décomposition décrite par Bechtel et Richardson. Mais, à la différence de la plupart des

analyses en biologie moléculaire, l’attribution fonctionnelle se fait en termes de modules, par

exemple, lorsqu’on considère qu’un module a pour fonction d’amplifier un signal ou de faire

basculer un système d’un état stable à un autre. Mais d’autre part, comme on l’a vu dans

l’exemple du module NF-kB, il reste possible d’attribuer une fonction à chaque composant.

Deuxièmement, un module est caractérisé par une structure et c’est dans ce sens

que l’on parle souvent de circuit. Sous cet aspect, les détails des composants et des

interactions perdent de leur importance. C’est la structure du module qui rend compte de sa

fonction, c’est-à-dire du rôle qu’il joue dans le système. Les explications en termes de

topologie jouent ici un rôle prépondérant. La propriété essentielle ne sera par exemple pas que

tel résidu soit phosphorylé, mais l’existence d’une boucle de rétroaction positive.

Le cadre modulaire permet par conséquent de ne pas rester à une description trop

abstraite des réseaux biologiques, comme chez Kauffman. La cellule n’est pas un réseau

indifférencié au comportement global. La plupart des propriétés importantes en biologie sont

en partie décomposables. Si l’on peut identifier et isoler des modules dont le fonctionnement

(et donc la fonction) est relativement indépendant du contexte cellulaire, cela nous garantit la 289 L. Moss, “Deconstructing the gene”, in S. Oyama, P. Griffith, R. Gray (ed.), Cycles of contingency, The MIT Press, 2003.

Page 162: Thèse version3.R

162

possibilité de construire des bons modèles à ce niveau, sans tout prendre en compte. Cela

permet également de plus facilement construire des modèles qui intègrent plusieurs niveaux :

une fois que l’on a modélisé en détail un module, on peut reprendre ses propriétés

dynamiques et fonctionnelles dans un modèle plus large et abstrait (nous reviendrons sur ce

point plus bas).

Un module n’est pas encore au niveau d’un système très large, mais il a l’avantage

de pouvoir effectuer cette sorte de nécessaire dezoomage dont nous avons parlé, sans tomber

dans une forme de holisme. On voit mieux maintenant ce que veulent dire certains biologistes

lorsqu’ils affirment que les détails nous empêchent de voir ce qui compte vraiment dans un

système. L’idée des biologistes des systèmes est de trouver une bonne représentation de haut

niveau d’un module permettant d’expliquer les fonctions qu’il remplit. Le but est de voir

derrière la complexité des interactions entre composants, un comportement-type. Ces

comportements-types correspondent à des propriétés dynamiques comme celles que nous

avons décrites dans le chapitre précédent. Un module est notamment défini par rapport à une

fonction et le comportement-type explique la fonction à partir de structures de réseau. Si l’on

veut comprendre les fonctions qui émergent au niveau d’un large réseau de signalisation, il

sera plus important de voir que des modules peuvent basculer d’un état stable inactif à un

autre état stable actif, que de représenter de manière détaillée chaque réaction biochimique.

Il faut garder à l’esprit qu’il n’est pas possible de prédire le comportement d’un

modèle de réseaux complexe (réseaux de régulation génétique ou réseaux de signalisation) si

on reste au niveau des réactions biochimiques. Le cadre modulaire facilite l’abstraction par

rapport aux détails moléculaires. De ce point de vue, il y a une certaine ironie à ce que

l’exemple préféré de Rosenberg (les réseaux booléens de réseaux génétiques) soit justement

un mode de représentation non strictement moléculaire et qu’il n’aurait pas été possible de

représenter certaines propriétés intéressantes de ces réseaux en restant au niveau très fin (qui

est pourtant connu).

Le niveau modulaire semble donc plus pertinent et fécond pour mener la

décomposition des systèmes biologiques. Robert Rosen critiquait la biologie moléculaire,

parce qu’elle présupposait que la décomposition en composants moléculaire permettait

d’expliquer les propriétés fonctionnelles du vivant.

« Ainsi, lorsque nous appliquons un ensemble de techniques de fractionnement

préspécifiées à un système inconnu, il n’y a aucune raison pour laquelle les fractions ainsi

obtenues devraient être liées de manière simple aux propriétés du système original. Pourtant,

c’est exactement ce qui se produit lorsqu’un biologiste moléculaire fractionne une cellule et

Page 163: Thèse version3.R

163

tente de reconstruire ses propriétés fonctionnelles à partir des propriétés de ses fractions. »290

Pour Rosen, il fallait développer des modèles capables de rendre compte de la

dynamique des systèmes vivants. C’est ce qu’étaient supposées faire les approches

systémiques (en établissant des analogies avec d’autres systèmes dynamiques aux propriétés

similaires) : « L’analogie du système nous montre que les propriétés dynamiques et

fonctionnelles peuvent être étudiées essentiellement de manière indépendante des

caractéristiques de la structure physicochimique. »291 Mais l’avantage des analyses modulaires

dans la nouvelle biologie des systèmes, c’est qu’elles permettent de remédier aux

insuffisances des décompositions en termes de propriétés moléculaires et des attributions

fonctionnelles à des composants, mais sans renoncer à étudier et intégrer dans ces modèles les

structures physico-chimiques que les anciennes approches systémiques avaient tendance à ne

pas vouloir prendre en compte.

En conclusion, si les approches modulaires montrent que les phénomènes

biologiques peuvent être mieux expliqués en intégrant les détails moléculaires, deux aspects

obligent à mettre un bémol au credo réductionniste. Premièrement, dans la décomposition

d’un système en modules, les propriétés des composants ne sont pas toujours très importantes

et ne portent que peu de poids explicatif ; ce qui compte, ce sont les propriétés structurales et

dynamiques des modules. Si l’on refuse qu’une explication topologique puisse être complète,

il faut bien reconnaître que les éléments topologiques constituent une dimension

supplémentaire de l’explication, qui s’ajoute en quelque sorte à l’explication purement

mécaniste.292 Cet aspect est difficile à expliquer sans accepter une conception pragmatique de

l’explication et les réductionnistes ont tendance à ne pas reconnaître le rôle que peuvent jouer

ce type d’explication. En ignorant l’aspect unificateur de ces explications (puisqu’on parle

d’explications de phénomènes et de propriétés particuliers), sur lesquelles nous reviendrons

dans le chapitre 6, les interactions moléculaires devraient en principe suffire à expliquer les

propriétés systémiques (par exemple stabilité, robustesse, etc.) et les propriétés topologiques

seraient alors redondantes. Si elles sont essentielles en biologie des systèmes, c’est qu’elles

ont une valeur explicative pour les biologistes, en faisant apparaître quels aspects du système

produisent la propriété systémique (par opposition aux détails qui pourraient être différents).

Deuxièmement, les modules sont en partie définis en fonction de nos intérêts et ne

290 R. Rosen, « Some systems theoretical problems in biology », in E. Lazlo (Ed.) The relevance of general systems theory, George Braziller, 1972, p. 54. 291 Ibid., p. 56. 292 Sur la nécessité de recourir à différents types d’explication en biologie, nous renvoyons ici aussi à M. Morange, Les secrets du vivant, op. cit.

Page 164: Thèse version3.R

164

semblent pas être des entités complètement objectives. Cette question est très délicate et nous

voulons ici ouvrir une discussion plutôt que proposer des thèses fortes. Les modules ont certes

un caractère indéniablement objectif. La propriété pour un circuit d’être bistable ou de

pouvoir garder la mémoire d’un stimulus ne dépend certainement pas de l’observateur. En

revanche, suivant le phénomène étudié, il est possible de découper un réseau de différentes

manières.293 Par exemple, un petit circuit qui a la propriété d’être bi-stable, peut perdre ce

comportement lorsqu’il est intégré dans un réseau plus large, et celui-ci aura d’autres

propriétés. Chacun peut légitimement être considéré comme un module. Il est cependant

évident que tous les découpages ne se valent pas et qu’il existe des raisons indépendantes des

biologistes de choisir un certain découpage. Il y a certainement des raisons évolutives derrière

ce type de structuration (nous reviendrons sur cette question dans le dernier chapitre).

Le caractère relatif des modules n’est pas forcément un vrai problème pour les

réductionnistes, mais il souligne lui aussi le caractère pragmatique de l’explication

scientifique. Une explication scientifique ne prend véritablement son sens que dans un certain

contexte. La méthodologie scientifique ne consiste pas à mener aux explications objectives

dont parle Rosenberg, mais à des explications dépendantes du contexte.

Le niveau modulaire est indispensable, car il constitue un niveau intermédiaire

entre les interactions entre molécules et les propriétés des systèmes entiers. Mais une

intelligence qui n’aurait pas nos limites pourrait peut-être se passer de ce niveau. S’il reste un

niveau d’analyse, d’explication et d’intelligibilité indispensable pour les biologistes, c’est en

partie à cause de leurs intérêts et de leurs limites. Encore une fois, la méthodologie

réductionniste de Rosenberg a du mal à rendre compte de ce mouvement inverse en biologie

moléculaire, qui a relativisé l’importance des détails moléculaires pour privilégier la structure

des réseaux.

3.3.8. La modélisation multi-échelle et les approches middle-out Ce que nous voulons faire apparaître ici, c’est que la biologie des systèmes, loin de

toujours chercher à construire des modèles exclusivement moléculaires, s’efforce d’intégrer

les différents niveaux dans ses explications. Elle est plus attentive que ne l’était la biologie

293 Cette idée a été défendue par dans G. von Dassow et E.Meir, « Exploring modularity with dynamical models of gene networks » in G. Schlosser and G. P. Wagner (ed.), Modularity in Development and Evolution, op. cit., pp. 245-87.

Page 165: Thèse version3.R

165

moléculaire à l’importance des phénomènes de haut niveau (cellulaires, tissulaires,

organismique, etc.) lorsqu’elle construit ses modèles explicatifs.

On parle à ce sujet de stratégie de modélisation middle-out. Cette idée, qui a

beaucoup été discutée par le biologiste Denis Noble, pionnier de la modélisation du coeur, est

simple : plutôt que d’essayer de partir du niveau le plus « bas » dans la construction d’un

modèle, on part du niveau qui semble le plus pertinent pour décrire le phénomène à expliquer

(par exemple le tissu ou l’organe) et l’on s’efforce d’intégrer des données venant aussi bien

des niveaux inférieurs (gènes, protéines) que supérieurs (organisme). On pourra penser que

c’est de fait ce qu’ont toujours fait les biologistes. Cependant, il faut reconnaître que les

biologistes des systèmes généralisent ce principe et surtout travaillent à développer des

méthodes beaucoup plus rigoureuses, précises et raffinées pour établir ces liens explicatifs

entre niveaux.294

L’enjeu des modèles multi-niveaux ou multi-échelle est donc de pouvoir articuler

des modèles qui se situent à des échelles d’organisation et de temps très différents (de la

microseconde à l’année et du nanomètre au mètre) dans le but de mieux pouvoir expliquer

certains phénomènes. Ce type d’approche en est encore à ses débuts et les difficultés sont

immenses. Le projet Physiome Project illustre bien l’intérêt et les défis de ces méthodes pour

l’analyse des systèmes biologiques. Ce projet est défini de la manière suivante : « Le

Physiome Project est un programme intégré multicentré pour concevoir, développer,

implémenter, tester et documenter, archiver et distribuer des informations quantitatives, et des

modèles intégratifs du comportement fonctionnel de molécules, organelles, cellules, tissus,

organes et organismes intacts, de la bactérie à l’homme. »295 Les premiers résultats sont

prometteurs et donnent une idée de la manière dont les dépendances entre par exemple les

propriétés d’un canal ionique peuvent être mises en relation avec celle d’un organe entier.

Nous avons beaucoup parlé des modèles explicatifs du développement et critiqué

l’idée que des modèles au seul niveau moléculaire, comme les modèles de réseaux de

régulation génétique, puissent être considérés comme des explications complètes. Ces limites

peuvent être en partie dépassées par des modèles multi-échelles de ces processus. On voit

294 Il est intéressant de noter à ce propos que la biologie des systèmes est parfois décrite comme une physiologie au niveau moléculaire. Ce n’est donc pas par hasard si ce sont souvent des physiologistes qui travaillent sur ces approches multi-niveaux. 295 J. B. Bassingthwaighte, « Strategies for the Physiome Project » Annals of Biomedical Engineering, 28 (2000), 1043–1058.

Page 166: Thèse version3.R

166

depuis quelques années des modèles articulant les processus intracellulaires et les

mouvements cellulaires.296

Un exemple récent visant à étudier la migration du mésendoderme chez Xenopus

laevis illustre bien la nature de ces projets. Dans ce cas, un modèle de la voie de signalisation

Wnt/β-catenine est combiné à un modèle individu-centré de la migration cellulaire et de la

dynamique de la matrice extracellulaire. Les modèles individu-centré sont souvent utilisés

pour comprendre comment les mouvements des cellules permettent de produire des patterns

dans la morphogenèse. Dans ces modèles, le comportement de chaque cellule est déterminé

par des règles qui définissent comment une cellule va se comporter selon les stimuli de son

environnement (ici ce sera par exemple la concentration de fibronectine). Ce modèle permet

d’étudier l’influence des différents processus les uns sur les autres. Lorsqu’une cellule se

déplace, la matrice extracellulaire se trouve modifiée et notamment la concentration de

fibronectine. Une partie du modèle se charge de calculer comment la concentration de

fibronectine à laquelle est exposée une cellule va induire un certain signal Wnt. Le niveau de

Wnt va à son tour déterminer la synthèse et l’exportation de β-catenin, qui va influencer le

mouvement des cellules.

Ce type de modèle est encore très simple, il n’intègre que peu de données précises

et ne peut faire au mieux que des prédictions qualitatives. Il pourrait sembler moins

impressionnant que les modèles détaillés de réseaux de régulation génétique, mais il faut être

conscient qu’en un sens, il est beaucoup plus ambitieux. Les difficultés de modélisation,

notamment concernant les liens entre plusieurs formalismes mathématiques sont sérieuses,

mais les retombées pratiques et théoriques pourraient être immenses. En analysant la manière

dont les mécanismes moléculaires influencent les processus au niveau des tissus et de

l’organisme entier, et inversement comment le contexte global influence ces mécanismes, on

pourrait développer une vision infiniment plus fine des rapports entre niveaux et notamment

des relations entre génotype et phénotype.

Il n’y a évidemment aucune tension entre ces différents types de modèles. Au

contraire, lorsque nous disposerons de modèles plus complets et plus précis des réseaux de

régulation génétique, les possibilités de construire ces modèles multi-échelles seront d’autant

plus grandes. Ici encore, nous voulons souligner que les défis les plus importants ne résident

296 Témoin de cet intérêt croissant pour ce type de modèle, le dernier volume de la série Current Topics in Developmental Biology est consacré à ce domaine :S. Schnell, P. K. Maini, S. A. Newman, T. J. Newman, Multiscale Modeling of Developmental Systems, Current Topics in Developmental Biology, Volume 81, Elsevier, 2008.

Page 167: Thèse version3.R

167

pas dans l’étude précise des détails des mécanismes moléculaires, mais dans les choix à faire

lors du processus de modélisation. Il faut déterminer quels mécanismes (ou réseaux)

moléculaires représenter et à quel niveau de détail (relations qualitatives ou modèles

cinétiques), comment les mettre en relation avec les données dont on dispose au niveau des

comportements cellulaires ou des organes et tout cela va évidemment dépendre des

phénomènes à expliquer. Il ne nous semble pas que l’idéal réductionniste soit toujours le

meilleur guide méthodologique, ni la meilleure manière de rendre compte des progrès qui sont

faits (et surtout vont être faits) dans ce domaine.

3.3.9. Retour sur le problème du contexte Résumons ce qui vient d’être dit. Le problème des réductionnistes est qu’ils sous-

estiment la complexité du contexte. Or, c’est un vrai problème lorsqu’on cherche à réellement

(et pas seulement en principe) construire des explications réductives. Il y a donc un équilibre

difficile à trouver, au cas par cas : étant donné les limites de nos modèles, doit-on inclure plus

de détails moléculaires ou plus d’éléments de contexte, en restant à un niveau plus grossier ?

Il n’y a évidemment pas de réponse générale, cela dépend de la question posée et de nos

moyens et donc fondamentalement des aspects pragmatiques de la recherche scientifique.

Le problème vient en grande partie de notre capacité à représenter les phénomènes

complexes qui caractérisent le vivant. Il est certain que les approches formelles étendent

considérablement la possibilité de les représenter en termes moléculaires, mais pour plusieurs

raisons, ce type de modèle connaît des limites essentielles. Ce que nous reprochons au

réductionnisme, c’est qu’il n’envisage pas ou en tout cas pas assez sérieusement ces limites.

Le problème en jeu n’est pas uniquement heuristique, mais surtout de

représentation. La représentation est au coeur de l’activité scientifique. La modélisation est un

art qui consiste à représenter un système complexe en le simplifiant énormément et la

difficulté est de réussir à faire les simplifications les plus fécondes. Il s’agit donc d’une

activité essentiellement pragmatique, qui dépend directement des limites avec lesquelles les

chercheurs doivent composer. Une conception objective de l’explication ne peut en rendre

compte.

Comme plusieurs biologistes le soulignent, la force de la biologie des systèmes est

son pluralisme et sa grande diversité d’approches. Nous avons dit dans le premier chapitre,

qu’il existait une variété importante de modèles en biologie des systèmes, du modèle de

mécanisme très détaillé au niveau des réactions biochimiques, jusqu’au modèle très abstrait

Page 168: Thèse version3.R

168

de large réseau de régulation génétique. Les biologistes sont de plus en plus conscients que la

diversité et la complexité des phénomènes étudiés appellent une pluralité de modèles

explicatifs. L’intérêt des nouvelles approches de modélisation est la plus grande capacité à

intégrer différentes échelles et niveaux de détails. Cette diversité n’était, bien entendu, pas

totalement absente dans le passé, mais il faut bien reconnaître que beaucoup de « dérives » en

biologie moléculaire peuvent être interprétées comme la volonté d’ expliquer tous les

phénomènes biologiques à l’aide de modèles explicatifs exclusivement moléculaires.

Avant de montrer que les aspects pragmatiques de l’explication soulèvent un

deuxième type de problème pour la position réductionniste, nous aimerions ajouter que notre

discussion ne revient pas seulement à dire que des stratégies réductionnistes ne sont pas

suffisantes et qu’elles doivent être complétées par des stratégies holistes.297 Un réductionniste

explicatif accepte cela sans problème, et c’est relativement trivial. Notre critique vise plutôt à

montrer d’une part que le réductionniste a tendance à avoir une trop grande confiance en ses

modèles réductifs et qu’il va les surestimer. D’autre part, la volonté de regarder au-delà des

détails (pour reprendre le titre de l’article de Kitano) n’est pas seulement féconde, ni ne peut

être conçue uniquement comme un premier pas vers une explication réductionniste complète,

mais comme le seul moyen de représenter certains aspects essentiels des systèmes

biologiques.

3.4. Explication et compréhension. Le réductionnisme ne rend pas compte de la recherche de principes intelligibles.

Nous venons de voir que des niveaux de représentation peu détaillés sont

importants parce qu’ils permettent de faire apparaître des processus fondamentaux qui

risquent de passer inaperçus si l’on reste trop centré sur les interactions entre molécules. Mais

ils sont également essentiels pour une autre raison qui tient aux aspects pragmatiques de

l’explication : les biologistes en ont besoin pour comprendre les systèmes qu’ils étudient.298

La compréhension sera définie plus précisément un peu plus bas, mais l’on peut déjà indiquer

qu’elle renvoie à la capacité de saisir intuitivement, à l’aide de ses seules ressources

cognitives, certains aspects des phénomènes complexes qui sont l’objet de ces approches.

297 On trouvera une idée de ce type dans l’ouvrage suivant : C. Looijen, Holism and reductionism in biology and ecology, Groningen, 2000, ch.5. 298 La thèse qui est développée dans cette section est défendue dans l’article suivant : P. A. Braillard, « Que peut expliquer un modèle complexe et peut-on le comprendre ? », in J. J. Kupiec et al., (dir.), Matière première n°3, Paris, Editions Syllepse, 2008.

Page 169: Thèse version3.R

169

Pour comprendre le problème qui est ici en jeu, il faut d’abord revenir sur un aspect

problématique de ce débat : aussi bien chez les réductionnistes que chez leurs adversaires, les

aspects pragmatiques de l’explication sont délibérément ignorés au profit des questions de

principe. Cela est notamment très évident dans la discussion entre Kitcher et Rosenberg. Nous

verrons qu’au-delà de ce débat, cette conception de l’explication est dominante en philosophie

des sciences depuis très longtemps.

Après avoir donné quelques arguments en faveur d’une analyse philosophique

prenant pleinement en compte la question de la compréhension, nous montrerons que ce cadre

permet de mieux rendre compte d’une part importante des recherches en biologie des

systèmes qu’une conception de l’explication qui se voudrait purement objective.

3.4.1. Place de la compréhension en philosophie des sciences La conception objective de l’explication que défend Rosenberg est en fait assez

classique en philosophie des sciences. Jusqu’à récemment, la plupart des philosophes des

sciences ont voulu s’en tenir à une conception objective, car selon eux une conception

subjective risque de faire dépendre le concept d’explication d’états psychologiques des

scientifiques, ce qui n’est pas acceptable. Pour la plupart des auteurs, la compréhension relève

de la psychologie et non d’une analyse philosophique des sciences.

Le cas de Hempel est à cet égard tout à fait emblématique : « De manière très

générale, expliquer une chose à une personne, consiste à la lui rendre claire et intelligible, de

manière à la lui faire comprendre. Ainsi compris, le terme « explication » et les termes

apparentés sont des termes pragmatiques : leur usage nécessite de faire référence aux

personnes impliquées dans le processus d’explication. [...] L’explication dans ce sens

pragmatique est ainsi une notion relative : une chose peut être considérée constituer de

manière significative une explication dans ce sens, uniquement pour cet individu-ci ou cet

individu-là. »299

Par conséquent, l’explication dans sa dimension pragmatique et la compréhension

ne sauraient intéresser le philosophe des sciences.

On trouve bien quelques philosophes ayant tenté de prendre en compte cet aspect,

comme Michael Friedman.300 Mais ces tentatives ont toujours été vivement attaquées.

299 C. G. Hempel, Aspects of Scientific Explanation and other Essays in the Philosophy of Science, New York, Free Press, 1965, pp. 425–426. 300 M. Friedman, « Explanation and scientific understanding », The Journal of Philosophy, 71(1974) : 5-19.

Page 170: Thèse version3.R

170

Considérons rapidement les critiques formulées par J.D. Trout.301 La thèse de Trout

est la suivante : tout d’abord, la signification psychologique de la compréhension est une sorte

de confiance, de satisfaction intellectuelle, qui nous laisse croire qu’une question a été

adéquatement résolue. Le problème est que la compréhension prise dans ce sens dépend

directement de biais de notre appareil cognitif : « ce sens de compréhension relève de biais

rétrospectifs et d’excès de confiance. [...] Ces biais diminuent le rôle de poursuite de la vérité

de l’explication. »302 Trout s’oppose donc à l’idée que la compréhension possède une vertu

épistémique. La compréhension que nous donne une explication ne saurait nous offrir des

raisons de penser que cette explication est vraie. D’ailleurs l’histoire des sciences nous montre

de manière frappante que la compréhension n’est généralement pas liée à la valeur des

explications. Le fait que des biais psychologiques interviennent dans l’apparition du sentiment

de compréhension explique que ce sentiment ne puisse être considéré comme une partie

importante et solide de la démarche scientifique.

Trout préfère par conséquent rejeter complètement la compréhension et défendre

une conception objectiviste de ce qu’est une explication scientifique.

« Ma conception de l’explication scientifique soutient que, en tant que fait

contingent, la seule propriété d’une explication qui peut rendre l’explication épistémique est

sa tendance systématique à produire des théories de plus en plus exactes. En effet, seules les

explications capables de soutenir le progrès théorique sont des bonnes explications. [...] Pour

accorder à l’explication le rôle épistémique qu’elle semble jouer dans la sélection réussie des

théories dans la science contemporaine, nous devons abandonner notre attachement

sentimental au sens rassurant de la compréhension, ou du moins, abandonner l’idée que ce

sens est un indice valide de la vérité. »303

Si Trout nie l’importance de la compréhension, c’est qu’il la réduit à un seul

sentiment de contrôle métacognitif. Nous voulons maintenant montrer que certaines analyses

récentes de la compréhension permettent, nous semble-t-il, d’aborder cette question en évitant

les problèmes identifiés par Trout.

Hans de Regt et Dennis Dieks ont récemment proposé une conception qui a le

mérite de reconnaître le caractère pragmatique et contextuel de la compréhension tout en

301 J. D. Trout, « Scientific explanation and the sense of understanding », Philosophy of Science, 69 (2002): 212-233. 302 Ibid., p. 216. 303 Ibid., p. 230.

Page 171: Thèse version3.R

171

formulant un critère général.304 Cette conception évite l’écueil d’une définition entièrement

psychologique qui la rendrait peu pertinente pour la philosophie des sciences. Selon ces

auteurs, la compréhension et l’intelligibilité sont un des buts généraux de la recherche

scientifique. Ils reconnaissent cependant que les idées qu’ont les scientifiques sur les manières

d’atteindre ces buts peuvent varier selon les époques et les communautés scientifiques. Le

problème est de justifier l’importance de la compréhension pour la philosophie des sciences.

Les auteurs défendent la position suivante : « Nous soutenons que la nature

pragmatique de la compréhension n’est pas contradictoire avec le fait qu’elle soit

épistémiquement pertinente. Au contraire, nous suggérons que la compréhension est un

ingrédient essentiel des buts épistémiques de la science ; sans compréhension, ces buts

resteront hors de portée. »305 Ils affirment plus loin: « Atteindre le but épistémique de la

science n’est pas simplement un problème de formuler une théorie et de déterminer son

contenu empirique, mais c’est un processus complexe, qui a de manière inévitable une

dimension pragmatique. »306 Leur idée est que, pour pouvoir utiliser une théorie et l’appliquer

à des cas particuliers, un scientifique a besoin de certaines compétences. Celles-ci dépendent

de la forme de la théorie (par exemple sa simplicité) ainsi que des capacités des scientifiques.

La compréhension dépend donc de ces deux aspects et n’est pas qu’une question subjective.

Une théorie ne doit pas être considérée comme un simple instrument nous permettant de faire

des prédictions ; nous voulons comprendre comment ces prédictions sont faites.

Précisons la relation que nous voyons entre compréhension et explication. Pour

beaucoup, la première dérive naturellement de la seconde. Le problème est, d’une part, qu’il

existe différentes conceptions de l’explication (causale et unificationniste, pour ne citer que

les deux principales) et que, d’autre part, on ne voit pas comment on passe de l’explication à

la compréhension. La solution que proposent les auteurs est de donner une définition générale

de l’intelligibilité d’une théorie, qui permet ensuite de rendre compte de la manière dont les

différents types d’explication engendrent la compréhension suivant le contexte.

Ils proposent un critère simple pour définir l’intelligibilité des théories : « Une

théorie scientifique T est intelligible pour des scientifiques (dans un contexte C) s’ils peuvent

304 H. W. de Regt and D. Dieks, « A contextual approach to scientific understanding », Synthese, 144 (2005) :137-170. 305 Ibid., p. 141. 306 Ibid., p. 142.

Page 172: Thèse version3.R

172

reconnaître qualitativement des conséquences caractéristiques de T sans procéder aux calculs

exacts. »307

Ainsi, suivant les cas, la causalité, la visualisation ou l’unification pourront servir

d’outils pour parvenir à la compréhension.

Il est donc nécessaire de faire une distinction claire entre trois concepts : prédiction,

explication, compréhension. Tout le monde s’accordera pour dire que la prédiction n’implique

pas l’explication (voir les difficultés qu’ont eu les empiristes logiques à définir l’explication

avec le modèle D-N). Dans le cadre mécaniste, l’explication nécessite que la prédiction soit

fondée sur des composants et leurs interactions, capables de rendre compte de la manière dont

un phénomène est produit. Mais selon le critère que nous venons de voir, un modèle

mécaniste ne sera pas compréhensible, si sa complexité empêche le scientifique de tirer des

conclusions qualitatives sur le fonctionnement de ce mécanisme. Nous pensons évidemment

ici aux exemples qui ont été présentés dans le chapitre précédent.

3.4.2. La recherche de principes compréhensibles joue un rôle important en biologie des systèmes

Si l’on veut réellement ignorer cette dimension de la science, on risque d’être

aveugle à beaucoup d’aspects de la recherche. Les scientifiques ont besoin de modèles et de

concepts qu’ils peuvent comprendre plus ou moins intuitivement. La biologie des systèmes,

qui peut sembler mener à des modèles complexes au niveau moléculaire, est en partie orientée

vers la recherche de principes généraux compréhensibles intuitivement. On peut donc affirmer

que la biologie contemporaine n’est pas en train de suivre uniquement une voie menant à des

descriptions de plus en plus détaillées de mécanismes moléculaires, ce qui correspondrait à

l’idée que se fait le réductionniste de la meilleure stratégie explicative possible.

Nous avons déjà eu l’occasion d’exposer la difficulté que rencontrent les

biologistes lorsqu’ils tentent de modéliser les réseaux complexes. Ils se rendent compte que

l’intuition n’est plus suffisante pour analyser ces systèmes et qu’il est nécessaire de recourir à

des modèles mathématiques. Mais ces modèles ne sont pas seulement des outils permettant de

parvenir à des explications « classiques », compréhensibles. Ils sont souvent en eux-mêmes

les seules explications. Cela explique pourquoi les biologistes se sentent souvent perdus dans

ce nouveau contexte : ils ne peuvent les saisir intuitivement, mais ils n’ont rien d’autre.

L’explication est dans les détails.

307 Ibid., p. 151.

Page 173: Thèse version3.R

173

Pour bien comprendre cette idée, il faut distinguer deux rôles que peut jouer un

modèle mathématique ou une simulation. Dans un cas, il peut permettre de tester un modèle

mécaniste classique, qui n’est lui-même pas fondamentalement complexe. Par exemple, le

groupe de Denis Duboule a récemment eu recours à la modélisation pour départager plusieurs

hypothèses de mécanismes de régulation de l’expression colinéaire des gènes Hoxd dans la

formation des doigts, qu’ils étudient depuis longtemps.308 Cette approche s’est révélée très

utile, en ce qu’elle a permis de valider un modèle qui décrit un processus en deux étapes.

Premièrement, un complexe impliquant des séquences régulatrices situées à l’extérieur du

groupe de gène Hoxd et des facteurs liés interagit avec la région intergénique. Dans un

deuxième temps un processus de scanning permet d’exprimer les différents gènes du

complexe selon les affinités de leurs promoteurs. Le détail de ce modèle n’est pas important

pour notre propos, mais il faut remarquer que le schéma retenu est compréhensible

intuitivement, comme la plupart des modèles mécanistes en biologie moléculaire, c’est-à-dire

à partir d’un simple schéma. La modélisation a permis avant tout de bien exploiter les

nombreuses données quantitatives qui avaient été accumulées afin de tester différents modèles

mécanistes.

En revanche, dans beaucoup de modèles complexes, on ne peut que constater que le

réseau modélisé possède un certain comportement dynamique et certaines propriétés

fonctionnelles. Nous avons affirmé dans le chapitre précédent que des modèles complexes,

même lorsqu’ils sont totalement opaques à l’intuition, peuvent être considérés comme des

véritables explications. Mais il est clair que les biologistes ne peuvent en rester là ; ils veulent

en outre avoir une certaine saisie intuitive du processus. Nous avons déjà eu l’occasion de

citer des biologistes se plaignant de l’opacité des modèles complexes. Nous voulons insister

sur cette insatisfaction profonde et récurrente. On trouve très souvent dans la littérature des

affirmations de ce type : « La modélisation, comme le calcul, devrait produire de la

compréhension, par seulement des chiffres. »309

Les modèles complexes ont besoin d’être eux-mêmes représentés de manière plus

simple, d’être idéalisés en quelque sorte. Comme nous l’avons vu, les simulations possèdent

certaines caractéristiques qui les rapprochent des expériences. En variant les conditions, on

voit apparaître des phénomènes émergents, sans toujours comprendre ce qui dans le modèle

est déterminant. S’il n’y a là rien de fondamentalement mystérieux, ces phénomènes

308 T. Montavon et al., « Modeling Hox gene regulation in digits: reverse collinearity and the molecular origin of thumbness », Genes and Development, 22 (2008): 346-359. 309 J. W. Haefner, Modeling Biological Systems, Chapman and Hall, 1996, p. 151 ; voir aussi p. 5.

Page 174: Thèse version3.R

174

demandent à être expliqués par une sorte d’explication de deuxième ordre.

Cette nécessité de trouver des modèles de haut niveau, qui se superposent aux

simulations détaillées apparaît dans la citation suivante : « Le meilleur test de notre

compréhension des cellules sera de faire des prédictions quantitatives de leur comportement et

de les tester. Cela nécessitera des simulations détaillées des processus biochimiques qui se

déroulent dans les modules. Mais faire des prédictions n’est pas synonyme de compréhension.

Nous devons développer des modèles simplificateurs et de haut-niveau et trouver des

principes généraux qui nous permettront de saisir et de manipuler les fonctions des modules

biologiques. »310

En un mot, nous voulons montrer que les biologistes ne cherchent pas uniquement à

trouver les meilleures explications objectives, mais également des explications satisfaisantes

étant donnés leurs limites et intérêts.

Si l’on admet que la compréhension joue un rôle important dans la recherche

scientifique, deux questions se posent dans le contexte de la biologie des systèmes. Tout

d’abord, quels genres de principes intelligibles les biologistes peuvent-ils espérer trouver et

ensuite, en quoi le développement de modèles complexes, qui en eux-mêmes sont peu

intelligibles, pourraient-ils nous aider à comprendre les systèmes biologiques ?

Nous allons revenir au cas des voies de signalisation, car il illustre très bien le défi

auquel sont confrontés les biologistes depuis peu. Comme on l’a vu, les voies de transduction

de signaux sont un domaine où les progrès empiriques ont été spectaculaires et où l’on

commence à pouvoir construire des bons modèles au niveau moléculaire. C’est donc un cas

qui semble favorable à l’interprétation réductionniste des stratégies de recherche.

Dans une revue consacrée à la modélisation de ces réseaux, le biologistes Upinder

Bhalla constate que nos connaissances des réseaux de signalisation sont en effet parvenues à

un niveau de détail tel que nous sommes en passe de pouvoir les modéliser au niveau

moléculaire.311 Mais à ce stade, comme chez les auteurs cités plus haut, la question de la

compréhension se pose naturellement : « Etant donné le niveau actuel de détails des

simulations et des tailles des bases de données, la cellule semble être un système qui n’est pas

réellement adapté à l’intuition humaine. »312 Il ajoute plus loin : « Tout cela est très bien,

mais l’objectif de la modélisation n’est pas de remplacer une cellule complexe par un modèle 310 L. H. Hartwell et al., « From molecular biology to modular cell biology », Nature, 402 (1999): C52, nous soulignons. 311 U. S. Bhalla, « Understanding complex signaling networks through models and metaphors », Progress in Biophysics and Molecular Biology, 81(2003): 45-65. 312 Ibid., p. 46.

Page 175: Thèse version3.R

175

merveilleusement complexe. Ayant réduit les choses au niveau moléculaire, qu’est-ce que

cela nous dit, en des termes utiles à de simples humains, sur la manière dont les cellules

fonctionnent? »313

Sa réponse est que la modélisation nous mène sur la voie de métaphores qui

peuvent nous apporter une certaine compréhension : « Il apparaît que les outils de simulation

nous donnent les moyens de faire face à cette complexité et que ces outils révèlent des

similarités avec des métaphores familières qui pourraient nous aider à comprendre. »314 Dans

un autre passage intéressant, il écrit : « Malgré l’image populaire d’un modèle informatique

comme étant une représentation complexe d’un système biologique complexe, de tels modèles

fournissent de profonds éclaircissements sur les fonctions de signalisation, qui pourraient

nous permettre de réfléchir à leur sujet plus facilement. »315

Construire des modèles détaillés des systèmes biologiques mène à des parallèles

avec des systèmes que l’on comprend mieux. C’est donc par des métaphores que notre

compréhension peut progresser dans ce domaine. C’est une question qui a évidemment été

beaucoup discutée en philosophie des sciences, et notamment en philosophie de la biologie où

les métaphores ont toujours eu une place si importante.316 Une des caractéristiques les plus

remarquables des métaphores, c’est qu’elles sont souvent trompeuses. Mais, pour Bhalla,

lorsqu’elles sont fondées sur des simulations numériques et des données expérimentales, elles

peuvent être un puissant moyen pour l’homme de comprendre ces systèmes complexes.

Quelles sont donc ces métaphores suggérées par la modélisation ? Bhalla en

présente quatre, qui sont en fait des variantes d’approches en termes de circuits, que nous

avons déjà eu l’occasion de rencontrer dans le chapitre précédent. Une présentation rapide de

ces métaphores suffira à voir l’idée en question.

Le premier exemple de Bhalla concerne les circuits logiques. Il s’agit d’un cadre

qui n’est pas complètement nouveau, puisque les premiers travaux dans le domaine datent des

années 70. Les modèles booléens des réseaux génétiques représentent certainement le cas le

plus connu. Cette approche à été popularisée par Stuart Kauffman, qui a été l’un des premiers

313 Ibid., p. 52. 314 Ibid. 315 Ibid., p. 47. 316 M. Hesse, Models and Analogies, University of Notre Dame Press, 1970 ; D. M. Bailer-Jones, "Models, Metaphors, and Analogies," in P. Machamer & M. Silberstein (ed.), Blackwell Guide to Philosophy of Science, Oxford, Blackwell, 2002, pp.108-127.

Page 176: Thèse version3.R

176

scientifiques à développer ces modèles.317 Dans un réseau booléen, chaque composant (ou

nœud) est représenté par une variable booléenne (0 ou 1), selon qu’il est actif ou non. Les

interactions entre composants sont représentées de la manière suivante: le changement d’état

de chaque nœud est calculé par des fonctions booléennes qui prennent comme argument les

états des nœuds qui l’influencent. L’évolution du système se calcule de manière discrète. Ces

modèles permettent d’avoir une connaissance qualitative des propriétés dynamiques de

certaines topologies, en particulier des boucles de rétroaction. On voit par exemple que les

boucles de rétroaction négatives peuvent donner naissance à de l’homéostasie ou à des

oscillations, alors que les boucles de rétroaction positives peuvent engendrer une

multistabilité. Nous avons vu que des modèles nettement plus détaillés sont souvent utilisés

pour étudier ces structures, mais ce qu’il faut remarquer ici c’est que ces représentations

simples permettent une prédiction qualitative capable de nous éclairer sur les comportements

globaux de ces réseaux.

Les réseaux neuraux sont un autre exemple. La comparaison entre réseaux

biologiques et neuraux est assez naturelle et la similitude est plus grande qu’avec les circuits

logiques. Un réseau neural est constitué d’unités appelées neurones, qui sont des images très

simplifiées des véritables neurones. Chaque neurone peut recevoir plusieurs entrées et les

additionner selon leurs poids respectifs. La sortie d’un neurone dépend du résultat de cette

sommation. La structure de ces réseaux est en général assez complexe avec de nombreuses

boucles de rétroaction. Ces modèles permettent de mieux comprendre la distribution du

traitement de l’information sur l’ensemble du réseau et la robustesse qui en résulte. Ils

permettent également de comprendre comment est possible la reconnaissance de motifs dans

des signaux d’entrée complexes en présence de bruit. Cet aspect est, bien entendu,

particulièrement important dans le cas des voies de signalisation. Il ne faudrait pas se

méprendre : ces modèles de réseaux neuraux sont également complexes, mais on dispose de

connaissances générales qui nous permettent de voir que telle classe de réseau a telles

propriétés fonctionnelles. Les scientifiques ont donc développé une connaissance intuitive de

ces systèmes. C’est de cette manière que l’analogie permet le transfert de connaissance.

Les circuits électroniques fournissent également des concepts très utiles. Il est par

exemple possible de parler de certains processus en termes d’amplification ou d’intégration de

signaux. Selon Bhalla : « On a une description intuitive raisonnable de la phototransduction

317 S. A. Kauffman, « Metabolic stability and epigenesist in randomly connected nets », Journal of Theoretical Biology, 22 (1969) : 437 ; S. A. Kauffman, « Gene regulation networks: A theory for their global structure and behavior », Current Topics in Developmental Biology, 6 (1971) : 145.

Page 177: Thèse version3.R

177

en termes d’une analogie très simple avec un amplificateur à contrôle de gain. Des

expériences et des simulations minutieuses sont nécessaires pour comprendre les détails, mais

pour les besoins de la compréhension humaine, le concept d’amplificateur est assez précis.»318

L’analogie avec ces circuits est particulièrement féconde, car, dans les deux cas, les propriétés

fonctionnelles sont évidentes.319

Dans le cas de systèmes plus larges et plus intégrés, il faut passer à un plus haut

niveau d’abstraction. Lors de décisions cellulaires complexes, on peut considérer que les

réseaux de signalisations effectuent des calculs de manière combinatoire au niveau des entrées

et des sorties. En effet, à partir d’une combinaison de signaux internes et externes, ces réseaux

vont déterminer un nouvel état d’expression des gènes ainsi que des changements dans

l’activité de nombreux processus cellulaires. C’est ce que Bhalla appelle le décodeur

combinatoire. En permettant de construire une telle image, les simulations nous aident à

trouver un niveau de description capable de donner un sens à cette foule de processus

physico-chimiques intervenant dans les phénomènes de signalisations, par lesquels une cellule

est capable de sentir et de s’adapter à son environnement.

Ces métaphores peuvent être utiles à différents niveaux d’analyse, du simple motif

composé de trois ou quatre éléments à un très large réseau. Il faut souligner que cette vision

reflète un autre aspect important des analyses en termes de modules. Les principes dont parle

Bhalla correspondent en effet à des descriptions simplifiées de comportements de modules.

Nous avons vu dans la section précédente que les modules représentaient un bon niveau

d’abstraction auquel analyser des propriétés systémiques, mais il apparaît maintenant qu’ils

sont également le lieu où des principes intelligibles peuvent être trouvés.

Mais revenons au problème de la compréhension. Si l’on reprend la définition

formulée par de Regt et Dieks, on peut dire que ces métaphores et ces principes permettent

aux scientifiques de tirer dans une certaine mesure des conséquences qualitatives sur le

comportement des systèmes étudiés et cela sans faire les calculs précis. Une fois que le

processus de modélisation nous a conduit à représenter un réseau biologique comme un

circuit électronique aux propriétés bien connues, on comprend intuitivement comment il

réalise certaines fonctions. C’est donc dans ce sens qu’ils permettent de mieux les

comprendre. Mais, bien entendu, cela ne rend pas les calculs inutiles. Il s’agit plutôt de

disposer de plusieurs modèles du même système. Certains de ces modèles serviront avant tout

318 U. S. Bhalla, op. cit., p. 60. 319 Nous approfondirons dans les chapitres suivants l’utilité des concepts et outils de l’ingénierie pour la biologie.

Page 178: Thèse version3.R

178

à permettre au biologiste de disposer d’une représentation plus simple du système. Les

simulations permettront surtout de valider et de fonder l’analogie.

Afin d’éviter tout malentendu, répétons dans quel sens nous utilisons les trois

concepts centraux de prédiction, d’explication et de compréhension. Les modèles prédictifs ne

peuvent être considérés comme explicatifs que lorsqu’ils renvoient à des mécanismes sous-

jacents (dans le cas contraire, ce ne sont que des modèles phénoménologiques). Il existe

d’autre part des modèles prédictifs qui sont en outre explicatifs, parce que référant à des

mécanismes320, mais qui ne peuvent être compris, dans le sens où il est impossible pour le

scientifique de suivre le lien entre les conditions initiales et le comportement du système. Il

existe enfin des modèles formulés en termes plus généraux, qui assurent une certaine

intelligibilité, dans la mesure où ils permettent de déterminer les comportements des systèmes

étudiés de manière qualitative, sans effectuer les calculs.

Paul Nurse rejoint les conclusions de Bhalla lorsqu’il discute la possibilité de

décrire et par là même d’expliquer les phénomènes de signalisation en termes de complexes

de signalisation réalisant des opérations logiques.

« Les complexes de signalisation sont des petits éléments computationnels à état

solide, qui fonctionnent rapidement et efficacement. [...] Il me semble que les complexes de

signalisation pourraient finalement nous aider à comprendre même les voies extrêmement

compliquées de signaux intercellulaires. [...] Les complexes de signalisation peuvent réduire

une longue liste d’espèces de protéines catalysant de multiples liaisons et réactions

catalytiques, à une simple voie composée d’un petit nombre d’unités de traitement et

d’espèces de signaux. En un sens, on pourrait dire qu’ils nous mènent d’une « description » à

une « explication » – la distinction entre les deux résidant principalement dans le nombre

d’éléments. C’est seulement lorsque le nombre d’éléments devient suffisamment petit que

l’on peut espérer les manipuler mentalement et ainsi atteindre une compréhension

intuitive. »321

Bien que nous considérions qu’un modèle complexe est bien une explication et pas

seulement une description, nous voyons dans cette citation une preuve supplémentaire du

320 La question de savoir à partir de quand un modèle est explicatif est délicate à trancher. Voir par exemple le débat entre Marcel Weber et Carl Craver à propos du modèle du potentiel d’action de Hudgkin-Huxley. Weber (M. Weber, « Causes without Mechanisms: Experimental Regularities, Physical Laws, and Neuroscientific Explanation », Philosophy of Science (à paraître)) défend l’idée que ce modèle est explicatif alors que pour Craver (C. Craver, « When mechanistic models explain », Synthese, 153,(2006)), le fait qu’il ne soit pas fondé sur un mécanisme l’empêche d’être un véritable modèle explicatif. 321 P. Nurse, “Reductionism and explanation in cell biology”, in G. R. Bock and J. Goode, The limits of reductionism in biology, Londres, Novartis Foundation Symposium, 1998, p. 104.

Page 179: Thèse version3.R

179

besoin ressenti par les biologistes de pouvoir trouver des modèles de ces réseaux complexes

qu’ils peuvent manipuler mentalement.

Nos exemples se sont jusqu’ici limités au cas des voies de signalisation, mais il

importe de se rendre compte que, même dans le cas des projets de cellules virtuelles, la

compréhension reste un des enjeux majeurs. L’auteur, qui est à l’origine du projet « Silicon

Cell », écrit : « Construire une réplique précise d’une cellule vivante, et par la suite de l’être

humain lui-même, est l’un des plus importants défis scientifiques et humains. Les difficultés

mathématiques sont énormes, particulièrement lorsque l’on réalise que la réplique doit être

rendue compréhensible par la formalisation et par le découverte ultérieure de principes et de

règles compréhensibles. »322

Nous voyons maintenant mieux la différence entre une interprétation réductionniste

stricte et une position plus nuancée qui intègre les aspects pragmatiques de la recherche. En

effet, si l’on adhère à la vision qu’a Rosenberg de ce que sont les meilleures explications en

biologie, on ne peut comprendre ce que cherche à montrer Bhalla. Selon les réductionnistes,

un modèle complexe au niveau moléculaire serait la meilleure explication d’un système

vivant et, lorsqu’il est possible de construire un tel modèle, le biologiste devrait être satisfait

et ne pas chercher plus loin. Or, comme nous venons de le voir, une partie de la recherche

actuelle vise à comprendre les modes d’organisation des systèmes biologiques à un autre

niveau que celui des interactions entre molécules à proprement parler. Et il ne faudrait pas

penser que cela est uniquement dû à des limites computationnelles, comme cela a été décrit

plus haut. En effet, l’exemple de Bhalla illustre bien le fait que, même lorsque l’on parvient à

construire des bons modèles au niveau des interactions moléculaires, on continue à chercher

des principes d’intelligibilité à d’autres niveaux. Il nous semble donc qu’un réductionnisme

qui ne s’intéresse qu’aux explications objectives (au sens de Rosenberg) n’est absolument pas

capable de rendre compte de cette activité essentielle de la recherche scientifique. On peut

évidemment penser que cette demande de principes intelligibles relève d’une incapacité des

biologistes à prendre acte des changements qui transforment leur domaine et d’un attachement

à des modes de représentation devenus obsolètes et inadaptés. Au contraire, nous pensons que

la philosophie des sciences se doit de prendre au sérieux ces aspects. Il y a beaucoup à perdre

à uniquement réfléchir à une version idéalisée des sciences et l’histoire de l’empirisme

logique doit nous rappeler les dangers des reconstructions rationnelles de la science.

Avant de conclure, nous aimerions relever que, malgré leur volonté de rester sur le 322 H. Westerhoff, “Mathematical and theoretical biology for systems biology, and then ...vice versa”, Journal of Mathematical Biology, 54 (2007), p. 150.

Page 180: Thèse version3.R

180

terrain des explications objectives, les différents auteurs dont nous avons parlé (autant les

réductionnistes que leurs adversaires) se laissent aller à introduire dans leurs discussions des

considérations qui relèvent des aspects pragmatiques de l’explication. Cela nous conforte dans

notre idée qu’il n’est pas sérieusement possible d’ignorer complètement ces aspects.

3.4.3. Les aspects pragmatiques de l’explication réapparaissent sans cesse dans ce débat (ou comment il est difficile de s’en tenir à une conception objective de l’explication)

Un passage du livre de Rosenberg donnera une bonne idée de ce glissement

fréquent vers les questions de compréhension. Il commence par rappeler cette phrase de

Kitcher : « [l’erreur du réductionnisme] réside dans la perte de compréhension à travers

l’immersion dans les détails, avec l’incapacité concomitante de représenter les généralités qui

sont importantes pour la « croissance et la forme » »323 A cela, il répond : « Le réductionniste

rejette l’affirmation qu’il y a une perte de compréhension biologique dans la satisfaction de

l’exigence réductionniste pour l’explication, et il dément qu’il existe des véritable généralités

à représenter ou à expliquer. »324 Nous pouvons également rappeler le passage suivant :

« pourquoi supposer que le reste des détails du développement et du comportement de

Drosophila sont également intelligibles d’un point de vue purement macromoléculaire? »325 Il

nous semble que, dès lors que l’on parle d’intelligibilité, on est dans un registre pragmatique.

On est tenté de répondre à Rosenberg que, s’il s’agit de produire des explications

objectives qui ne dépendent pas des capacités cognitives des chercheurs ou de leurs intérêts,

pourquoi prendre la peine de nier que la stratégie réductionniste conduit à une perte de

compréhension. Rosenberg devrait accepter sans problème que la réduction pourrait ne pas

toujours nous aider à comprendre les systèmes vivants.

Les antiréductionnistes affirment que ce ne sont pas des limites épistémiques qui

fondent les thèses ontologiques sur les pouvoirs causaux des entités non moléculaires, mais

l’existence de niveaux d’organisations dans la nature. Selon Kitcher : « L’antiréductionnisme

conçoit la division actuelle de la biologie, pas simplement comme la caractéristique

temporaire de notre science, provenant de nos imperfections cognitives, mais comme le reflet

de niveaux d’organisation dans la nature. »326 Mais l’affirmation citée plus haut semble

indiquer qu’une des raisons pour lesquelles il rejette le réductionnisme est que celui-ci

323 P. Kitcher, “The Hegemony of Molecular Biology”, Biology and Philosophy,14 (1999) : 206. 324 A. Rosenberg, op. cit., p. 54. 325 Ibid., p. 73. 326 Ibid.

Page 181: Thèse version3.R

181

conduit les biologistes à se perdre dans les détails. Comme chez Rosenberg, il y a confusion

entre des thèses sur la compréhension et sur l’ontologie.

Un des arguments de Laubichler et Wagner est que l’identification d’une partie

causalement importante dans un mécanisme ne peut être définie a priori, mais doit être

justifiée au cas par cas. « Dans de nombreux cas, les molécules sont les entités pertinentes, par

exemple dans les explications du métabolisme cellulaire, mais de présumer qu’elles doivent

toujours être le niveau pertinent de description revient à adopter une position métaphysique

contraire à la conduite scientifique correcte. »327 Un peu plus loin ils écrivent : « Ces exemples

montre que le fait que tous les objets biologiques sont faits de molécules n’implique pas que

les molécules sont le niveau d’analyse le plus informatif. Les propriétés émergentes des

entités supracellulaires peuvent être plus informatives et ainsi avoir plus de force explicative

que les molécules. »328 On voit que le terme pertinent est utilisé à propos de l’explication.

C’est quelque chose que l’on observe souvent dans les arguments des antiréductionnistes. La

question est de savoir comment définir ce qui est pertinent. Y a-t-il un moyen de définir la

pertinence des explications sans faire intervenir des aspects pragmatiques ? Nous ne le

pensons pas et, dans ce cas, la pertinence ne peut servir d’argument contre des thèses fondées

sur une conception non pragmatique de l’explication. En tout cas, ces passages semblent

confirmer l’interprétation pragmatiste de leur antiréductionnisme.

On voit que le malentendu dans certains débats (celui entre Rosenberg et Kitcher en

est un bon exemple) est profond. Si l’on ignore la question de la compréhension et que l’on

parle d’explication objective et possible en principe, aucun des exemples montrant en quoi

des explications non réductives sont supérieures aux autres (pour un scientifique) n’est

pertinents et ne suffit à fonder un antiréductionnisme fort. D’autre part, pourquoi

l’antiréductionniste devrait-il forcément lier ses arguments faisant intervenir la

compréhension à des thèses ontologiques ?

Il faut rappeler que l’un des buts des anti-réductionnistes est de préserver

l’autonomie de la biologie (Ernst Mayr est un très bon exemple). Mais il n’est pas nécessaire

de développer une forme très forte d’anti-réductionnisme pour garantir cette autonomie, par

exemple en cherchant à montrer qu’en principe, les phénomènes biologiques ne peuvent être

réduits (c’est-à-dire expliqués) au niveau moléculaire. Rappeler, comme nous l’avons fait

dans ce chapitre, que pour différentes raisons pratiques cette réduction n’est pas envisageable,

est, nous semble-t-il, tout à fait suffisant. Certains semblent penser que, si la thèse 327 M. Laubichler and G. Wagner, op. cit., p. 60. 328 Ibid., p. 61.

Page 182: Thèse version3.R

182

réductionniste était vraie, alors toutes les études non moléculaires des phénomènes

biologiques perdraient leur valeur, voire leur légitimité scientifique. Tout au plus pourrait-on

dire qu’elles ne seraient utiles qu’à cause des limites humaines. Mais qu’est-ce que la science

conçue en dehors des limites humaines et techniques ? Que la thèse réductionniste soit vraie

ou fausse, les scientifiques n’ont d’autre choix que d’analyser et de décomposer les systèmes

biologiques avec leurs moyens limités, ce qui signifie étudier les différents niveaux avec les

méthodes les plus appropriées. Il est certain que les orientations philosophiques peuvent avoir

des conséquences sur la conduite de la recherche et qu’elles doivent parfois être critiquées

pour défendre des approches délaissées. Les mises en garde contre les dangers d’une trop

grande hégémonie de la biologie moléculaire n’étaient pas sans fondement, mais notre idée

est qu’il n’est pas nécessaire pour cela de conduire ce débat sur le terrain de la métaphysique

et de l’ontologie. D’une part, les arguments pragmatiques sont suffisants pour autant qu’on

parle de méthodologie, et, d’autre part, on risque d’obscurcir les questions proprement

philosophiques.

Ces remarques nous conduisent à revenir à un problème que nous avons déjà

évoqué, celui de la causalité descendante. Cette question a beaucoup été discutée en

philosophie des sciences et la biologie des systèmes semble lui donner une nouvelle

actualité.329 Comme tous les problèmes qui touchent à l’émergence, il s’agit d’une question

extrêmement délicate et nous nous bornerons à faire quelques remarques. Mais nous pensons

que ce sera l’occasion de clarifier notre analyse pragmatique et préciser en quoi elle diverge

des positions « absolutistes ».

Pour un physicaliste comme Rosenberg, l’idée même que la causalité puisse

s’exercer du haut vers le bas est absurde. Il accepte qu’on attribue provisoirement un pouvoir

causal aux entités non moléculaires, mais pense qu’on doit toujours pouvoir l’identifier au

niveau moléculaire. Rosenberg admet le recours aux entités non moléculaires dans les

explications biologiques pour des raisons pratiques, à cause de nos limites cognitives. Dans

son article de 1997330, il soutient que la causalité descendante peut être réconciliée avec le

physicalisme à deux conditions : 1) le concept de cause doit être relatif à celui d’explication :

« nous devons adopter la vue selon laquelle la causalité est une relation entre états,

événements et processus, qui est conceptuellement dépendante de l’explication. C’est-à-dire,

329 Voir notamment M. A. O’Malley et J. Dupré, « Fundamental issues in systems biology », BioEssays, 27 (2005) : 1270-1276. 330 A. Rosenberg, « Reductionism Redux : Computing the Embryo », Biology and Philosophy,12 (1997) : 445-470.

Page 183: Thèse version3.R

183

la notion d’explication est plus fondamentale que la notion de cause. »331 Et 2) on doit

considérer que l’explication est fortement pragmatique. En bref : « Cela signifie que, lorsque

l’explication est considérée comme « subjective », « pragmatique », sa direction peut

descendre du fonctionnel vers le moléculaire. Et si la causalité n’est que l’explication (ou en

dépend), elle aussi peut descendre du biologique vers le moléculaire, en suivant la direction

de l’explication. »332

Ainsi, affirmer qu’un système exerce une causalité sur certains de ses éléments,

reviendrait à dire que c’est l’ensemble des éléments du système qui ont des pouvoirs causaux

sur ces éléments. La causalité descendante serait ainsi un raccourci pour l’ensemble des liens

causaux intrasystémiques, qui se situent tous au même niveau et ce raccourci serait parfois

indispensable.

Jaegwong Kim a défendu une interprétation de ce genre dans « Making sense of

Emergence » : « Si un émergent M, émerge à partir de conditions basales P, pourquoi P ne

pourrait-il pas supplanter M en tant que cause de tout effet possible de M ? »333 Kim propose

de sauver l’idée de causalité descendante en lui donnant une interprétation conceptuelle :

« Nous pouvons alors parler de causalité descendante lorsqu’une cause est décrite en termes

de concepts de haut-niveau, ou dans un langage de haut-niveau, plus haut que les concepts à

l’aide desquels l’effet est représenté. Selon cette approche, par conséquent, la même cause

pourrait être représentée par des concepts et également des langages de bas-niveau, et une

même relation causale serait descriptible dans différents langages. L’approche conceptuelle

pourrait ne pas sauver la véritable causalité descendante [...] ; cependant, ce pourrait être un

moyen suffisant de sauver l’explication causale descendante, et c’est peut-être tout ce dont

nous devons ou devrions nous soucier. »334

De notre point de vue, il semble raisonnable de donner un sens pragmatique et

conceptuel à l’idée de causalité descendante. Toutefois, nous en tirons des conclusions très

différentes que celles de Rosenberg. En effet, pour ce dernier, ce renversement n’est pas

acceptable : « En elle-même, cependant, l’indispensabilité explicative (pragmatique) des

classes biologiques ne pourra justifier leur réalité biologique ou leur autonomie par rapport au

macromoléculaire. Et si les meilleures explications sont celles qui font état de séquences

causales objectives de la manière la plus complète, alors, en fin de compte la biologie

331 Ibid., p. 466. 332 Ibid. 333 J. Kim, « Making Sense of Emergence », Philosophical Studies, 95 (1999) : 3-36. 334 Ibid.

Page 184: Thèse version3.R

184

fonctionnelle pourrait se révéler être une étape dans la direction d’une biologie moléculaire

complètement réduite et peut-être même d’une biologie moléculaire computationnelle. »335

Étant donné l’impossibilité de donner une explication causale complète au niveau

moléculaire, l’idée de causalité à d’autres niveaux et notamment la causalité descendante nous

paraît scientifiquement légitime et féconde, dans la mesure où elle peut rendre les

scientifiques attentifs aux nombreux effets de contexte qui ont si souvent été négligés. Ainsi,

lorsque certains (John Dupré ou Denis Noble) affirment que la biologie des systèmes se

distingue par la reconnaissance de la causalité descendante, on peut accepter cette thèse dans

un sens méthodologique et explicatif. Cette conception permet d’éviter les nombreuses

tensions avec les thèses physicalistes. Si elle paraît beaucoup trop faible pour un

réductionniste comme Rosenberg, c’est qu’il ne prend pas au sérieux les limites pratiques de

la recherche. Précisons qu’il ne s’agit pas seulement de dire comme Rosenberg que les

explications moléculaires sont insatisfaisantes pour nous (« l’explication est parfois

descendante parce qu’il existe des contextes dans lesquels les réponses moléculaires correctes

aux questions visant une explication sont non-explicatives (pour nous). »336), mais que les

explications moléculaires sont parfois inaccessibles. En prenant, comme nous l’avons fait, ces

limites pleinement en compte, on aboutit à une thèse qui nous dit que l’autonomie des niveaux

non moléculaires est assurée et que la biologie ne sera jamais complètement réduite. Cette

thèse nous paraît beaucoup plus forte que Rosenberg ne le pense. Nous retrouvons ici la

différence essentielle qu’il y a entre une analyse objective et une analyse pragmatique des

sciences. Ce qui pour la première est insignifiant représente pour la seconde un élément

fondamental sur lequel tout réflexion doit en partie se fonder.

Conclusion

La biologie des systèmes introduit un déplacement explicatif vers le niveau

modulaire (mais évidemment sans négliger l’étude des détails moléculaires). Ce déplacement

peut s’expliquer par deux raisons, qui correspondent aux deux dimensions pragmatiques de la

recherche et de l’explication que nous avons discutées dans ce chapitre. Premièrement, le

niveau modulaire (étant entendu qu’il y a une hiérarchie de modules) correspond à un

intermédiaire entre, d’une part, le niveau des détails moléculaires, qui ne peuvent expliquer

des phénomènes complexes, et, d’autre part, le niveau global, qu’il est impossible de

335 A. Rosenberg, op. cit., p. 468. 336 Ibid., p. 467.

Page 185: Thèse version3.R

185

modéliser en détail. Il s’agit de pouvoir représenter les phénomènes systémiques, sans être

paralysé par une forme de holisme, où il serait nécessaire de prendre en compte toutes les

interactions pour expliquer l’émergence des fonctions biologiques. Deuxièmement, la

description modulaire est essentielle pour parvenir à une certaine intuition de ces réseaux et

notamment pour identifier les aspects structuraux les plus importants pour l’émergence des

fonctions biologiques. Ce niveau d’analyse est donc une condition essentielle à une

décomposition des systèmes biologiques qui est attentive aux phénomènes dynamiques

complexes si importants dans le fonctionnement des systèmes biologiques, tout en assurant

une certaine intelligibilité de ces systèmes. Remarquons que ces deux aspects sont clairement

liés, mais sans être identiques, dans la mesure ou ils renvoient à des limites de nature

différente (computationnelles vs. cognitives).

Au regard de tout ce que nous venons de voir dans les deux derniers chapitres,

notre position sur la question du réductionnisme veut rester nuancée. S’il est vrai que la

biologie des systèmes poursuit et étend l’effort d’analyse des systèmes biologiques au niveau

moléculaire, qui est au fondement de la biologie moléculaire, nous voyons plusieurs raisons

de ne pas en déduire un principe méthodologique et explicatif absolu, selon lequel les

meilleures explications viendront toujours d’une plongée dans les détails moléculaires. D’une

part, il est clair que la biologie ne pourra sans doute jamais produire de telles explications

pour des raisons de limites pratiques. On peut évidemment penser que ce n’est pas un

problème et que l’important est de disposer d’une preuve de principe et d’un idéal régulateur

pour la recherche. Malheureusement, cet idéal risque d’être un mauvais guide

méthodologique, dans la mesure où il peut nous pousser à rechercher des explications

réductionnistes un peu trop vite, en sous-estimant la complexité et l’importance du contexte

systémique, qui est (pour l’instant) inexprimable en termes moléculaires. En d’autres termes,

on risque de s’en tenir à des modèles beaucoup trop simplistes. Nous avons vu que les

interprétations que donnent certains biologistes (Davidson) et philosophes (Rosenberg) des

modèles des réseaux de régulation génétique impliqués dans le développement constituent un

bon exemple de ce genre de dérives. Mais, si nous disons que le réductionnisme peut être un

mauvais guide méthodologique, nous pensons qu’il est vain de vouloir déterminer a priori

quels types d’entités ou de propriétés fonctionnelles ne pourraient être expliqués en termes

moléculaires et nous rejetons les arguments a priori contre les explications réductives.

Le second problème de ce credo réductionniste tient au fait que, pour des raisons

qui tiennent à leur besoin de comprendre intuitivement la nature des systèmes qu’ils étudient,

les biologistes ne cherchent pas uniquement à formuler des explications en termes

Page 186: Thèse version3.R

186

moléculaires (ou les plus réductionnistes) et cela même quand c’est possible. Cela n’est pas

un vrai problème pour une position réductionniste forte, qui rejette les aspects pragmatiques

de la science, mais il faut reconnaître qu’une telle position se condamne à ne pas décrire la

pratique scientifique de manière satisfaisante. Notre approche cherche à mieux comprendre

les changements introduits par la biologie des systèmes et les enjeux de ces approches. Le fait

que les principes explicatifs soient recherchés à différents niveaux est fondamental et il faut

pouvoir en rendre compte.

En conclusion des deux derniers chapitres, nous pensons que la problématique du

réductionnisme telle qu’elle est le plus souvent formulée, n’offre pas la meilleure manière de

réfléchir aux progrès que représente la biologie des systèmes, ni à ses limites. Nous estimons

que ces nouvelles approches exigent des analyses plus nuancées que ce que proposent la

plupart des biologistes et des philosophes. Nous espérons avoir montré comment, au delà

d’une opposition entre approches réductionnistes et anti-réductionnistes, la modélisation en

biologie des systèmes ouvre des possibilités nouvelles d’analyse et d’explication des systèmes

biologiques, en permettant de plus facilement passer d’un niveau à l’autre et d’intégrer ces

niveaux dans des modèles multiniveaux, d’étudier des phénomènes systémiques émergents

tout en intégrant les détails moléculaires, de comprendre quels détails sont importants et

lesquels le sont moins, ou encore d’identifier des principes intelligibles dans la masse de gory

details.

Nous pensons par conséquent que si l’on veut décrire la biologie des systèmes

comme un développement des approches réductionnistes, il est nécessaire d’accepter une

conception plus pragmatique et pluraliste de ce qu’est le réductionnisme.

Page 187: Thèse version3.R

187

Chapitre 4

Les défis d’une biologie théorique

Un des aspects les plus intéressants de la biologie des systèmes correspond à

l’ambition de développer une biologie théorique. Nous verrons dans le chapitre suivant

quelles formes et quelles directions prend cette recherche depuis quelques années. Il nous

paraît toutefois essentiel de faire précéder cette discussion par une réflexion générale sur ce

que pourrait ou devrait être une biologie théorique, ainsi que sur les difficultés que soulève ce

projet. C’est ce que nous nous proposons de faire dans ce chapitre.

Quelques remarques évidentes nous permettront d’engager cette discussion.

Premièrement, il faut constater que le projet de créer une biologie théorique est loin d’être

récent. Deuxièmement, le scepticisme que ce projet suscite est tout aussi vieux et sa légitimité

a souvent été mise en doute. Troisièmement, l’ensemble des projets que l’on peut considérer

comme relevant d’une biologie théorique forment une classe particulièrement hétérogène. Il

est ainsi loin d’être évident de donner une définition de la biologie théorique.

Il nous semble qu’une bonne manière d’aborder ces questions est d’adopter une

perspective historique. Au travers de quelques exemples classiques (ou en tout cas

relativement connus), nous reviendrons sur les différentes discussions qui ont porté sur la

pertinence et la possibilité de développer une biologie théorique et sur les obstacles qu’une

telle entreprise a rencontrés sur son chemin. Comme dans le premier chapitre de ce travail, il

ne sera pas question de mener ici un véritable travail d’historien des sciences, travail qui

dépasserait nos compétences ainsi que l’esprit de nos recherches. Les rappels historiques que

nous allons faire n’ont d’autre ambition que de faire apparaître certains enjeux philosophiques

majeurs liés à la question de la biologie théorique. Ce sont ces questions qui nous intéressent

Page 188: Thèse version3.R

188

au premier chef et elles formeront le cadre dans lequel nous analyserons les développements

théoriques de la nouvelle biologie des systèmes.

4.1. Première caractérisation de la biologie théorique Commençons par examiner ce qu’on entend en général par l’expression biologie

théorique. Quel type d’approche recouvre habituellement ce terme ? Quels critères distinguent

la biologie théorique des autres courants de recherche ?

Il semble que, pour beaucoup de scientifiques, la biologie théorique renvoie au

développement de modèles mathématiques pour rendre compte des phénomènes biologiques

et serait ainsi synonyme de « biologie mathématique ». Étant donné que des modèles

mathématiques sont utilisés pour représenter toutes sortes de phénomènes biologiques, la

biologie théorique existerait dans différents domaines : génétique, biologie moléculaire et

cellulaire, physiologie, embryogenèse, évolution, ou encore écologie. La particularité de la

biologie théorique, et ce qui la distinguerait de la biologie expérimentale, serait donc

l’utilisation de modèles d’une autre nature, à savoir des modèles formels. Si les modèles sont

omniprésents en biologie, dans la mesure où toute forme de recherche passe à un moment ou

à un autre par le développement de modèles pour représenter et organiser les résultats, il est

vrai que les modèles habituellement utilisés par les biologistes ne sont pas sous forme

mathématique.

Une autre idée importante est qu’un travail théorique devrait se situer – en tout cas

en partie – en dehors du champ expérimental. La recherche devrait avant tout se faire au

niveau des modèles et le but serait de dégager certaines propriétés de ces modèles, qui

pourraient nous renseigner sur des caractéristiques des systèmes étudiés. Ces propriétés ne

pourraient être étudiées à l’aide des seules approches expérimentales. Ainsi, à la différence

des modèles utilisés par les expérimentalistes, les modèles théoriques possèderaient une

certaine autonomie par rapport à l’expérience.

Pour beaucoup, l’idée de biologie théorique renvoie également à un travail

d’analyse conceptuelle. Des efforts de clarification ont par exemple été particulièrement

importants en biologie de l’évolution. Le meilleur exemple est sans doute celui du débat sur

les niveaux de sélection.337 Dans ce débat, qui agite depuis longtemps la communauté des

biologistes et des philosophes de la biologie, il s’agit de clarifier le principe de sélection 337 Ce débat a produit une littérature immense. Nous nous contenterons de donner une référence récente dans lasquelle on trouvera une bibliographie très complète. S. Okasha, Evolution and the Levels of Selection, Oxford, Oxford University Press, 2007.

Page 189: Thèse version3.R

189

naturelle proposé par Darwin. La question est la suivante : ce principe s’applique-t-il aux

organismes, à un autre niveau, ou doit-on considérer qu’il peut s’appliquer à n’importe quel

niveau d’une hiérarchie au sein de laquelle les organismes ne formeraient qu’un échelon ? On

sait que certains biologistes ont proposé de se restreindre au niveau du gène338, alors que

d’autres ont défendu l’existence d’une sélection de groupe339. Ce qu’il faut retenir ici, c’est

que ce débat peut être considéré comme théorique, dans la mesure où il ne s’agit pas

directement (et en tout cas pas uniquement) d’une question empirique. Ce que nous entendons

par là, c’est qu’avant même de chercher dans la nature quels sont les processus évolutifs à

l’oeuvre, il est nécessaire d’analyser clairement les caractéristiques de ce que l’on devrait

considérer comme un niveau de sélection.

Tous ces éléments sont certainement essentiels et contribuent à cerner ce qu’il y a

derrière les divers projets de biologie théorique, mais ils ne suffisent pas, selon nous, à

comprendre un des enjeux majeurs que représente l’idéal théorique en biologie : la recherche

de généralité.

Il est indéniable que la volonté de trouver des principes généraux capables d’unifier

la fabuleuse diversité des phénomènes du vivant est très ancienne. Comme beaucoup de

commentateurs l’ont souligné, le grand accomplissement de Darwin est d’avoir permis une

unification spectaculaire des sciences biologiques, en trouvant un principe général, valable

pour tout le vivant. Comme on le sait, la théorie de l’évolution par sélection naturelle a permis

d’unifier des phénomènes très divers et d’intégrer en une théorie biologique des domaines

comme la paléontologie et l’embryologie.

Mais les doutes concernant la possibilité de parvenir à formuler des théories au sens

de la physique sont certainement tout aussi anciens. On sait que Kant a exprimé un certain

scepticisme concernant l’existence de lois du vivant similaires à celles que Newton avait mis

au jour pour les phénomènes physiques : « il est absurde pour les hommes [...] d’espérer, qu’il

surgira un jour quelque Newton, qui pourrait faire comprendre ne serait-ce que la production

d’un brin d’herbe d’après des lois naturelles qu’aucune intention n’a ordonnées. »340

Toute l’histoire de la biologie est ainsi traversée par une tension entre élans

théoriques et volonté de s’en tenir aux approches expérimentales ; entre désir de rejoindre la

physique dans sa quête de principes et de lois universels et l’affirmation de l’irréductible

singularité de la biologie. L’histoire de la biologie au XXe siècle (surtout la seconde moitié)

338 R. Dawkins, The selfish gene, Oxford, Oxford University Press, 1976. 339 V.C. Wynne-Edwards, Animal Dispersion in Relation to Social Behaviour, Edinburgh, Oliver & Boyd, 1962. 340 E. Kant, Critique de la faculté de juger, §75, Paris, Librairie Philosophique J. Vrin, 1993, p. 335.

Page 190: Thèse version3.R

190

va nous permettre de faire apparaître l’importance de cette soif de généralité, qui, mieux que

les efforts de formalisation, caractérise à notre avis les projets théoriques.

Lorsque l’on s’intéresse à ces approches d’un point de vue historique, un problème

délicat se pose d’emblée. Même en restreignant la période considérée, nous faisons face à une

très grande hétérogénéité de méthodes, de présupposés, de cadre conceptuels, etc. Comment

faire une histoire de la biologie théorique dans ces conditions ? Ne risque-t-on pas de tomber

dans l’arbitraire en regroupant des travaux qui n’ont pas grand-chose à voir entre eux ? Il nous

semble que plusieurs raisons peuvent justifier de rassembler des approches variées et de les

caractériser de manière globale. Premièrement, il est possible, au moins en partie, de

distinguer une continuité historique dans ce mouvement. Il existe différents liens, notamment

personnels et institutionnels, qui unissent un certain nombre d’acteurs qui ont oeuvré dans

cette direction. Deuxièmement, il apparaît assez clairement que l’idéal de généralité que nous

venons d’évoquer sous-tend toutes ces approches et constitue en quelque sorte leur

dénominateur commun.

Nous allons commencer par rapidement retracer certains liens intéressants que l’on

peut établir entre les différents projets de biologie théorique, liens qui font qu’on peut, jusqu’à

un certain point, parler d’une communauté scientifique de biologistes théoriciens. Dans un

deuxième temps, nous présenterons quelques tentatives connues, en soulignant à chaque fois

le rôle central joué par la recherche de généralité.

4.2. Petite histoire de la biologie théorique au XXe siècle

4.2.1. Une communauté de biologistes théoriciens S’il a existé des liens qui ont uni des chercheurs aux formations, aux intérêts et aux

méthodes très variés, et si ces liens ont permis la constitution d’une communauté – ou peut-

être devrait-on dire d’une ébauche de communauté – c’est essentiellement parce que certains

scientifiques ont joué le rôle de pivot et de catalyseurs dans cette entreprise qui a eu pour but

le développement d’une biologie théorique forte et respectable.

À cet égard, le cas de Conrad Waddington est exemplaire. Sans même parler de ses

nombreuses contributions intellectuelles à ce projet (nombreux livres et articles), Waddington

s’est toujours efforcé de rassembler des chercheurs partageant cet idéal, dans l’espoir de

donner une véritable impulsion à cette entreprise. Dès les années 30, il crée, avec Joseph

Page 191: Thèse version3.R

191

Needham et d’autres biologistes, un club de biologie théorique à Cambridge. Entre la fin des

années 60 et le début des années 70 il organise des rencontres entre scientifiques sur ce même

thème. On peut dire que ces conférences, qui se sont tenues en Italie, ont joué un rôle

déterminant dans le développement de la biologie théorique dans les années 70 et 80, et même

jusqu’à maintenant. Les contributions à ces conférences ont été rassemblées dans quatre

volumes édités par Waddington et intitulés « Towards a theoretical Biology »341. Ces

publications ont permis de faire connaître à un cercle plus large les discussions qui ont animé

ces conférences. Dans les années 80, mais surtout 90, plusieurs participants à ces rencontres

ont cherché à poursuivre le projet de Waddington, non seulement en publiant des travaux

théoriques, mais également en organisant des conférences dans l’esprit des quatre premières.

Il est intéressant de se pencher sur la liste des participants à ces conférences. On

retrouve en effet beaucoup de noms qui ont façonné la biologie théorique des 40 dernières

années. Dans la préface du recueil rassemblant les contributions présentées à une conférence

qui s’est tenue au Mexique en 1987, Goodwin et Saunders insistent sur la continuité entre les

différentes tentatives en biologie théorique. Ils considèrent cette réunion comme le

prolongement naturel des conférences organisées par Waddington en Italie.342 Ils notent que la

continuité n’est pas seulement en termes d’esprit, mais également de participants, puisqu’on

retrouve dans ces événements des chercheurs comme Brian Goodwin, Lewis Wolpert, Stuart

Kauffman ou encore René Thom.

Entre les années 50 et 70, d’autres figures populaires et controversées ont tenté

d’ouvrir des voies de recherche s’éloignant de la biologie moléculaire, qui connaissait alors

pourtant ses plus grands succès. La théorie générale des systèmes, défendue par Ludwig von

Bertalanffy343, en est sans doute l’exemple le plus connu (son origine remonte en fait aux

années 30, mais c’est surtout à partir des années 60 qu’elle se fait connaître). Des auteurs

comme Robert Rosen344, Nicolas Rashevski345 ou encore Mesarovic346 ont également chacun

proposé des théories ou du moins des approches théoriques originales. Il n’est cependant pas

toujours possible d’établir des liens entre ces chercheurs ou de les rattacher de manière 341 C. H. Waddington (Ed.), Towards a theoretical Biology, Edinburgh, Edinburgh University Press, 4 volumes, 1968, 1969, 1970, 1972. 342 « Ce volume est offert comme un lien dans une tradition ininterompue et avec une dédicace particulière à C. H. Waddington, à qui tant d’entre nous sont redevables de son imagination et l’ampleur de sa vision. » (B. Goodwin and P. Saunders (Eds.), Theoretical Biology, Edinburgh, Edinburgh University Press, 1989, p. viii). 343 L. von Bertalanffy, General System Theory. Foundations, Development, Applications, New York : George Braziller, 1968. 344 R. Rosen, Dynamical systems theory in biology. N �ew-York, Wiley Intersciencebiology, 1970. 345 N. Rashevsky, « Topology and life: In search of general mathematical principles in biology and sociology ». Bulletin of Mathematical Biophysics, 16 (1954) : 317-348. 346 � M.� D. M�e�s �a�r �o �v �i�c� (Ed.) ��,� �S �y�s �t�e�m �s � �t�h �e�o �r �y� �a �n �d � �b �i�o �l�o �g �y�, N �ew-York,� �S �p �r �i�n �g �e�r �V �e�r �l�a�g, �1 �9 �6 �8.

Page 192: Thèse version3.R

192

évidente à cette communauté dont nous avons parlé. Il ne faudrait donc pas exagérer cette

unité et risquer de sous-estimer l’existence de travaux isolés et complètement marginaux. Des

chercheurs comme Rashevsky, Rosen ou encore Ganti sont restés très isolés pendant leur

carrière.

À partir des années 90, ce courant a surtout pris la forme de recherches sur ce qu’on

appelle généralement la complexité, l’auto-organisation ou l’émergence. Les études sur la vie

artificielle sont à classer dans cette catégorie. Ici aussi, des acteurs centraux comme Stuart

Kauffman permettent de voir une certaine continuité dans ce mouvement, notamment à

travers des institutions comme le « Santa Fee Institut », institution crée en 1984, avec pour

mission de favoriser l’interdisciplinarité dans l’étude des systèmes complexes. On retrouve

dans cet institut, non seulement Kauffman, mais également Goodwin.

4.2.2. Recherche des principes généraux (une biologie théorique doit être une biologie générale)

Conrad Waddington a donc, tout au long de sa carrière, appelé de ses voeux le

développement d’une véritable biologie théorique et oeuvré dans ce sens. Dans la préface du

premier des quatre volumes intitulés Towards a Theoretical Biology, qu’il a édités, il déplore

l’absence d’une réflexion théorique en biologie en ces termes : « La physique théorique est

une discipline bien reconnue, et il existe des départements et des chaires consacrées au sujet

dans de nombreuses universités. En outre, il est largement accepté que nos théories sur la

nature de l’univers physique ont des conséquences profondes pour des problèmes de

philosophie générale. Par contraste avec cette situation, on ne peut guère dire de la biologie

théorique qu’elle existe à présent en tant que discipline scientifique. Il y a même peu d’accord

sur les sujets qu’elle devrait traiter ou sur la manière dont elle devrait procéder. »

Mais quelle conception se faisait-il de ce projet ? Waddington a exprimé très

clairement son point de vue, en précisant que son but était de développer une théorie générale

de la biologie : « Il a toujours été clair que nous n’étions pas tellement intéressés par la théorie

d’un quelconque phénomène biologique particulier pour elle-même, mais principalement dans

la mesure où elle contribue à une meilleure compréhension du caractère général des processus

qui se déroulent dans les systèmes vivants, par contraste avec les systèmes non vivants. »

Page 193: Thèse version3.R

193

Dans un autre passage, il souligne que « un meilleur nom aurait été Théorie de Biologie

Générale [plutôt que Biologie Théorique]. »347

Si, à cette époque, tous ces efforts en étaient surtout à un stade programmatique, la

direction à suivre était néanmoins clairement définie. L’idée sous-jacente à toutes les

recherches que l’on peut considérer comme relevant d’une démarche théorique en biologie est

que, derrière la fabuleuse complexité et diversité des phénomènes du vivant, il doit exister

certains principes généraux.

Si l’on parcourt les écrits de tous ces auteurs, on trouve différents termes qui se

rapportent à cette idée : principes systémiques (systems level principles), lois d’organisation

(organizational laws), lois systémiques (systems laws), propriétés génériques, principes

d’organisation. Nous verrons plus loin à quoi se rapportent ces expressions.

Pour Brian Goodwin, le thème des propriétés génériques, qui est une question

fondamentale en physique et en mathématiques, a toujours été suspect en biologie. Pourtant,

la recherche de telles propriétés est absolument nécessaire : « La question profonde qui est

sous-jacente est celle de l’intelligibilité : si un sujet n’a aucune propriété générique, aucun

principe génératif qui s’applique à divers phénomènes empiriques et leur donne une structure

logique unifiée, alors, le sujet ne peut être appréhendé rationnellement. Cela est une des

tensions entre biologie théorique et biologie empirique. »348

La mathématisation n’est pas un critère suffisant

Comme nous l’avons rappelé plus haut, il est courant de considérer que la biologie

théorique est équivalente à la biologie mathématique. Il est indéniable que l’introduction et le

développement de techniques mathématiques a joué et continue de jouer un rôle déterminant

dans les progrès vers des modèles généraux. Il n’y a sans doute pas de biologie théorique

possible sans modèles mathématiques. Mais nous pensons que, si ce critère est nécessaire, il

est toutefois insuffisant.

Si l’on regarde les premières tentatives pour développer des modèles

mathématiques et des simulations en biologie, on constate que, dans beaucoup de cas, il ne

s’agissait pas de chercher des principes généraux, mais plus simplement de progresser dans

l’analyse d’un phénomène particulier.

347 C. H. Waddington (Ed.), Towards a Theoretical Biology, Volume 3, Edinburgh, Edinburgh University Press, 1969. 348 B. C. Goodwin et P. Saunders (Eds.), Theoretical Biology: Epigenetic and Evolutionary Order from Complex Systems, op. cit., p. vii.

Page 194: Thèse version3.R

194

Le modèle mathématique proposé par Hodgkin et Huxley pour rendre compte de la

dépolarisation de la membrane et de la propagation du potentiel d’action dans les axones de

cellules nerveuses est à nos yeux un bon exemple d’une approche mathématique qui permit de

progresser dans l’analyse d’un phénomène particulier, mais sans qu’il relève d’un projet de

biologie générale.349 Il s’agissait avant tout de rendre compte des mesures expérimentales

faites sur l’axone géant du calamar, système sur lequel ces deux scientifiques travaillaient.

Dans leur fameux article de 1952, ces auteurs affirment clairement que leur but était

de trouver des équations permettant de rendre compte avec précision des propriétés

électriques de l’axone géant du calamar. Ces équations sont dérivées des expériences de

voltage clamp.

« L’accord ne doit pas être pris comme une preuve que nos équations sont plus

qu’une description empirique de l’évolution de la perméabilité au sodium et au potassium.

Une description tout aussi satisfaisante des données de voltage clamp aurait sans doute pu être

atteinte avec des équations de forme très différente, qui auraient probablement eues autant de

succès dans la prédiction du comportement électrique de la membrane. »350 Ils ne veulent pas

s’avancer trop sur des interprétations de leurs équations en termes de mécanisme351, mais

soulignent que ces résultats montrent néanmoins que des changements simples de

perméabilité sont suffisants pour rendre compte des phénomènes complexes alors connus.

À la fin de leur article, la question du domaine d’applicabilité de leurs équations est

abordée. Ils écrivent : « L’étendue des phénomènes auquel nos équations s’appliquent est

limitée à deux égards : en premier lieu, elles ne couvrent que les réponses rapides de la

membrane, et en second lieu, elles ne s’appliquent sous leur forme actuelle qu’à l’axone isolé

de calamar géant. »352

Ils considèrent néanmoins la possibilité que des mécanismes similaires existent

dans d’autres organismes. Leur jugement est pour le moins prudent : « La similarité des effets

de changements de concentration de sodium et de potassium sur les potentiels de repos et

d’action de nombreux tissus excitables suggère que le mécanisme de base de la conduction

pourrait être le même que celui impliqué par nos équations, mais les importantes différences

dans la forme des potentiels d’action montre que, même si des équations de la même forme

349 A. L. Hodgkin, A. F. Huxley, « A quantitative description of membrane current and its application to conduction and excitation in nerve », Journal of Physiology, 117 (1952), 500-544. 350 Ibid., p. 541. 351 Sur cette question, nous renvoyons à nouveau au débat entre Marcel Weber et Carl Craver (cf. note 73 du chapitre 3). 352 A. L. Hodgkin, A. F. Huxley, op. cit.

Page 195: Thèse version3.R

195

que les notres sont applicables à d’autres cas, certains au moins des paramètres doivent avoir

des valeurs très différentes. »353 Mais ce que nous voulons retenir ici, c’est que les auteurs

n’ont pas cherché à proposer un modèle général. La question du domaine de validité de leur

modèle est donc secondaire et reste ouverte. Il est probable qu’ils n’auraient pas été déçus de

découvrir que leurs équations ne s’appliquaient qu’à leur système.

Il faut donc, à notre avis, résister à cette assimilation entre biologie théorique et

biologie mathématique. Comme nous le verrons au chapitre suivant, cette distinction est

importante non seulement lorsque l’on considère des tentatives anciennes, mais également

lorsque l’on analyse la biologie contemporaine des systèmes.

4.2.3. Quelques exemples d’approches théoriques Quelles sont donc les questions générales dont devrait, d’après ses défenseurs,

s’occuper la biologie théorique ? En exposant ici quelques tentatives plus ou moins célèbres,

nous nous efforcerons de préciser quelles formes a pris cette recherche de généralité dont

nous avons parlé. Le but ne sera donc pas de discuter en profondeur ces tentatives, mais de

donner une idée moins abstraite de ce qu’il est possible d’entendre par principes généraux et

surtout de souligner que leurs auteurs revendiquaient explicitement cette recherche de

généralité.

Si l’on regarde les contributions rassemblées dans les recueils édités par

Waddington, on peut dégager quelques grands thèmes récurrents : apparition d’ordre dans les

systèmes complexes (auto-organisation, auto-stabilisation, présence d’attracteurs, etc.),

morphogenèse (c’est-à-dire apparition de structures au cours du développement), origine de la

vie, réplication (au sens large : comment un système peut-il se répliquer ?) et évolution

(comment représenter les processus évolutifs).

Nous allons nous intéresser ici plus particulièrement aux modèles théoriques qui

ont tenté de rendre compte de l’apparition d’ordre et de stabilité dans les systèmes complexes,

ainsi qu’aux modèles de la morphogenèse (ceux-ci peuvent d’une certaine manière être

considérés comme un sous-ensemble des premiers, mais ils portent sur des aspects bien

particuliers des systèmes biologiques). Nous ne parlerons quasiment pas des travaux

théoriques en biologie de l’évolution, alors qu’il s’agit certainement du domaine où ils se sont

développés avec le plus de succès. Ce choix se justifie par le sujet qui nous intéresse dans ce

travail : la biologie contemporaine des systèmes. Celle-ci est avant tout une biologie 353 Ibid., p. 542.

Page 196: Thèse version3.R

196

moléculaire des systèmes, qui s’efforce d’expliquer comment un certain ordre et une

fonctionnalité émergent des réseaux complexes. Comme nous le constaterons dans le dernier

chapitre, les questions évolutives sont relativement peu présentes ou alors apparaissent de

manière indirecte. Ce relatif désintérêt des théoriciens des systèmes pour la biologie de

l’évolution soulève d’ailleurs différents problèmes que nous essaierons d’analyser.

4.2.3.1. Ordre et stabilité dans les systèmes complexes La question centrale que posent les approches que nous allons considérer

maintenant porte sur l’ordre et l’organisation. Il était clair depuis longtemps que les systèmes

biologiques sont des systèmes hautement organisés. Mais, comme le remarquait von

Bertalanffy, « bien que nous possédions une quantité énorme de données sur l’organisation

biologique, de la biochimie à la cytologie, de l’histologie à l’anatomie, il n’existe aucune

théorie de l’organisation biologique, c’est-à-dire aucun modèle qui permette d’expliquer les

faits empiriques. »354

Nous verrons que beaucoup d’efforts ont été faits dans cette direction, bien qu’il

soit difficile de trouver une unité dans ces tentatives.

Le principe sans doute le plus discuté par les théoriciens des systèmes complexes

est celui d’auto-organisation. Ce principe renvoie à l’idée que l’ordre et l’organisation d’un

système peuvent se conserver ou augmenter sans intervention d’une source externe. Des

modèles très sophistiqués portant sur les phénomènes d’auto-organisation ont été proposés au

cours des dernières années, mais cette idée était dans l’air depuis longtemps sous des formes

plus simples.

Le principe d’homéostasie en est un bon exemple. Ce principe est ancien en

biologie puisqu’il remonte aux travaux de Claude Bernard. C’est Cannon qui, dans les années

30, forge le terme homéostasie. Cannon a longuement discuté l’importance des phénomènes

d’auto-régulation dans le vivant. Toutefois, ces réflexions restaient relativement vagues et ne

procèdaient pas d’un travail de systématisation et de théorisation. Il faudra attendre le milieu

du XXe siècle pour voir se développer des tentatives plus précises.

354 L. von Bertalanffy, Théorie générale des systèmes, Paris, Dunod, 1993 [1968], p. 45.

Page 197: Thèse version3.R

197

La cybernétique La cybernétique est l’une des plus anciennes approches dites systémiques. Elle a été

développée par Norbert Wiener dans les années 40 (Wiener introduit le terme en 1947).355 Elle

est familière aux biologistes, qui l’ont passablement discutée au cours des années 60. On se

rappelle que le modèle de l’opéron était considéré comme un bon exemple de boucle de

rétroaction négative. Il faut pourtant reconnaître que la cybernétique, en tant que science

générale, est restée assez étrangère à la biologie.

La cybernétique peut être définie comme la science du contrôle et de la

communication. Elle étudie les systèmes auto-régulés et cherche à comprendre par quels

mécanismes de contrôle l’auto-régulation peut être atteinte. Elle se focalise sur les

interactions entre composants et pas sur les composants eux-mêmes. Elle ne s’intéresse donc

pas à des objets, mais à des comportements fonctionnels. Son originalité tient à ce que cette

théorie ne dépend pas directement des lois de la physique et que la réalisation matérielle des

systèmes considérés n’est pas importante. Un de ses avantages est de fournir un ensemble de

concepts permettant de représenter des systèmes très divers, aussi différents que des servo-

mécanismes et des parties du système nerveux. Cette science est fondée sur des principes

d’analogie entre machines et organismes. Cela va même plus loin, puisque le but est de

formuler des principes valables non seulement pour des machines et des systèmes

biologiques, mais également au niveau des sociétés.

Puisqu’elle considère les aspects fonctionnels et organisationnels, elle ne traite pas

de machines particulières, mais des machines en général. Ashby (qui est l’un des scientifiques

à avoir le plus contribué à la diffusion de la cybernétique) l’explique de la manière suivante :

« Elle prend comme sujet d’étude, le domaine de « toutes les machines possibles » et n’est

que secondairement concernée si elle apprend que certaines d’entre elles n’ont pas encore été

réalisées, que ce soit par l’Homme ou la Nature. Ce qu’offre la cybernétique, c’est le cadre

dans lequel toutes les machines individuelles pourraient être rangées, mises en relation et

comprises. »356

Elle traite donc d’objets qui n’existent pas toujours, mais on ne saurait le lui

reprocher, car comme en physique mathématique, ces abstractions permettent d’atteindre des

généralités et de finalement mieux comprendre les systèmes réels. Ashby insiste sur le fait

que, même lorsqu’elle se penche sur un cas particulier, la cybernétique étudie des propriétés 355 N. Wiener, Cybernetics Or Control and Communication in the Animal and the Machine, The MIT Press, 1948. 356 W. R. Ashby, An introduction to cybernetics, London, Chapman & Hall, 1958, p. 2.

Page 198: Thèse version3.R

198

générales : « En suivant cette méthode, qui traite avant tout du global et du général, la

cybernétique examine habituellement une machine particulière, non pas en se demandant

« quel action particulière va-t-elle produire ici et maintenant ? », mais « quels sont tous les

comportements possibles qu’elle peut produire ? ». »357

On sait que la cybernétique s’est essentiellement concentrée sur les boucles de

rétroaction et sur leur capacité à engendrer des comportements stables et téléonomiques dans

des systèmes naturels et artificiels (elle s’était donnée pour tâche de rendre compte de tous les

phénomènes téléologiques et le concept de boucle de rétroaction devait lui permettre de mener

à bien cette tâche). Ce principe est ancien, puisqu’il a commencé à être étudié et utilisé au

XIXe siècle pour résoudre le problème du contrôle des machines à vapeur (servomoteur de

Joseph Farcot en 1859). Mais c’est surtout dans la première moitié du XXe siècle que des

études sérieuses ont été entreprises dans ce domaine. Les développements technologiques

dans les domaines des transmissions radio, des thermostats, du pilotage automatique et des

servomécanismes (comme dans le guidage des missiles), ont encouragé des travaux

théoriques sur le contrôle de ce type de système. Les scientifiques se sont vite aperçus que le

principe de rétroaction devait jouer un rôle important en biologie. On savait depuis Claude

Bernard que beaucoup de variables physico-chimiques étaient maintenues à un niveau

constant dans l’organisme. Ces phénomènes ont été mis au jour à toutes les échelles, du

métabolisme à la température corporelle. Les boucles de rétroaction semblaient fournir une

explication satisfaisante de tous ces phénomènes en même temps qu’elle permettait d’unifier

des domaines jusqu’alors séparés.

Les approches systémiques

La théorie générale des systèmes proposée par von Bertalanffy peut être considérée

comme un cadre compatible avec la cybernétique, mais encore beaucoup plus général. Von

Bertalanffy a commencé à développer une réflexion sur la nature particulière des systèmes

biologiques dès les années 30, en proposant notamment le concept de système ouvert.358 Mais

c’est surtout à partir des années 50 et 60 que ce cadre prend la forme d’une « théorie générale

des systèmes »359 et sucite un certain intérêt dans la communauté scientifique.

357 Ibid., p. 3. 358 L. von Bertalanffy, Das Gefüge des Lebens, Leipzig, Teubner, 1937. 359 L. von Bertalanffy, General System theory: Foundations, Development, Applications, New York, George Braziller, 1968.

Page 199: Thèse version3.R

199

Comme la cybernétique, les approches systémiques s’attachent à étudier les

systèmes en tant que systèmes, c’est-à-dire au-delà de leurs particularités et de leur réalisation

matérielle. Elles présupposent que dans un vaste ensemble de systèmes – biologiques,

techniques, sociaux – des principes communs existent. Ces principes portent sur

l’organisation et les propriétés dynamiques de ces systèmes. Von Bertalanffy va même plus

loin, puisqu’il parle en termes de lois : « nous trouvons fréquemment dans divers domaines

des lois identiques sur le plan formel ou isomorphes. Dans beaucoup de cas, des lois

isomorphes sont valables pour certaines classes ou sous-classes de « systèmes », sans tenir

compte de la nature des être impliqués. Il semble exister des lois générales des systèmes

s’appliquant à tout système d’un certain type indépendamment de ses propriétés particulières

ou de ses éléments. »360

La théorie générale des systèmes est donc définie comme la science qui étudie ces

principes valables pour les systèmes en général. Elle poursuit clairement un but d’unification

de la science, mais dans un esprit très différent du réductionnisme, qui voudrait tout ramener

aux lois fondamentales de la physique. L’unification passe par la reconnaissance que des lois

propres aux systèmes existent et que, suivant l’expression de Bertalanffy, « il y a des

systèmes partout ». Il faut insister sur l’indépendance relative de ces principes par rapport aux

théories de la physique et de la chimie. Mesarovic affirme que : « Une explication scientifique

peut être donnée sous forme d’un modèle mathématique formel reflétant les relations causales

dans un système mais sans nécessairement recourir (ou faire directement référence) à une

quelconque loi physique ou à un principe chimique. »361 Il s’agit souvent d’explications en

termes de traitement de l’information.

Pour pouvoir identifier et étudier ces principes invariants, il est indispensable de

disposer d’un cadre mathématique. La définition de la théorie des systèmes proposée par

Mesarovic souligne l’importance des modèles formels, qui constituent véritablement le coeur

de ces approches : « La théorie des systèmes est la théorie des modèles formels

(mathématiques) des systèmes naturels (ou conceptuels). »362

En ce sens, toute analyse systémique est donc fondée sur un modèle du système.

Les modèles envisagés permettent en général de rendre compte des relations input-output du

système et ne nécessitent pas l’étude détaillée des composants. La théorie des systèmes a pour

360 L. von Bertalanffy, Théorie générale des systèmes, op. cit., p. 36. 361 M. D. Mesarovic, « Systems Theory and Biology – View of a Theorician », in Systems Theory and Biology, M. D. Mesarovic (ed.), 1968, pp. 76-77. 362 Ibid., p. 60.

Page 200: Thèse version3.R

200

but d’étudier les propriétés de ce modèle. Cela peut se faire mathématiquement ou par des

simulations.

La théorie des systèmes est plus large que la cybernétique, puisqu’elle étudie des

phénomènes où l’ordre est obtenu par des interactions dynamiques entre processus, alors que

la seconde est plus mécaniste, dans le sens où elle présuppose des structures stables. La

différence la plus notable est sans doute que la cybernétique s’applique à des systèmes

fermés. Bertalanffy affirme que l’ordre apparaît d’abord grâce aux propriétés dynamiques des

systèmes ouverts et qu’ensuite, « l’organisme devient de plus en plus « mécanisé » au cours

du développement ; c’est pourquoi les dernières régulations correspondent particulièrement à

des mécanismes de rétroaction (homéostase, comportement dirigé, etc.). »363 La théorie des

systèmes ouverts, comme se plaisait à le répéter Bertalanffy, est fondamentalement non

mécaniste.

Une des questions générales qu’aborde von Bertalanffy est donc la nature

particulière des systèmes biologiques d’un point de vue thermodynamique : il s’agit de

systèmes ouverts. La physique classique a toujours étudié des systèmes fermés, ce qui

explique qu’elle est mal équipée pour rendre compte de la particularité du vivant. Les

systèmes ouverts possèdent des propriétés particulières et générales. Ces principes n’auraient

pas vocation à expliquer des phénomènes particuliers, mais « devraient cependant fournir une

ossature, un schéma général, à l’intérieur duquel seraient possibles des théories quantitatives

des phénomènes spécifiques de la vie. En d’autres termes, les théories des phénomènes

biologiques individuels devraient se présenter comme des cas particuliers de nos équations

générales. »364 Von Bertalanffy se situe ici tout à fait dans le cadre défini par Waddington :

formuler des principes généraux et pas seulement des modèles abstraits de phénomènes

particuliers.

Quelles sont ces propriétés que partageraient tous les systèmes ouverts ? Un

système ouvert peut atteindre sous certaines conditions un état stable dans lequel le système

demeure invariant au niveau macroscopique, alors que ses composants sont pris dans un flux

perpétuel. Cet équilibre est en fait un pseudo-équilibre dynamique, qui est différent d’un

véritable équilibre. Une certaine quantité d’énergie est nécessaire pour qu’il reste dans cet

équilibre. De ce fait, le système est capable de fournir un travail. Une des propriétés

biologiquement intéressantes des systèmes ouverts est qu’ils peuvent atteindre un état stable

indépendamment des conditions initiales. Selon Bertalanffy, ce phénomène d’équifinalité 363 L. von Bertalanffy, Op.cit., p. 155. 364 Ibid., p. 138.

Page 201: Thèse version3.R

201

explique le caractère finaliste des systèmes biologiques. On comprend également pourquoi,

lors d’une perturbation, le système a tendance à revenir à son état stable. « Du point de vue

thermodynamique les systèmes ouverts peuvent se maintenir dans un état d’ordre et

d’organisation hautement improbable sur le plan statistique. »365

Le concept de système ouvert a connu un grand succès et a fait l’objet de beaucoup

de recherche. Nous laisserons de côté ces développements qui nous mèneraient trop loin.

Nous ne ferons que mentionner les célèbres travaux de Prigogine qui ont ouvert une riche

voie de recherche.366

Nous ne nous arrêterons pas plus longtemps sur les travaux de von Bertalanffy,

mais il faut souligner que son ambition était immense, puisque sa théorie des systèmes

ouverts n’est qu’une partie d’une théorie générale des systèmes.

Kauffman et les lois d’auto-organisation Nous avons déjà mentionné plusieurs fois les travaux de Stuart Kauffman dans ce

travail. Il serait difficile de ne pas en parler dans ce chapitre, tant son cas est exemplaire.

Comme d’autres chercheurs dans ce domaine, il a non seulement travaillé sur divers modèles

théoriques, mais également consacré des discussions plus philosophiques sur la nécessité de

développer une biologie théorique.

Kauffman a lui aussi cherché à comprendre comment, dans des systèmes

complexes, un certain ordre émerge des innombrables interactions. Il a proposé ce qu’on peut

considérer comme une théorie des systèmes complexes. Celle-ci va clairement au-delà de

l’étude des mécanismes particuliers et en outre elle est censée s’appliquer à des domaines très

divers.

L’ambition de Kauffman ainsi que le contraste que représente son approche par

rapport à l’attitude que l’on rencontre généralement en biologie, apparaissent clairement dans

la citation suivante : « On a dit que la faiblesse de certains biologistes est une soif persistante

de physique : la recherche d’une structure profonde pour la biologie. Soyez satisfait, dit le

refrain de bon sens, avec des théories intermédiaires, qui saisissent des fragments de la

manière dont les organismes fonctionnent. Comprenez comment une cascade génétique

fonctionne, comment le transport de sodium à travers une membrane est effectué.

Certainement, c’est ce que nous devons faire, avons fait et ferons. Pourtant une nouvelle

365 Ibid., p. 147. 366 I. Prigogine, Introduction à la thermodynamique des processus irréversibles, Paris, Dunod, 1968.

Page 202: Thèse version3.R

202

physique est en train de naître et il est temps de tomber à nouveau victime de l’envie de

physique. Pour utiliser un meilleur nom, le domaine qui émerge est quelque chose comme une

théorie des systèmes complexe. »367

Kauffman s’est beaucoup inspiré des approches qui étudient l’apparition de l’ordre

dans des systèmes physiques complexes (en s’intéressant à leurs propriétés génériques). Il a

beaucoup étudié, à l’aide de simulations réalisées dans le formalisme des réseaux booléens,

les propriétés dynamiques de différentes classes de systèmes complexes. Il distingue deux

types de régimes ou comportements dans les systèmes complexes : le régime stable et le

régime chaotique. Dans un régime stable, le système reste dans le même état et n’est que peu

sensible aux influences extérieures. Au contraire, dans un régime chaotique, aucune stabilité

n’est possible. Pour des raisons évidentes, aucun de ces deux régimes n’est favorable au

développement de la vie. En revanche, il existe un régime entre ces deux extrêmes, que

Kauffman appelle at the edge of chaos (l’expression est de Chrisopher Langton), dans

laquelle le système est à la fois stable et flexible. Ce type de système a les meilleures chances

d’évoluer.

Sans avoir besoin de décrire le type de systèmes qui possèdent ces heureuses

propriétés, on peut comprendre comment la découverte du fait qu’un ordre remarquable peut

émerger facilement et spontanément (« gratuitement » dit Kauffman), pourrait fonder une

théorie générale du vivant. Cette propriété générale de certains systèmes complexes peut offrir

un cadre explicatif dans des domaines comme l’origine de la vie, le développement des

organismes pluricellulaires ou encore l’écologie. C’est ce qui fait dire à Kauffman : « De

telles propriétés [d’auto-organisation] pourraient être de véritables universaux biologiques,

dignes de nos efforts de recherche. »368

Il faut noter que Kauffman se situe dans une certaine mesure dans la lignée de von

Bertalanffy, puisqu’il s’intéresse comme lui aux propriétés particulières des systèmes ouverts,

et défend l’idée qu’il existerait des « lois générales pour les systèmes thermodynamiquement

ouverts mais s’auto-construisant. »369

Nous reviendrons dans le dernier chapitre sur ces principes, lorsque nous les

comparerons avec d’autres types de principes portant sur les systèmes complexes.

367 S. Kauffman, The origins of order, op. cit., pp. 643-644. 368 Ibid., p. 645. 369 Voir le premier chapitre de son ouvrage Inverstigation (2000), intitulé « Prolegomenon to a general biology ».

Page 203: Thèse version3.R

203

La formation de patterns On peut considérer que les théories que nous venons de présenter ne s’intéressent

aux phénomènes biologiques que comme une instanciation particulière d’une classe de

phénomènes beaucoup plus large. Il faut cependant distinguer au sein de la biologie théorique

d’autres approches, dont le champ d’investigation est limité à l’apparition d’ordre dans les

systèmes biologiques. Au premier rang de celles-ci, on trouve les modèles théoriques visant à

rendre compte de la formation de patterns au cours du développement embryonnaire.

Une des questions les plus fondamentales auxquelles la biologie du développement

s’est toujours efforcée de répondre est la formation de structures à partir d’un oeuf qui semble

plus ou moins homogène. Même en reconnaissant que l’oeuf possède certaines structures, il

semble difficile d’expliquer la formidable complexité de l’organisme adulte à partir de celles-

ci. Le développement d’organismes comme les oursins, chez lesquels chacun des deux

blastomères issus de la première division peut donner naissance à un organisme complet,

montre que nous avons affaire à des processus d’autorégulation complexes. Tout l’enjeu est

donc de comprendre comment des mécanismes peuvent générer de telles structures à partir

d’un système relativement homogène et cela de manière autorégulée.

Arrêtons-nous rapidement sur deux cadres théoriques qui, chacun à son niveau, ont

proposé des principes généraux capables de rendre compte de la manière dont des structures

complexes, régulières et stables pouvaient émerger dans un système dynamique tel que

l’embryon en développement. Il s’agit d’une part du modèle de Turing et, d’autre part, du

modèle d’information de position, proposé par Lewis Wolpert.

Modèle de Turing

Le mathématicien Alan Turing est connu avant tout pour ses travaux en

mathématique et en logique et notamment pour avoir contribué de manière décisive à

l’invention de l’ordinateur. L’originalité de sa pensée s’est toutefois également manifestée

dans le champ de la biologie. Sa contribution à ce domaine était sans doute considérée comme

marginale à l’époque, mais elle constitue depuis quelques années un objet d’étude et d’intérêt

aussi bien pour les scientifiques que pour les historiens et les philosophes des sciences.

Le modèle proposé par Turing visait à démontrer que des motifs dans la distribution

spatiale de substances chimiques peuvent se former à partir d’un mécanisme extrêmement

simple, dans lequel deux substances qui interagissent ont des vitesses de diffusions

différentes. Son modèle est en effet assez rudimentaire, puisqu’il représente un système dans

Page 204: Thèse version3.R

204

lequel deux morphogènes diffusent et interagissent. Au niveau mathématique, ce modèle

consiste en un système de deux équations différentielles couplées.

La découverte fondamentale de Turing est que, sous certaines conditions, ce

système peut devenir instable. Des petites fluctuations (comme le mouvement brownien)

peuvent s’amplifier et engendrer des sortes de vagues de concentrations. Le système peut

évoluer jusqu’à atteindre un équilibre dans lequel on observe des vagues stationnaires. Ainsi,

ce modèle explique comment une rupture de symétrie peut se produire dans un système

chimique très simple. Il peut donc être considéré comme une explication abstraite et générale

de la formation de patterns dans les embryons en développement.

Turing reconnaît cependant que, pour des raisons mathématiques, il n’était pas

possible de parvenir à une théorie générale de la formation de patterns. « Les difficultés sont

toutefois telles que l’on ne peut espérer avoir aucune théorie très étendue de ce genre de

processus, au-delà de la formulation de ces équations. Il pourrait cependant être possible de

traiter un petit nombre de cas en détail avec l’aide d’un ordinateur numérique. Cette méthode

a l’avantage qu’il n’est pas autant nécessaire de faire des hypothèses simplifiées que lorsque

l’on procède à un type d’analyse plus théorique.370

Il est important de préciser le sens de cette remarque. Turing pensait certainement

que ces résultats partiels étaient, malgré tout, suffisants pour permettre de comprendre

comment des processus de ce genre se déroulent. En effet, au-delà d’un modèle particulier,

Turing veut démontrer deux principes tout à fait généraux. Le premier affirme qu’un pattern

peut apparaître à travers une instabilité de la solution (l’équilibre) d’un système très simple

d’équations différentielles. Le deuxième montre que le pattern est déterminé par ces

équations, et qu’il n’est pas nécessaire de postuler d’autres mécanismes, comme par exemple

l’activation de gènes spécifiques.371

Il existe d’autres raisons de considérer que le travail de Turing est théorique. Il faut

relever qu’il permet de rendre compte d’une classe de phénomènes sans partir de résultats

empiriques nouveaux ni en introduisant d’hypothèses nouvelles. Cela est bien une des

caractéristiques de la physique théorique et quelque chose que l’on rencontre rarement en

biologie. Comme l’écrit C.W. Wardlaw, dans un article écrit en collaboration avec Turing :

« La théorie n’introduit aucune hypothèse nouvelle : au contraire, elle utilise des lois bien

370 A. Turing, « The Chemical Basis of Morphogenesis », Philosophical transactions of the Royal Society B, 237 (1952), p. 72. 371 Remarquons que les travaux de René Thom ont permis de progresser vers une caractérisation générale des ruptures de symétries : R. Thom, Stabilité structurelle et morphogenèse, Paris, InterEditions, 1972.

Page 205: Thèse version3.R

205

connues de la chimie-physique et, comme Turing l’a montré, celles-ci semblent être

suffisantes pour rendre compte de nombreux faits de la morphogenèse. »372

La généralité vient donc en partie de ce que ce sont des forces physiques et

chimiques qui sont à l’origine des formes. À cet égard, il est important de remarquer que, par

rapport aux théories systémiques examinées plus haut, ce modèle théorique est directement

ancré dans les théories physiques et chimiques.

Principe d’information de position de Wolpert Le mystère central de l’embryogenèse, c’est-à-dire la capacité qu’a un ensemble de

cellules de s’organiser et de se différencier en respectant un ordre et une précision

remarquables, a également été examiné dans le cadre d’un modèle théorique assez différent.

Ce modèle a été proposé par le biologiste Lewis Wolpert à la fin des années 60.373 Il est connu

sous le nom de principe d’information de position.

Wolpert fonde également son modèle sur l’existence de morphogènes, mais le

mécanisme proposé est plus complexe. Sa thèse est qu’il existe dans l’embryon en

développement un système universel de coordonnées. Un signal de position (un morphogène)

permet de définir ce système de coordonnées. Chaque cellule « lit » sa valeur de position (qui

correspond à la concentration du morphogène) et l’interprète selon les informations contenues

dans son génome pour se différencier. La formation de pattern peut ainsi être décrite comme

un processus en deux étapes : 1) la spécification de l’information de position et 2)

l’interprétation de cette information par les cellules.

L’application la plus connue de cette théorie est le modèle dit « du drapeau

français » (French flag). Wolpert explique à l’aide de son principe, comment une structure

semblable au drapeau français, c’est-à-dire divisée en trois parties égales, peut facilement être

produite à partir de la diffusion d’un seul morphogène. Il suffit que certains gènes soient

activés à différents seuils de concentration du morphogène : une haute concentration

allumerait le gène « bleu », une concentration faible le gène « blanc » et l’état par défaut

correspondrait à l’activation du gène « rouge ».

Ce qui est intéressant pour nous, c’est qu’il s’agit d’un mécanisme général qui va

bien au-delà de ce modèle particulier. « Une des vertus du mécanisme d’information de 372 A. M. Turing et C. W. Wardlaw, « A diffusion reaction theory of morphogenesis in plants », in Collected works of A. M. Turing, P. T. Saunders (ed.), North-Holland, 1992. 373 L. Wolpert, « Positional information and the spatial pattern of cellular differentiation », Journal of Theoretical Biology, 25 (1969) : 1-47.

Page 206: Thèse version3.R

206

position pour la formation de patterns est qu’avec le même système pour l’information de

position, on peut générer un nombre immense de patterns différents en changeant les règles

d’interprétation des cellules. »374 D’ailleurs, Wolpert décrit sa position comme étant une

conception universaliste extrême.375

Remarquons au passage que Wolpert reconnaît le rôle qu’ont joué les conférences

organisées par Waddington : « Une partie de l’impulsion à mon travail fut les conférences de

biologie théorique de Waddington à Bellagio. »376

Hans Meinhardt377 et Gierer378 ont beaucoup contribué à ce type de recherche

théorique sur la morphogenèse. Ils ont fondé leurs travaux sur l’utilisation de modèles

mathématiques et de simulations. Ces modèles ne sont pas seulement utilisés pour mieux

comprendre comment certains mécanismes peuvent engendrer des formes complexes. Ils

doivent également permettre de caractériser des classes de mécanismes généraux.

Meinhardt précise que, même la modélisation d’un système particulier vise une

compréhension générale des phénomènes développementaux : « Même si nous choisissons un

système expérimental particulier pour une analyse et une modélisation détaillées, la sélection

est faite en jugeant quelles propriétés sont caractéristiques du développement biologique en

tant que tout et constituent ainsi un test pour la portée d’une théorie générale. »379 Il s’agit

toujours de proposer des mécanismes généraux capables de rendre compte de la manière dont

des structures émergent au cours du développement.

Un exemple de principe général au niveau génétique : les règles de Savageau gouvernant la régulation des gènes

En avançant dans nos exemples, nous sommes passés de théories qui débordent

largement le cadre de la biologie, pour considérer des modèles plus proches de ce qu’étudient

les biologistes. Pour poursuivre ce mouvement, intéressons-nous maintenant à une réflexion

théorique qui se fonde directement sur les modèles que l’on trouve en biologie moléculaire. Si

nous avons retenu cet exemple, c’est pour introduire une idée que nous développerons dans le

374 L. Wolpert, « Positional information and pattern formation », in Towards a Theoretical Biology 2. Essays, op. cit., pp. 83-94. 375 Ibid. 376 Aricle disponible sur le site internet suivant : www.garfield.library.upenn.edu/classics1986/A1986AXF2400002.pdf 377 Voir par exemple H. Meinhardt, Models of biological pattern formation, London, Academic Press,1982 et H. Meinhardt, The algorithmic Beauty of Sea Shels, Springer, 1995. 378 A. Gierer and H. Meinhardt, « A theory of biological pattern formation », Kybernetik, 12 (1972) : 30-39. 379 H. Meinhardt, 1982, op. cit., Préface.

Page 207: Thèse version3.R

207

chapitre suivant : l’existence de principes généraux peut être postulée à différents niveaux

d’organisation des systèmes biologiques. Les approches systémiques s’intéressent aux

propriétés de systèmes entiers, mais il est possible de chercher des principes régissant

l’organisation de sous-systèmes.

Dans sa contribution à la conférence de biologie théorique qui s’est tenue au

Mexique en 1987 et que nous avons évoquée plus haut 380, Michael Savageau pose la question

de l’existence de règles gouvernant la régulation des gènes. Il souligne à ce propos la fracture

qui existe entre deux attitudes parmi les biologistes. D’un côté, certains veulent se rattacher à

la tradition de la physique et pensent que la biologie doit suivre un mouvement inductif, qui la

mènera des observations à des lois empiriques et enfin à des lois générales (il renvoie à la

succession Brahe-Kepler-Newton). Il note que cette attitude était très répandue en biologie

dans le passé. L’attitude opposée, qui lui semble prédominer en biologie moléculaire, est

exprimée de la manière suivante : « Non, il n’y a pas de règles ! Tout est possible. Il n’y a que

ce qui existe à découvrir et l’histoire. »381

Mais revenons à la question qu’il pose : pourquoi y a-t-il des modes de régulation

des gènes positif et négatif ? Deux réponses sont possibles. Premièrement, on peut admettre

que cela s’explique par des contingences historiques. Deuxièmement, on peut faire

l’hypothèse que ces deux modes impliquent des différences fonctionnelles qui ont conduit à

leur sélection dans des contextes spécifiques. Pour tester cette deuxième hypothèse, il faudrait

pouvoir analyser la nature de ces différences fonctionnelles. C’est pour résoudre ce genre de

problème, nous dit Savageau, que des approches théoriques sont nécessaires. Des

manipulations expérimentales ne sont pas suffisamment fines et contrôlées pour comparer ces

deux modes de contrôles. Il faut donc passer par un modèle mathématique.

Une des différences majeures entre ces deux modes de régulation réside dans les

effets d’événements mutationels. Si l’on admet que la plupart des mutations dans le

mécanisme de régulation vont entraîner une perte de régulation, on voit facilement que, dans

le cas du mode positif, on aura un état super-réprimé, tandis que, dans le cas du mode négatif,

on aura une expression constitutive. En prenant en compte les conditions environnementales,

sous la forme de la demande, c’est-à-dire le fait pour un système d’opérer à plein ou à faible

régime (qui correspond au niveau d’expression), on peut comprendre quel type de mode sera

sélectionné. Ainsi, lorsque la demande est élevée, c’est le mode positif qui sera sélectionné et

380 M. A. Savageau, « Are there rules governing patterns of gene regulation ? », in B. Goodwin et P. Saunders (Eds.), Theoretical Biology, op. cit. 381 Ibid., p. 42.

Page 208: Thèse version3.R

208

inversement, lorsque la demande est faible, c’est le mode négatif qui sera sélectionné.

Savageau appelle ce principe demand theory.

Savageau a vérifié la validité de ce principe en considérant un certain nombre de

cas connnus. On sait par exemple que le galactose est présent en faible concentration dans le

colon, ce qui correspond à une demande faible pour le système de l’opéron lactose. Or, on

constate que, comme prévu, ce système fonctionne selon un mode de régulation négatif. Au

contraire, l’arabinose est présent en plus forte concentration ; or on constate que le mode de

régulation de l’opéron arabinose est positif.

Nous ne détaillerons pas plus les analyses développées par Savageau (il considère

notamment le couplage entre plusieurs gènes), mais il nous semble qu’elles fournissent une

illustration supplémentaire de cette recherche de principes généraux. Elles n’ont certainement

pas l’élégance mathématique du modèle de Turing, ni la généralité des travaux de Kauffman,

mais elles révèlent la volonté de trouver des règles générales derrières la diversité des

mécanismes moléculaires, à partir d’un raisonnement abstrait.382

Nous avons parlé jusqu’ici soit de théories des systèmes complexes, soit de

modèles généraux portant sur certains processus biologiques. Avant de conclure ce rapide

tour d’horizon, il faut en outre mentionner une entreprise théorique qui se situe entre ces

projets. Nous voulons parler des théories cherchant à définir la vie en général, c’est-à-dire les

propriétés universelles des systèmes biologiques. Nous nous contenterons de noter qu’elles

sont moins générales que les théories sur l’auto-organisation, puisqu’elles ne s’appliquent

qu’aux systèmes vivants, mais elles se situent clairement au-delà des théories sur la formation

de patterns. Ces projets sont en un sens ceux qui correspondent le mieux à la définition de

Waddington, puisque cette biologie universelle a pour but de donner une caractérisation des

propriétés nécessaires de la vie, c’est-à-dire valable pour toute forme de vie et pas seulement

telle qu’on l’observe sur la Terre.

Ce domaine a donné lieu a beaucoup de travaux au cours des dernières années, mais

si, comme le relève Michel Morange, il est relativement facile de dégager certaines propriétés

générales, il n’y a pas de consensus sur la manière d’articuler les différents éléments

explicatifs.383

Nous retiendrons simplement que, pour les scientifiques travaillant dans ce

domaine, la question de la définition de la vie devrait constituer une partie importante de toute

382 Nous aurons l’occasion de revenir longuement sur la question de la tension entre contingence des processus évolutifs et l’existence de lois, plus loin dans ce chapitre et surtout dans le dernier chapitre. 383 M. Morange, La vie expliquée ?50 ans après la double-hélice, Paris, Odile Jacob, 2003.

Page 209: Thèse version3.R

209

biologie théorique. Cette attitude se trouve chez des auteurs anciens, comme Tibor Ganti, qui

s’est efforcé de saisir mathématiquement les propriétés fondamentales de tout système vivant,

à l’aide d’un modèle appelé le chemoton :

« Ainsi, nous pouvons dire que le chemoton est un système abstrait minimal

possédant toutes les propriétés qualitatives fondamentales et caractéristiques des systèmes

vivants. En outre, il remplit les critères potentiels de la vie et ainsi nous pouvons admettre que

le chemoton est une unité vivante abstraite et fondamentale à partir de laquelle un système

modèle abstrait portant sur la vie, c’est-à-dire une biologie théorique exacte, peut être déduit

avec une précision mathématique. »384

Plus récemment et sous une forme très différente, le projet de la Vie Artificielle est

caractérisé par le même esprit.

« La Vie Artificielle était vue par ses fondateurs comme une contribution pour

réformer et unversaliser la biologie théorique afin d’expliquer la vie sous toutes ses formes et

dans tous les milieux et de découvrir les principes généraux de l’évolution, de l’adaptibilité,

de la croissance, du développement, du comportement et de l’apprentissage. »385

Avant de conclure ce bref détour par les définitions de la vie, notons encore qu’un

des avantages du cadre fourni par la Vie Artificielle est de pouvoir contourner l’un des

problèmes majeurs auquel on est confronté lorsqu’on veut tester les hypothèses d’une biologie

générale : le fait qu’il n’y ait qu’un seul cas de vie connu, celui qui s’est développé sur la

Terre. Comme le dit Ray : « Idéalement, la science de la biologie devrait embrasser toutes les

formes de vie. Cependant, en pratique, elle s’est restreinte à l’étude d’un seul exemple de vie,

la vie sur la Terre. Parce que la biologie est fondée sur une taille d’échantillon de un, nous ne

pouvons savoir quelles propriétés de la vie sont particulières à la Terre et quelles propriétés

sont caractéristiques et générales de toute vie. »386

L’idée est qu’il est possible d’étudier les propriétés du vivant qui ne dépendent pas

des constituants chimiques particuliers que l’on trouve sur Terre. On utilise quelquefois le

terme substrate-neutral. Ainsi, ces propriétés ne dépendraient pas du fait que le vivant s’est

construit sur la chimie du carbone et de l’eau. En regardant au-delà de la matière, ces

chercheurs espèrent déterminer l’organisation qui donne aux systèmes biologiques leurs

propriétés si remarquables. Nous avons vu que cette idée était au fondement de la 384 T. Ganti, The Principles of Life, Oxford, Oxford University Press, 2003, pp. 114-115 385 C. Emmeche, « Defining life, explaining emergence », 1997, disponible sur son site internet : http://www.nbi.dk/~emmeche/publ.html 386 T. S. Ray, « An approach to the synthesis of life », in M. Boden (ed.), The Philosophy of Artificial Life, Oxford, Oxford University Press, 1996; cité dans K. Sterelny and P. Griffiths, Sex and Death, op. cit. p. 361.

Page 210: Thèse version3.R

210

cybernétique et de la théorie générale des systèmes.387

4.3. Les approches théoriques soulèvent deux problèmes Si, comme nous venons de le rappeler rapidement, les tentatives pour développer

une biologie véritablement théorique et générale ont existé tout au long du vingtième siècle, il

faut pourtant bien reconnaître qu’elles n’ont eu qu’un impact très marginal sur le cours de la

biologie. Elles ont le plus souvent suscité de l’hostilité, ou au mieux de l’indifférence chez les

biologistes. Comment comprendre cet échec relatif ?

Comme toujours lorsque l’on cherche à rendre intelligible un événement ou une

tendance dans le développement des sciences, il est possible de proposer des explications de

diverses natures : scientifiques (c’est-à-dire en faisant une histoire internaliste des sciences),

historiques, sociologiques ou encore philosophiques ; mais il est évidemment délicat de

déméler ces diverses raisons.

Dans la deuxième partie de ce chapitre, nous voudrions souligner deux problèmes

qui, s’ils n’épuisent pas les raisons qu’on peut trouver, nous semblent éclairer à la fois la

nature des difficultés de ce projet, ainsi que les réticences des biologistes. Le premier

problème a trait au manque de réalisme de la plupart des modèles théoriques proposés. Le

deuxième renvoie à la question de la généralité en biologie et plus particulièrement à

l’existence de lois.

4.3.1. Les modèles théoriques manquent de réalisme et sont trop coupés du domaine expérimental

Le manque de réalisme des modèles théoriques en biologie, ainsi que leurs faibles

liens avec les données empiriques constituent certainement leur faiblesse principale. C’est en

tout cas un reproche qui est constamment formulé par les expérimentalistes et il est difficile

de nier cette difficulté. En fait, le problème du manque de réalisme recouvre plusieurs aspects

qu’il est important de distinguer. D’une part, on leur a souvent reproché de mal (voire de ne

pas du tout) représenter la structure causale des systèmes étudiés. D’autre part, ils ont presque

toujours souffert d’un manque de succès prédictif, qui les aurait certainement aidés à gagner

cette légitimité scientifique qui leur a fait cruellement défaut. Enfin, ils ne semblent pas

387 Sur ces questions, on pourra consulter C. Emmeche, 1997, op. cit.

Page 211: Thèse version3.R

211

constituer le moyen le plus fécond pour élucider les problèmes biologiques les plus évidents.

Considérons ces trois aspects du problème l’un après l’autre.

4.3.1.1. Mauvaise représentation des phénomènes Comme nous l’avons déjà largement suggéré dans la présentation que nous avons

faite de nos exemples, les rares modèles qui ont pour ambition de trouver des lois, ou du

moins des principes généraux, au niveau fonctionnel sont presque toujours très éloignés de ce

que l’on sait des systèmes réels. Alors qu’on mesure depuis assez longtemps l’immense

complexité des systèmes biologiques (notamment en termes de diversité des composants et

des processus), ces modèles sont excessivement simples. En d’autres termes, ils sont des

représentations que l’on pourrait qualifier de grossières.

James Griesemer expose clairement ce problème, lorsqu’il explique l’opposition

des biologistes à ces modèles : « Traditionnellement, la plupart des biologistes ont été hostiles

aux buts et aux méthodes de la « biologie théorique ». Le scepticisme semble trouver sa

source dans l’attention que les théoriciens donnent souvent à des modèles qui sont, de toute

évidence et de manière flagrante, simplifiés au point qu’on ne voit d’eux rien d’autre que leur

fausseté et même leur absurdité. »388

Ce manque de réalisme des modèles théoriques peut s’expliquer par deux raisons.

Premièrement, les données quantitatives ainsi que la puissance de calcul nécessaires pour

construire des simulations réalistes n’étaient tout simplement pas disponibles jusqu’à très

récemment.389 Avant l’avénement des technologies de la génomique fonctionnelle, l’étude

expérimentale des composants et de leurs interactions était un travail de longue haleine. De

plus, différentes difficultés techniques rendaient ces approches très incertaines dans certains

cas.

Au niveau de la modélisation, la structure causale des systèmes biologiques est

extrêmement complexe et il n’est possible de représenter que très peu d’éléments, liés par des

relations relativement simples. En effet, construire des modèles mathématiques de systèmes

complexes soulève des difficultés mathématiques redoutables. Dans bien des cas, il est

nécessaire de recourir à des ordinateurs pour analyser numériquement les problèmes, or les

388 J. R. Griesemer, « The philosophical significance of Ganti’s work », in T. Ganti, The Principles of Life, Oxford University Press, 2003, p. 185. 389 Comme nous l’avons déjà indiqué, ce problème reste central pour la biologie actuelle des systèmes, mais du moins, les progrès accomplis ont permis de construire des modèles relativement satisfaisants, comme nous le verrons au chapitre suivant.

Page 212: Thèse version3.R

212

capacités de ceux-ci étaient, jusqu’à très récemment, largement insuffisantes.

Cette première raison est assez évidente et ne mérite pas que l’on s’y attarde ici.

Contentons-nous de noter que ce problème est très souvent rappelé par les tenants des

nouvelles approches systémiques, comme en témoigne la citation suivante : « L’estimation de

paramètres inconnus à partir de données est notoirement difficile et constitue probablement la

raison pour laquelle la biologie mathématique s’est, d’une certaine manière, transformée en

une discipline moins concernée par certains des problèmes les plus importants pour les

biologistes. »390 Ajoutons également que les scientifiques ayant ouvert cette voie de recherche

étaient tout à fait conscients de ce problème, comme le montre la citation suivante de von

Bertalanffy : « Il serait facile de faire paraître les modèles plus réalistes et d’améliorer

l’ajustement des données en introduisant quelques paramètres en plus. Cependant, ce gain est

contrefait tant qu’on ne peut obtenir ces paramètres expérimentalement. »391

La deuxième raison pouvant expliquer le manque de réalisme des modèles

théoriques tient à la volonté des scientifiques qui les construisaient de ne pas représenter les

systèmes de manière réaliste. Cette raison soulève des questions beaucoup plus fondamentales

pour la biologie. Cherchons à préciser ce qui est en jeu ici.

Exprimée simplement, l’attitude du théoricien est de soutenir que l’effort de

théorisation ne consiste pas à construire une représentation mathématique fidèle des systèmes

biologiques. Le but est plutôt de réussir à représenter les aspects des systèmes qui pourraient

être les plus fondamentaux. Cela implique nécessairement d’ignorer un grand nombre de

propriétés de ces systèmes. Définir ce qu’on entend par le plus fondamental n’est évidemment

pas toujours aisé, mais il semble que le critère de généralité permet de rendre cette idée plus

précise. Le théoricien s’efforce de saisir des propriétés qui ne dépendent pas des détails qui

peuvent varier d’un cas à l’autre. De son côté, l’expérimentaliste tend à contester ce

mouvement qui rejette l’importance des détails.

Dans son ouvrage Expliquer la vie392, Evelyn Fox Keller analyse avec soin les

raisons de l’échec relatif des modèles théoriques du développement qui ont vu le jour au cours

du vingtième siècle. Son étude apporte un éclairage très utile sur ces questions, en soulignant

la différence de style de recherche entre les théoriciens et les biologistes « classiques».

Dans le cas du modèle de réaction-diffusion de Turing, il n’est pas étonnant que le

390 O. Wolkenhauer, « Mathematical modelling in the post-genome era », op. cit., p. 2. Voir aussi la citation de Kitano dans le premier chapitre, p. 57. 391 L. von Bertalanffy, op. cit., p. 185. 392 E. Fox Keller, Expliquer la vie, Paris, Gallimard, 2005.

Page 213: Thèse version3.R

213

fossé considérable entre les éléments de base de ce modèle et ce qu’on savait des embryons

ait provoqué un fort sentiment de scepticisme chez les embryologistes. Comme Fox Keller le

montre bien, le modèle de Turing n’a pas réussi à intéresser beaucoup de biologistes et encore

moins à en convaincre de sa pertinence pour expliquer le développement.393 Même

Waddington, qui, comme on l’a dit, sentait plus que quiconque la nécessité de développer une

biologie théorique, ne fut qu’à moitié persuadé de la valeur de ce modèle.

Faire le reproche d’un manque de réalisme à Turing serait toutefois mal

comprendre la nature de son projet. En effet, Turing était bien conscient à quel point les

simplifications qu’il introduisait pouvaient être « choquantes ». Il considérait que son modèle

était « une simple signification et une idéalisation, et pas conséquent une falsification. »394

Fox Keller cite également ce passage qui montre clairement que le réalisme n’était pas le

souci premier de Turing : « il faut souligner que les réactions décrites ici ne sont en aucun cas

celles qui ont le plus de probabilité de produire de l’instabilité dans la nature. Le choix des

réactions à analyser a été entièrement dicté par le fait qu’il était souhaitable que la discussion

fût facile à suivre ».395

On peut, bien entendu, expliquer l’extrême simplicité de ce modèle en rappelant les

difficultés mathématiques auxquelles Turing s’est heurté. Fox Keller relève l’ironie des

difficultés que Turing a rencontrées dans ses efforts pour développer un modèle de la

morphogenèse. En effet, il ne pouvait pas encore profiter de l’aide des ordinateurs que ses

travaux ont contribué à inventer. Si son modèle était si simple, c’est donc en partie parce

qu’un modèle plus compliqué aurait été impossible à analyser mathématiquement et aurait

été, par conséquent, totalement inutile. En effet, les équations auxquelles Turing a abouti se

sont d’abord révélées trop difficiles à résoudre analytiquement. Il n’a donc considéré que le

cas simplifié où la linéarité est admise.

La raison profonde qui a guidé les choix de Turing est toutefois à chercher du côté

de la méthode d’investigation qu’il a privilégiée, à savoir l’abstraction. Fox Keller explique le

fossé entre théoriciens et expérimentateurs en termes de choc des cultures scientifiques.396 Elle

souligne que physiciens et biologistes ont des conceptions très différentes de la manière de

construire un modèle, des stratégies explicatives à suivre ou encore de ce qui compte comme

une bonne explication. Ainsi, Turing conçoit son modèle dans la tradition de la physique, 393 Slack donne une bonne revue des critiques des modèles de réaction-diffusion : J. M. W. Slack, From Egg to Embryo: Determinative Events in Early Development, New York, Cambridge University Press, 1983. 394 Cité dans Expliquer la vie, p. 107. 395 Cité p. 110. 396 Ibid., pp. 111-117.

Page 214: Thèse version3.R

214

domaine où les modèles sont souvent des pures fictions et sont plus fondés sur l’imagination

que sur l’observation. « Toutefois, nous dit Fox Keller, la physique n’est pas la biologie. Pour

la grande majorité des biologistes, ce type d’association entre la fiction et l’explication serait

apparu (à l’époque autant que maintenant) comme une contradiction dans les termes. Quelle

valeur pourrait donc bien avoir une explication fondée sur un système purement imaginaire de

réactions chimiques, en faveur duquel non seulement aucune preuve n’a été fournie mais, pire

encore, pour lequel on considère qu’il ne vaut même pas la peine de rassembler des

preuves ? »

Le constat est le même dans le cas des travaux de Nicolas Rashevsky. Fox Keller

note que les critiques qui lui ont été faites portent sur « son indifférence apparente à l’égard

des aspects moléculaires et matériels biologiquement spécifiques des problèmes qu’il abordait

et, deuxièmement, son échec à se lancer dans une quelconque sorte d’interaction avec les

biologistes et leur pratique. »397

On peut ajouter que des chercheurs comme Stuart Kauffman ou René Thom ont,

eux-aussi, délibérément choisi des modèles de réseaux aléatoires et grossiers.398 Dans le cas de

Kauffman, Von Dassow et Meir remarquent avec raison que « cette approche est souvent

intentionnellement divorcée de la réalité afin de parvenir à ce que Kauffman appelle la

« mécanique statistique » des réseaux complexes. »399 Kauffman ne représente que les

propriétés statistiques de la structure et considère des réseaux homogènes (caractérisés par un

nombre moyen de connections), alors qu’en réalité, l’architecture des réseaux biologiques est

hautement hétérogène. Pour ne prendre qu’un exemple, le gène de la β-globine est contrôlé

par plus de 20 protéines régulatrices ; le facteur de transcription Sp1 contrôle l’activité de plus

de 300 gènes.400

Il est intéressant de noter que les théoriciens ont souvent ressenti le besoin de

justifier le choix de l’abstraction radicale. Leur défense était simple, mais potentiellement très

forte. Elle consistait à rappeler que c’est en grande partie en suivant cette stratégie que la

physique a progressé jusqu’à devenir cet édifice théorique que l’on connaît. Les physiciens,

au contraire des biologistes, ne sont pas choqués si un modèle est une représentation très

grossière d’un phénomène. Ce qui compte, c’est qu’il soit capable de saisir certains éléments

397 Ibid., p. 99. 398 Nous renvoyons ici aux remarques que nous avons faites dans le troisième chapitre sur les limites des modèles booléens. 399 G. von Dassow and E. Meir, op. cit., pp. 246-247. 400 Exemples cités dans M. Aldana et P. Cluzel, « A natural class of robust networks », Proceedings of the National Academy of Sciences, 100 (2003) : 8710-8714.

Page 215: Thèse version3.R

215

essentiels pour comprendre le système.

Des théoriciens comme Rashevsky ont dépensé beaucoup d’énergie à essayer de

persuader les biologistes que les modèles mathématiques ne devaient pas être rejetés sur la

base de leur dissemblance avec les systèmes modélisés. « Notre réponse à cette critique est la

suivante : dans les premiers temps de la théorie cinétique des gaz, toute cette théorie était

construite sur une conception de la molécule comme boule de billard élastique. Les exposés

actuels nous présentent la molécule comme un système d’une énorme complexité, qui n’a pas

la moindre analogie avec une balle rigide élastique. Bien entendu, dès l’origine, les créateurs

de la théorie cinétique étaient parfaitement conscients que le concept de molécule comme

balle élastique était très éloigné de la réalité vraie. Cependant, ils l’ont utilisé jusqu’à un

certain point avec un grand succès. »401

Von Bertalanffy s’appuie également sur les succès de l’abstraction en physique.

« Le modèle de l’atome de Bohr était une des simplifications les plus arbitraires jamais

conçues ; il devint néanmoins la pierre angulaire de la physique moderne. Progressivement

corrigées par des développements efficaces, les simplifications sont le moyen le plus puissant,

si ce n’est le seul qui permette une maîtrise conceptuelle de la nature. »402 Il insiste sur le fait

que ces efforts ne sont qu’une première étape et qu’il faudra un long processus d’amélioration

et de correction, en collaboration avec l’expérience, pour parvenir à des théories

satisfaisantes.

La comparaison avec la physique n’est évidemment pas innocente, puisque celle-ci

représentait sans conteste le modèle de scientificité et de rigueur pour toutes les sciences.

Mais cet argument n’a de toute évidence pas suffi à convaincre la communauté des

biologistes. Doit-on se contenter de ramener ce rejet à un choc des cultures ? Il nous semble

qu’une différence de taille existait (et existe toujours) entre les modèles abstraits de la

physique et ceux de la biologie : les seconds ne se sont jamais approchés du succès prédictif

des premiers. C’est le deuxième problème que nous allons maintenant considérer.

4.3.1.2. Manque de succès prédictif Le seul fait que les modèles théoriques ne représentent que très grossièrement les

systèmes biologiques ne nous semble pas suffisant pour comprendre leur rejet quasi-complet

par les biologistes. Il est certain qu’à cause d’une formation qui ne les avait pas familiarisés à

401 Cité dans Fox Keller, op. cit., p. 103. 402 von Bertalanffy, op. cit., p. 184 et suivantes.

Page 216: Thèse version3.R

216

l’art de la modélisation en physique, les biologistes étaient réticents à l’usage de modèles

abstraits. Il semble pourtant difficile d’expliquer ce désintérêt par la seule différence de

culture scientifique. Une raison extrêmement forte et évidente est que ces modèles

mathématiques et théoriques, contrairement à ceux de la physique, n’avaient que très peu de

succès prédictif.

Si l’on pense au cas de la théorie cinétique des gaz, il faut bien reconnaître qu’il

existe une différence de taille avec les modèles mathématiques en biologie : il fait des

prédictions remarquables. Si les physiciens l’ont accepté et l’ont autant utilisé, c’est bien pour

cette raison. En d’autres termes, les succès prédictifs de cette théorie montraient sans

contestation possible que les simplifications faites lors de son élaboration étaient fécondes.

Même des modèles provisoires comme l’atome de Bohr (pour répondre à la remarque de von

Bertalanffy que nous venons de citer) permettaient des prédictions remarquables. On peut

facilement imaginer que l’absence de succès prédictifs des modèles biologiques a conforté les

biologistes dans l’idée que le manque de réalisme de ces modèles constituait un pêché fatal.

D’ailleurs, si l’on pense aux modèles mathématiques qui se sont imposés en

biologie, c’est certainement en partie grâce à leur succès empirique. Cela semble en tout cas

être le cas en génétique des populations ou en écologie. Le modèle de Hardy-Weinberg est

fondé sur une série de présupposés qui s’éloignent fort de ce que l’on sait des populations

naturelles. Il considère une population de taille infinie, sans mutation, sans migration, sans

croisement entre générations. Pourtant, dans beaucoup de cas, il rend bien compte de

l’équilibre des fréquences alléliques. Prenons un deuxième cas, lui aussi très classique : le

modèle de Lotka-Voltera. Celui-ci est une représentation excessivement simple de l’évolution

de deux populations en interaction, une population de prédateurs et une population de proies.

Pourtant, s’il a rendu ses concepteurs célèbres, c’est en partie parce qu’il rendait compte de

phénomènes étranges dans l’évolution des populations de poissons dans l’Adriatique. En

effet, on s’était rendu compte qu’à la suite de la diminution de la pêche pendant la première

guerre mondiale, le nombre de prédateurs avait augmenté, mais le nombre de proies avait

diminué.403 En faisant cette prédiction non triviale, ce modèle a réussi à intéresser beaucoup

de biologistes.

403 Bien entendu, dans la plupart de cas, ce modèle doit être considérablement augmenté et raffiné pour pouvoir faire des prédictions satisfaisantes. Il faut notamment remarquer que ces équations n’ont pas de solutions stables, alors que les populations naturelles sont souvent en équilibre.

Page 217: Thèse version3.R

217

4.3.1.3. Méthode peu féconde pour résoudre les questions biologiques Les modèles théoriques souffrent d’une troisième « tare » aux yeux des

expérimentalistes : ils ne semblent pas appropriés pour répondre à certaines des questions les

plus importantes que ces derniers cherchent à résoudre. Ce constat était particulièrement vrai

dans les années 50-60, lorsque la biologie moléculaire explorait le potentiel de ses nouveaux

outils et connaissait ses plus grands succès.

Un bon exemple d’échec d’une approche théorique est le décryptage du code

génétique. Des chercheurs de premier plan venus de la physique et des mathématiques se sont

efforcés de résoudre ce problème, qui était alors considéré comme une des questions centrales

à laquelle devait répondre la biologie moléculaire. Dans son ouvrage Who wrote the book of

life, Lily Kay a décrit en détail cet épisode et montré comment toutes les approches théoriques

ont échoué.404

L’acteur majeur de cet épisode est le physicien George Gamow, qui a largement

contribué à définir au début des années 50 ce qu’on a appelé le problème du codage (coding

problem). Dans ce nouveau cadre conceptuel, l’hérédité était redéfinie comme un processus

de transfert d’information, qui opérait selon un code. Le code est ici la relation qui lie les

séquences de nucléotides et d’acides aminés. La question était de savoir comment on passe

d’un code de quatre lettres à un code de vingt lettres ? L’enjeu devenait alors de décrypter ce

code et ce défi suscita l’intérêt de nombreux scientifiques – physiciens, mathématiciens,

ingénieurs. Les problèmes de codage avaient pris une importance considérable au cours de la

seconde guerre mondiale et beaucoup de chercheurs voulaient mettre à profit leur talent en

cryptographie pour résoudre ce problème biologique.

Au cours de cette première phase de recherche – la phase formaliste, comme

l’appelle Kay – la méthode suivie par ces théoriciens consistait à ne pas s’intéresser aux

mécanismes biochimiques derrière ce code, c’est-à-dire à considérer la synthèse des protéines

comme une boîte noire. Le but était de déduire le code à partir des séquences que l’on

connaissait (notamment la séquence de l’insuline qui venait d’être déterminée). Le problème

fut attaqué de la même manière que si l’on était en présence d’un message (un texte) à

décoder. De nombreux chercheurs intéressés par ce problème se rassemblèrent dans un groupe

informel, appelé le RNA Tie Club et consacrèrent beaucoup d’efforts pour trouver un modèle

satsfaisant. Ce groupe rassemblait autour de Gamow des chercheurs prestigieux tels que

James Watson, Francis Crick, Max Delbrück, Gunther Stent, Sydney Brenner ou encore

404 L. Kay, Who wrote the book of life ?, Stanford, Stanford University Press, 2000 ; voir surtout le chapitre 5.

Page 218: Thèse version3.R

218

Leslie Orgel.

Nous ne nous arrêterons pas sur les diverses solutions qui furent proposées (d’abord

des codes chevauchants, puis des codes non chevauchants), mais malgré beaucoup

d’acharnement, la participation de certains scientifiques parmi les plus brillants et inventifs du

siècle (on peut citer John von Neumannm, qui est réputé pour avoir apporté une contribution

décisive à la plupart des questions sur lesquelles il s’est penché et cela dans des domaines très

variés) et le recours aux technologies informatiques de pointe, aucune solution satisfaisante ne

put être trouvée.

La solution ne devait finalement pas venir d’une élégante démarche théorique mais

de la mise au point d’un système expérimental ingénieux, mais conceptuellement assez

simple. En 1961, Marshall Nirenberg et Heinrich Matthaei firent un pas décisif vers la

solution grâce à l’utilisation d’un système de synthèse in vitro de protéines. Ce système,

dérivé de la bactérie E.coli, pouvait produire une protéine à partir d’une molécule synthétique

d’ARN. On observa qu’une molécule d’acide polyuridilique (poly-U) induisait la synthèse

d’une protéine ne contenant que l’acide aminé phénylalanine. La conclusion était simple et

directe : le codon UUU codait pour la phénylalanine. Les études sur le code entraient alors

dans leur « phase biochimique », qui s’avera très fructueuse, puisqu’en 1967 le problème était

complètement résolu.405

Cette capacité des systèmes expérimentaux à « porter » et à nourir la recherche a

été étudiée avec beaucoup d’attention par plusieurs historiens et philosophes des sciences. Les

analyses de Rheinberger sont à cet égard très instructives. Il montre que le système

expérimental qui a permis cette découverte fondamentale s’était développé indépendamment

de la question théorique du code génétique. Il provenait en fait de recherches sur le

métabolisme des cellules cancéreuses et a été réutilisé dans ce nouveau contexte. Il faut noter

que sa mise au point a essentiellement dépendu de progrès technologiques, comme

l’utilisation d’acides aminés radioactifs, qui étaient beaucoup plus faciles à détecter. Selon

Rheinberger, le discours théorique s’est ensuite saisi de ces approches expérimentales, mais

n’est pas à leur origine. Comme le souligne Marcel Weber dans son commentaire des travaux

de Rheinberger406, de ce point de vue, c’est l’exploration des systèmes expérimentaux qui est

facteur de progrès. Les expériences ne sont pas là pour simplement tester des modèles

405 Il faut tout de même reconnaître que le travail mené pendant la première phase a contribué à former de manière déterminante le cadre conceptuel de la biologie moléculaire et que les recherches de la seconde phase se sont en partie construites sur cette base. 406 M. Weber, The philosophy of experimental biology, op. cit., p. 132 et suivantes.

Page 219: Thèse version3.R

219

théoriques développés indépendamment, mais génèrent les questions posées en même temps

qu’elles fournissent les réponses.

Le cas des travaux de Kauffman illustre ici aussi, bien que d’une manière très

différente, le fait que les approches théoriques ne donnent pas les réponses aux questions que

posent les expérimentalistes. Les modèles de Kauffman rendent compte de propriétés qui

émergent de larges réseaux. Or, jusqu’à très récemment, les biologistes qui s’intéressaient aux

réseaux de régulation génétiques travaillaient toujours sur des petits réseaux dont les

interactions sont assez finement étudiées. Il est ainsi difficile de voir de quelle manière le

concept d’attracteur est utilisable par des biologistes moléculaires étudiant le développement

avec des méthodes comme la transgenèse et l’étude de la régulation des gènes. Le cadre

développé par Kauffman dépassait de beaucoup ce que pouvaient faire expérimentalement les

biologistes du développement.

Mais il ne faudrait pas pour autant en déduire que les modèles abstraits seraient des

outils inadaptés à la recherche en biologie. Un modèle théorique ne peut en général pas

répondre aux mêmes questions que les méthodes expérimentales. C’était visiblement le cas

dans les recherches sur le code génétique. Il est essentiel de garder à l’esprit ce fait et rejeter

les critiques des modèles théoriques qui se tromperaient sur les buts que poursuivent ceux-ci.

Notre propos était simplement de montrer que cette confusion avait certainement contribué à

établir la mauvaise réputation des approches théoriques. Ajoutons qu’il est évident que nous

ne voulons pas critiquer retrospectivement les efforts des théoriciens. Il est toujours difficile

de prévoir quel type d’approche pourrait se révéler fructueux. On peut en revanche remarquer

que certains théoriciens ont tendance à accorder une trop grande confiance à leurs modèles et

ne prennent pas suffisament au sérieux les travaux des expérimentateurs.

4.3.1.4. Les difficultés de la modélisation en biologie Les exemples que nous venons de passer en revue indiquent qu’un des problèmes

fondamentaux qu’a toujours rencontré la biologie théorique réside dans le processus même de

modélisation. Le principe de la modélisation est toujours (que l’on considère des modèles

théoriques ou des modèles particuliers) de trouver une forme de représentation qui facilite

notre compréhension de phénomènes naturels. Si, comme nous l’avons dit, les modèles

théoriques ne cherchent pas à représenter fidèlement des systèmes particuliers, le théoricien

pense tout de même qu’ils sont dans un certain rapport aux systèmes biologiques, qui fait que

les connaissances que l’on pourra acquérir sur les modèles pourront nous être utiles pour

Page 220: Thèse version3.R

220

comprendre ces systèmes. C’est la nature de ce rapport que nous voudrions examiner d’un

peu plus près, afin de mieux saisir les difficultés à tirer profit des connaissances théoriques.

Il faut donc se demander comment le théoricien développe ses modèles et mène sa

recherche théorique. En physique, il est clair que beaucoup de travaux théoriques ne se

fondent que très peu sur les données empiriques, mais sur des théories existantes, qu’il s’agit

d’explorer par un travail d’analyse mathématique ou de transformer en changeant certaines

hypothèses ou axiomes. Comme cela a souvent été remarqué, Einstein, lorsqu’il travaillait sur

sa théorie de la relativité, ne fonda pas ses recherches sur les expériences de Michelson-

Morley. L’existence d’un vaste édifice théorique, qui semble « solide », permet au théoricien

de rester au niveau des systèmes formels. Dans le cas de la physique, il se trouve qu’une telle

méthodologie se révèle souvent fructueuse. En revanche, en biologie, la situation est

complètement différente. Comme on ne dispose quasiment pas de théories générales

formalisées, il n’est pas possible de mener un gros travail mathématique d’analyse, de

reformulation ou d’intégration en restant au niveau des modèles abstraits. On doit toujours

partir de certains phénomènes connus ou de certaines propriétés des systèmes biologiques, et

tenter de trouver le type d’abstraction qui permettra de saisir des aspects généraux. Il semble,

jusqu’à présent, plus difficile en biologie qu’en physique de trouver un mode d’abstraction

qui permette de parvenir à un modèle suffisamment simple pour pouvoir être analysé

mathématiquement, suffisamment général pour rendre compte d’une large classe de

phénomènes, et enfin, capable de mener à des prédictions non triviales, et de bénéficier ainsi

d’une certaine validation expérimentale. C’est sans doute là que réside toute la difficulté de

l’entreprise et la source d’insatisfaction de beaucoup de chercheurs. Les solutions adoptées

par les théoriciens semblent tellement affaiblir les liens avec les données expérimentales

(même si on accepte qu’il ne s’agit pas de représenter fidèlement les systèmes) qu’il devient

difficile de voir comment tirer profit de leurs résultats théoriques.

Robert Rosen a proposé une analyse détaillée de la démarche de modélisation en

science, qui pourra nous aider à comprendre la nature de ce problème, en précisant en quel

sens la plupart des modèles théoriques sont « coupés » du champ expérimental.407

Rosen distingue ce qu’il considère comme étant un véritable modèle de ce qu’il

considère comme relevant de la métaphore. Un modèle est un système formel qui entretient

certaines relations avec un système naturel. Il permet avant tout de procéder à des inférences

qui auront une certaine correspondance avec les relations causales que l’on observe dans le

407 R. Rosen, Life itself, New-York, Columbia University Press, 1991.

Page 221: Thèse version3.R

221

système naturel. Ce qui rend l’utilisation d’un modèle possible et si importante pour la

science, réside dans l’existence de ponts que l’on peut établir entre ces deux systèmes (naturel

et formel). Selon Rosen, des principes de correspondances (qu’il appelle également des

dictionnaires) permettent d’une part, d’encoder le phénomène naturel sous forme de

propositions du système formel, et d’autre part, de décoder les propositions de celui-ci pour

revenir aux phénomènes.

Ainsi, deux chemins mènent d’un phénomène naturel à un autre. Le premier

correspond évidemment à la succession causale des événements du monde, que tout

observateur peut constater. Le second passe par le système formel. En partant de mesures sur

le système naturel, on construit un système formel. Les propositions de ce système pourront

ensuite servir d’hypothèses à partir desquelles un certain nombre d’inférences pourront être

faites, ce qui permettra d’aboutir à des théorèmes. Ces théorèmes, une fois décodés, nous

donneront des prédictions concernant le système naturel. Le système formel, nous dit Rosen,

est un modèle du système naturel si le résultat est le même, que l’on reste au niveau du

système naturel ou que l’on fasse le détour pas le système formel. Dans ce cas, il est possible

d’apprendre des choses sur le système naturel en considérant le système formel. La

modélisation correspond donc à l’action de convertir une relation causale en une relation

inférentielle, dans le but de mieux la comprendre par l’étude du système formel.

Selon Rosen, les métaphores représentent un cas très différent, dans la mesure où

elles font l’économie de l’étape d’encodage : « Bien entendu, si nous avons déjà un modèle,

nous pouvons oublier comment notre système naturel fut encodé et obtenir des prédictions

correctes par un simple décodage à partir du formalisme. »408 Ces métaphores seraient très

courantes en science et en particulier en biologie. Rosen discute le cas de la métaphore des

systèmes ouverts, popularisée par von Bertalanffy. « Bertalanffy souligna en particulier la

relation métaphorique entre ce qui se produit dans le voisinage d’attracteurs stables (état

d’équilibre stable) de systèmes ouverts et les faits empiriques du développement

embryonnaire : la génération de pattern et la morphogenèse. Dans cette métaphore, nous

essayons de décoder à partir du premier vers les détails du second, à nouveau sans le bénéfice

d’un encodage spécifique allant dans l’autre sens. »409 Rosen considère que les travaux de

Rashevsky et Turing sont à rattacher à cette métaphore. D’après lui, ces métaphores sont

utilisées avec l’espoir de parvenir à de véritables modèles. C’est-à-dire qu’on devrait pouvoir

encoder un système particulier sous la forme d’un modèle formel de système ouvert. Mais, en 408 Ibid., p. 65. 409 Ibid.

Page 222: Thèse version3.R

222

tant que métaphores, il ne s’agit pas encore de modèles.

Il n’est toutefois pas dans l’intention de Rosen de rejeter ces approches et, au

contraire, il reconnaît l’intérêt de cette démarche. Mais, en soulignant la nature particulière de

la méthode suivie, il nous aide à mieux comprendre ce qu’elle a de dérangeant pour les

expérimentalistes.

« Procéder de manière métaphorique dans le sens discuté plus haut n’est, bien

entendu, pas une chose déraisonnable à faire. Il est toutefois également clair pourquoi les

expérimentalistes considèrent de telles métaphores troublantes et pourquoi elles occupent une

position anormale dans ce qui passe de nos jours pour la philosophie des sciences. Car en

renonçant à l’encodage, nous renonçons également à la vérifiabilité en tout sens précis. Ainsi,

les expérimentalistes intéressés spécifiquement par, mettons, un oursin en développement, ne

peuvent tirer une aide concrète d’une métaphore. Ils ont besoin de quelque chose à vérifier,

sous la forme d’une observation ou d’une expérience spécifique qui peut être faite. C’est-à-

dire qu’ils ont besoin de ce qui manque précisément dans la métaphore ; ils ont besoin de

l’encodage. D’où l’indifférence générale, si ce n’est l’hostilité active, manifestées par les

empiristes à l’égard de théories formulées en termes métaphoriques. Une métaphore est en

effet immunisée contre de telles vérifications ; dans la mesure où la science est identifiée avec

la vérification, ce qu’il est actuellement à la mode de faire, une métaphore ne relève même

pas de la science. Pourtant, il est clair qu’une métaphore peut incarner une grande part de

vérité. »410

Même si l’on ne partage pas entièrement l’analyse de Rosen, le problème nous

semble clairement identifié. Ce qui est en jeu, ce n’est pas le fait de construire des modèles

abstraits des phénomènes biologiques. Tout biologiste moléculaire procède de cette façon

lorsqu’il élabore un schéma de mécanisme à partir de données expérimentales. Il n’a certes

pas l’habitude de recourir à un modèle formel, mais il pourrait l’accepter si les éléments du

modèle peuvent être mis en relation de manière relativement directe avec ce qu’il connaît du

système. En revanche, comme Rosen le souligne avec raison, les modèles théoriques en

biologie ne suivent souvent pas cette procédure d’encodage. Ils n’ont pas vocation à

représenter fidèlement le système. Il n’est donc pas étonnant qu’ils ne permettent pas de faire

des bonnes prédictions (bien que, comme le souligne Rosen, les métaphores permettent

certaines prédictions, mais qui restent qualitatives et très générales). Mais il faut souligner que

cette remarque de Rosen laisse penser qu’il est possible de développer des modèles théoriques

410 Ibid., p. 66.

Page 223: Thèse version3.R

223

qui ne seraient pas seulement métaphoriques. Il faudrait pour cela accorder plus d’attention à

cette étape d’encodage.

Ces remarques peuvent être liées à une distinction faite par Michael Weisberg entre

des modèles qui doivent représenter un phénomène particulier et des modèles qui sont étudiés

pour eux-mêmes.411 Les modèles de Kauffman semblent appartenir au deuxième groupe. S’ils

sont censés représenter les propriétés des réseaux biologiques, ce n’est que de manière très

approximative. On peut considérer que ces travaux visent avant tout à révéler les propriétés

génériques de réseaux complexes. Ces propriétés sont peut-être essentielles pour comprendre

les systèmes biologiques, mais à ce stade, on est encore dans le domaine de la métaphore.

À l’époque où Kauffman a proposé ses modèles, on ne connaissait quasiment rien

de la structure globale des résaux génétiques. On n’avait même qu’une idée très imprécise (et

fausse) du nombre de gènes. Il est à ce propos intéressant de noter que Kauffman avance

quelques prédictions censées soutenir son modèle. Une de ses thèses est que le nombre

d’attracteurs d’un réseau génétique dépend du nombre de gènes constituant ce réseau, et

d’autre part, qu’un attracteur correspond à un type cellulaire. En se fondant sur le nombre

estimé de gènes à l’époque (100'000), il déduit le nombre d’attracteurs caractérisant ces

réseaux et parvient à un nombre proche de 300, ce qui correspond plus ou moins au nombre

de types cellulaires. Si son modèle était une représentation relativement fidèle des « vrais »

réseaux de gènes, ses prédictions auraient certainement eu plus de poids ; mais, dans son cas,

les hypothèses (nombre de gènes, connectivité, fonctions booléennes) étaient trop éloignées

de données précises pour qu’on puisse considérer que cette prédiction validait son modèle. De

fait, maintenant qu’on sait que le nombre de gènes est environ trois moins élevé, que doit-on

penser de cette prédiction ?

Il est donc plus prudent de considérer les modèles de réseaux booléens de

Kauffman pour ce qu’ils sont : des modèles permettant d’explorer les propriétés des réseaux

complexes, propriétés qui pourraient à terme nous aider à comprendre les réseaux biologiques

réels. Mais, avant de pouvoir appliquer les connaissances tirées du modèle au système, il faut

déterminer plus précisément la relation de représentation. Tant qu’on reste dans le domaine de

la métaphore, il s’agit plutôt de preuves de principe. Mais, bien entendu, celles-ci sont

indispensables pour ouvrir de nouvelles voies de recherche.

L’importance de ces preuves de principe a été reconnue et bien analysée par

William Wimsatt. Dans un article très important sur ce problème, il pose une question 411 M. Weisberg, « Forty Years of ‘The Strategy’ Levins on Model Building and Idealization », Biology and Philosophy, 21(2006) : 623-645; voir la note 1.

Page 224: Thèse version3.R

224

fondamentale : comment l’utilisation de modèles visiblement faux peut-elle avoir des vertus

scientifiques ?

Parmi les sens dans lesquels on peut considérer qu’un modèle est faux, deux sont

tenus par Wimsatt pour particulièrement importants. Premièrement, « un modèle peut-être une

idéalisation, dont les conditions d’applicabilité ne se rencontrent jamais dans la nature (par

exemple, des masses ponctuelles, l’utilisation de variables continues pour des tailles de

population, etc.), mais qui a un ensemble de cas auxquels il peut être appliqué avec plus ou

moins de précision en tant qu’approximation. »412 Deuxièmement, « un modèle peut être

incomplet – ignorant une ou plusieurs variables causalement pertinentes. »

Wimsatt établit ensuite une liste de fonctions que peuvent remplir des modèles

faux. L’une de ces fonctions nous semble très importante pour comprendre les démarches

théoriques en biologie : « Un modèle sur-simplifié peut fournir un domaine plus simple pour

répondre à des questions concernant les propriétés de modèles plus complexes, qui

apparaissent également dans ce cas plus simple, et les réponses qu’on en dérive peuvent

parfois être étendues de manière à couvrir des modèles plus complexes. »413

En effet, pour une bonne part, les modèles théoriques que nous avons mentionnés

plus haut ont été proposés précisément dans ce but : rendre compte de manière relativement

simple et générale de l’émergence de propriétés systémiques qui paraissent centrales dans les

phénomènes biologiques. Cela est vrai de la formation de pattern, des comportements

téléonomiques, des divers modes de contrôle ou encore de la robustesse générale des

systèmes. La conviction que partageaient sans doute tous les scientifiques qui ont mené des

recherches dans cette direction est que ces propriétés qui apparaissent dans les systèmes

naturels extrêmement complexes peuvent également être étudiées dans des systèmes formels

infiniment plus simples. Une fois que ces propriétés auront été comprises dans ces systèmes

simplifiés, il est raisonnable de penser que ces explications pourront être appliquées aux

systèmes réels.

Si la classe de réseaux booléens étudiée par Kauffman possède ces propriétés si

remarquables, pourquoi ne pas penser que les véritables réseaux biologiques, qui sont plus

complexes, n’en possèdent pas de similaires, voire de plus remarquables ? Si un système

chimique composé de quelques molécules qui diffusent et réagissent peut facilement produire

des formes aussi singulières, pourquoi ne pas penser que dans les embryons des processus,

412 W. C. Wimsatt, « False models as means to truer theories », In Nitecki and Hoffman (Eds.), Neutral Models in Biology, Oxford, Oxford University Press, 1987 ; nous soulignons. 413 Ibid.

Page 225: Thèse version3.R

225

certes plus complexes, mais semblables, se déroulent et produisent les formes que nous

voyons apparaître ? Ces preuves de principe peuvent jouer un rôle crucial pour ouvrir des

pistes de recherche.

Dans son commentaire des travaux de Ganti, Griesemer insiste sur l’utilisation de

modèles à des fins « exploratoires » plutôt que représentationnelles. L’exploration renvoie ici

à la détermination des propriétés génériques de modèles complexes, qui peuvent constituer

des preuves de principe.

« La valeur scientifique d’un modèle réside autant dans ce qu’on peut en faire que

dans ce qu’on peut en dire. [...] Le travail de Ganti montre que la principale utilisation de

modèles théoriques comme le chemoton est constructive plutôt que représentationnelle ; ils

fournissent un cadre à la construction de principes qui peuvent ensuite guider les efforts de

représentation. [...] Le modèle de chemoton de Ganti n’est pas censé être vrai dans le sens

d’une représentation fidèle des cellules vivantes. »414 Ce type de modèle correspond à la

seconde catégorie définie par Weisberg, celle des modèles qui sont étudiés pour eux-mêmes,

et n’est pas familier à la plupart des biologistes. Encore une fois, les biologistes moléculaires

peuvent utiliser des modèles abstraits, mais rarement pour étudier formellement les propriétés

de ces modèles, en laissant de côté les systèmes naturels.

Si l’exploration de ces propriétés émergentes par des modèles très simplifiés

constitue une étape fondamentale dans le développement d’une biologie théorique, il est

cependant nécessaire d’affermir les liens entre ces modèles et les systèmes qu’ils sont censés

expliquer. S’il est acceptable qu’un modèle théorique ne représente pas directement des

phénomènes particuliers, il faudrait néanmoins pouvoir en dériver des modèles explicatifs

pouvant s’appliquer à ces phénomènes. Cela devrait permettre de s’assurer que les questions

auxquelles on répond à l’aide du modèle simplifié ont un sens (ou se posent également) dans

le cas du système naturel. En d’autres termes, il faut pouvoir tester la fécondité du modèle. En

effet, si aucun morphogène ne diffusait dans l’embryon, ou si les réseaux biologiques

n’avaient rien à voir avec les réseaux booléens étudiés par Kauffman, il serait sans doute vain

de continuer à mener des analyses détaillées de ces modèles pour comprendre les systèmes

biologiques.

Les analyses que nous venons de voir pointent toutes, à leur manière et de leur

point de vue, vers la même idée. Les théoriciens se sont lancés dans une entreprise

extrêmement difficile à plusieurs niveaux. Premièrement, ils ont cherché à suivre l’exemple

414 J. Griesemer, op. cit., p. 186.

Page 226: Thèse version3.R

226

de la physique, qui construit des modèles très simplifiés des systèmes naturels pour atteindre

des théories générales. Mais les systèmes étudiés par la biologie n’ont rien à voir avec les

systèmes traditionnellement étudiés par la physique.415 Les modèles théoriques abstraits

développés en biologie ne fournissaient pas de bonnes représentations des systèmes connus.

Cela ne les rendait toutefois pas inutiles, puisqu’ils ont eu l’immense mérite d’attirer

l’attention sur certaines propriétés des systèmes complexes qui peuvent potentiellement

fournir un cadre explicatif nouveau et capable d’enrichir notre compréhension des systèmes

biologiques. Mais à ce stade, ils restaient essentiellement métaphoriques. L’immense majorité

des biologistes a certainement mal compris la nature de ce projet et l’a sans doute rejetée un

peu vite et sans suffisamment de discernement. Ce dont les biologistes avaient besoin, c’est

un cadre théorique plus fécond, c’est-à-dire capable de produire des modèles susceptibles

d’expliquer des phénomènes particuliers. Nous avons déjà cité von Bertalanffy qui

reconnaissait que, si les principes généraux qu’il proposait n’avaient pas vocation à expliquer

des phénomènes particuliers, ils « devraient cependant fournir une ossature, un schéma

général, à l’intérieur duquel seraient possibles des théories quantitatives des phénomènes

spécifiques de la vie ». Mais il était sans doute encore trop tôt pour que ces modèles puissent

être dérivés. On peut penser que c’est la difficulté à réaliser ces promesses qui a en partie

freiné le développement ainsi que la reconnaissance de la biologie théorique au cours de

cinquante dernières années. Nous examinerons dans le chapitre suivant, dans quelle mesure

les bouleversements introduits par la biologie des systèmes pourrait changer cette situation.

4.3.2. Le problème de la généralité en biologie Le manque de réalisme n’est pas la seule raison pour laquelle on peut nourir des

doutes à l’égard des modèles théoriques. Un second problème, peut-être encore plus

fondamental, concerne la possibilité même de parvenir à des principes généraux, voire

universels, portant sur le vivant. En effet, un certain nombre de philosophes ont rejeté l’idée

que la biologie pouvait mettre au jour des lois.416

Nous discuterons les positions de trois auteurs importants dans ce débat : Smart,

Rosenberg et Schaffner. En abordant les positions défendues par ces trois auteurs, nous

pensons caractériser un certain consensus sur cette question. La situation n’est, bien entendu,

415 La situation est en train de changer, depuis que la physique s’intéresse aux systèmes complexes ; cela explique l’intérêt de certains biologistes pour les méthodes développées par ces physiciens. 416 Sur les lois en biologie, voir par exemple le numéro spécial de Philosophy of Science, volume 64 (4),1997.

Page 227: Thèse version3.R

227

pas si claire et certains constesteront ces arguments, mais ces positions ont le mérite de faire

apparaître clairement les difficultés philosophiques soulevées par la recherche de généralité en

biologie.

Smart

Une des références qui a largement contribué à orienter les débats des dernières

décennies est un texte de J.C.C. Smart, dans lequel celui-ci s’attaque à l’idée que la biologie

pourrait, au même titre que la physique, mettre au jour des lois de la nature.417 S’il reconnaît

qu’il existe des généralisations empiriques, celles-ci ne peuvent, selon lui, jamais être

considérées comme des lois. La biologie ne serait pas une science au sens de la physique,

mais devrait plutôt être rapprochée de l’ingénierie, qui ne formule pas des lois qui lui seraient

propres, mais se contente d’appliquer celles de la physique.

Pour mener sa critique, Smart se fonde sur la conception suivante du concept de

lois. Une loi doit, nous dit-il, posséder deux propriétés. Premièrement, elle doit être une

généralisation universelle sans exception. Deuxièmement, elle doit impliquer une certaine

nécessité. Smart définit les lois qu’on trouve en physique de la manière suivante : « Ces lois

sont universelles en ce qu’on suppose qu’elles s’appliquent partout dans l’espace et dans le

temps, et qu’elles peuvent être exprimées dans des termes parfaitement généraux, sans

recourir à des noms propres ou à des références tacites à des noms propres. »418 C’est ce qu’il

appelle des lois au sens strict.

Pour prouver que la biologie ne contient pas de lois au sens strict, Smart prend un

exemple simple. Soit la proposition suivante : les souris albinos transmettent

systématiquement leur caractère albinos (« breed true »). Cette proposition, nous dit Smart, ne

peut en aucune manière être considérée comme une loi au sens strict. En effet, l’entité souris

est une sorte particulière d’animal terrestre, définie par sa place dans l’arbre évolutif. Le

terme « souris » fait donc référence à la Terre. Or une référence à une entité particulière

contredit la définition de loi donnée plus haut.

Selon Smart, il n’est pas possible de contourner ce problème en définissant l’entité

souris en termes de propriétés que possèderaient tous les éléments de cette classe. En effet,

s’il est possible de trouver un ensemble de propriétés telles que toutes les souris et seulement

les souris les possèdent, une loi portant sur cette classe aurait toutes les chances d’être fausse.

417 J. C. C. Smart, Philosophy and Scientific Realism, London, Routledge and Kegan Paul, 1962. 418 Ibid., p. 53.

Page 228: Thèse version3.R

228

Etant donnée la taille de notre univers, il est probable que sur une quelconque planète un

animal possédant toutes les propriétés que nous avons définies, ne respecte pas notre loi (dans

notre exemple, il n’aurait pas la propriété de transmettre systématiquement le caractère).

Il est évident que son analyse est très marquée par une certaine conception de ce

qu’est un loi qui est celle qui a dominé la philosophie des sciences jusqu’à récemment, c’est-

à-dire celle développée par les empiristes logiques, sur le modèle de la physique. Le fait que

Smart rapproche la biologie de l’ingénierie, par contraste avec la physique, doit être gardé à

l’esprit, car cette comparaison nous intéressera dans les deux derniers chapitres.

Rosenberg

Alex Rosenberg est connu pour avoir défendu une conception instrumentaliste de la

biologie. Dans le livre consacré à développer cette thèse, Instrumental Biology or the Disunity

of Science, il propose des arguments qui permettent de renforcer l’attaque menée par Smart,

en fournissant des raisons supplémentaires de douter qu’il serait possible de définir des

classes biologiques sur lesquelles porteraient des lois.

Résumé en une proposition, le coeur de son argument est que s’il n’y a pas de lois

en biologie, c’est parce que les classes (kinds) biologiques sont identifiées fonctionnellement

et pas structurellement. Selon sa formule marquante, la sélection naturelle sélectionne des

fonctions, mais elle est aveugle aux structures, du moment que celles-ci sont

fonctionnellement équivalentes.

« Ce qui, pour la méthode scientifique et la métaphysique, semble être la morale de

la sélection naturelle, c’est que, au-dessus du niveau des molécules, la nature n’est plus

simple, et qu’elle n’est pas simple à cause de la cécité de la sélection pour des fonctions à des

différences structurales. »419

La conséquence de cette cécité de la sélection pour les structures est directe : « les

régularités que la sélection pour des fonctions génère seront nettement plus restreintes, pleines

d’exceptions et complexes que ce que nous en sommes venus à attendre dans d’autres

disciplines. »420

Imaginons que nous cherchions une généralisation valide pour une classe d’objets

qui ont été sélectionnés pour une certaine fonction. Rosenberg nous dit que nous ne pourrons

probablement trouver aucune propriété structurale qui serait partagée par tous les membres de

419 A. Rosenberg, Instrumental Biology or the Disunity of Science, University of Chicago Press, 1994, p. 34. 420 Ibid.

Page 229: Thèse version3.R

229

cette classe. En effet, comme les éléments de cette classe ont été sélectionnés pour une

fonction et non pour une structure physique, la classe sera physiquement hétérogène. Si l’on

trouve certaines propriétés structurales partagées par tous ou la plupart des éléments, elles

seront probablement inintéressantes, ou alors la classe considérée sera très restreinte.

« Etant donné que les classes fonctionnelles sont produites par la sélection et que la

sélection ne fait pas de distinction entre différentes structures qui sont également

avantageuses eu égard au trait sélectionné, les classes fonctionnelles sont ipso facto

hétérogènes, et aucune autre généralisation intéressante n’est vraie pour tous ses

membres. »421

Si l’on prend cet argument au sérieux – et il semble difficile de ne pas le prendre au

sérieux – ne doit-on pas en conclure que cette biologie théorique, qui cherche des principes

valables pour des larges classes de systèmes biologiques, court après des chimères ?

Schaffner

Le troisième auteur que nous avons choisi de faire intervenir dans cette discussion

est Kenneth Schaffner. Sa position vaut la peine d’être discutée, car elle s’efforce de prendre

acte des thèses de Smart et Rosenberg, tout en refusant l’idée que la scientificité de la biologie

puisse en être diminuée d’une quelconque façon. Il veut en outre redonner une certaine force

aux généralisations en biologie. On peut donc le situer entre les partisans d’une biologie

universelle et les critiques comme Rosenberg.

Schaffner s’est beaucoup penché sur ce qu’il appelle les théories biomédicales de

« rang moyen » (middle range). Ces théories se situent entre, d’un côté, les mécanismes

universels de la biochimie et, de l’autre, les généralisations universelles que l’on trouve en

biologie de l’évolution. Si l’universalité se rencontre aux niveaux d’agrégation très bas ou très

élevés, en revanche, « les théories biomédicales de rang moyen devraient être conçues comme

ne possédant pas d’universalité, même à l’intérieur d’une seule espèce. »422

Schaffner refuse pourtant d’admettre que les généralisations en biologie seraient

dépourvues de toute nécessité. Pour répondre à l’argument de Smart, Schaffner distingue deux

types d’accidentalité : la première peut être considérée comme essentielle et la seconde

comme historique. À ces deux types d’accidentalité, correspondent deux types de

généralisation. L’accidentalité de type essentiel est celle habituellement discutée par les

421 Ibid. 422 K. F. Schaffner, Discovery and Explanation in Biology and Medicine, op. cit., pp. 119-120.

Page 230: Thèse version3.R

230

philosophes. Par exemple, les généralisations du type « toutes les vis dans la voiture de Smith

sont rouillées » peuvent être considérées comme reposant sur un pur hasard et ne peuvent

supporter des contrefactuels. Il y a, en effet, peu de chance que la proposition « si une vis était

dans la voiture de Smith, alors elle serait rouillée » soit vérifiée.

En revanche, dans le cas de généralisations renvoyant à une accidentalité

historique, nous avons de bonnes raisons de penser qu’une certaine force nomique est à

l’oeuvre. À l’origine de ces généralisations, il y a bien un événement purement accidentel,

mais la nature des processus évolutifs fait que les conséquences de cet événement se font

encore sentir chez tous les individus qui peuvent être rattachés à cet accident par des relations

de descendance. Cette idée est souvent exprimée par le terme d’ « accident gelé ». Schaffner

pense que, si l’origine d’une certaine relation dans le code génétique (c’est-à-dire une relation

entre un triplet particulier et un acide aminé particulier) est probablement due à une mutation

aléatoire, et que cette relation aurait pu être différente, elle s’est néanmoins ensuite figée au

cours du processus évolutif et a acquis de ce fait une certaine universalité. Une fois que le

code génétique s’est stabilisé, il était certainement devenu très difficile, voire impossible, de

le modifier, car une mutation dans un mécanisme aussi central et vital pour la cellule a de

grandes chances d’être délétère.423 Schaffner conclut donc : « L’accidentalité historique

représente donc une accidentalité « figée » en universalité nomique. »424

Schaffner développe une deuxième ligne d’argumentation visant à conserver une

certaine force nomique aux généralisations en biologie. Il distingue pour cela deux sens du

qualificatif universel. Le premier correspond au domaine de validité des généralisations

(scope). Dans ce sens, la plupart des généralisations en biologie ne sont pas universelles, car

elles ne s’appliquent qu’à un domaine limité du vivant. En revanche, d’après le deuxième sens

défendu par Schaffner, celui du déterminisme causal, beaucoup de généralisations en biologie

renvoient à une certaine universalité, dans le sens où elles peuvent supporter des

contrefactuels. En d’autres termes, bien que la contingence fondamentale à l’oeuvre dans les

processus évolutifs réduise considérablement l’étendue des généralisations que l’on peut faire

au sujet des organismes, une fois établies pour une classe donnée d’organismes, ces

généralisations ont force de lois. Ainsi, tout en reconnaissant le fait que les généralisations

sont toujours liées à un domaine spatio-temporellement défini (ce qui constituait pour Smart

423 L’origine de l’idée d’accident gelé pour expliquer le code génétique se trouve chez Crick (F. H. C. Crick, « The origin of the genetic code », Journal of Molecular Biology, 38 (1968) : 367). 424 K. Schaffner, op. cit., p. 121. Il faut noter que ce principe, appelé entrenchment, a beaucoup été discuté par William Wimsatt : J. C. Schank and W. C. Wimsatt, « Generative entrenchment and evolution », In PSA, vol. 2: 33-60, 1988.

Page 231: Thèse version3.R

231

une raison de douter de leur « dignité » scientifique) Schaffner insiste sur la valeur que leur

confère cette universalité causale. En résumé, il distingue deux types de généralisations :

certaines décrivent la distribution de certains traits dans des groupes d’organismes, tandis que

d’autres décrivent des dispositions ou des régularités causales.

Un des soucis de Schaffner est d’éviter que la critique de Smart n’en vienne à faire

douter de la légitimité des théories et des modèles en biologie. La thèse qu’il défend est donc

que les généralisations du domaine « middle range » ne sont pas simplement des études de

cas, comme le suggérait Rosenberg, mais ont des domaines de validité plus ou moins larges.

L’importance des accidents gelés dans l’histoire évolutive est évidemment une question

empirique, mais Schaffner semble penser que des mécanismes causaux assez généraux

peuvent être trouvés.

On voit donc avec Schaffner que même les philosophes qui ont défendu une

conception « forte » des généralisations biologiques ne s’avancent pas trop sur l’existence de

principes généraux.

Nous aimerions ajouter une remarque concernant la généralité des modèles en

biologie moléculaire. Il ne faudrait pas déformer la réalité et imaginer que les biologistes

expérimentalistes ne recherchent pas de généralisations valables pour de larges classes

d’organismes, voire pour tout le vivant, ou qu’ils pensent qu’il n’y en aurait pas. On sait que

la biologie moléculaire a permis une unification significative du vivant, en montrant que tous

les organismes connus utilisent l’ADN comme matériel génétique. Tout le monde connaît la

phrase de Monod : « ce qui est vrai pour le colibacille est vrai pour l’éléphant ». Les

mécanismes fondamentaux comme la réplication de l’ADN, la transcription ou la traduction

sont proches dans des espèces très différentes. Par ailleurs, l’utilisation des organismes

modèles montre bien que les biologistes recourent sans cesse à des raisonnements inductifs

qui présupposent une grande généralité. En effet, ils tirent souvent des conclusions générales

ou en tout cas sensées être valables pour d’autres espèces, à partir de l’étude d’une espèce

particulière.

En réalité, ces pratiques vont tout à fait dans le sens des arguments développés par

Schaffner. Elles acceptent le principe selon lequel la généralité ne peut jamais être justifiée a

priori. Si les biologistes raisonnent par induction, ce n’est pas parce qu’ils admettent

l’existence de lois qui garantiraient la validité de ces inductions, comme les physiciens l’ont

généralement admis. Marcel Weber a bien analysé cette question.425 Il montre que ces

425 M.Weber, op. cit., chapitre 6.

Page 232: Thèse version3.R

232

inférences inductives sont fondées parce qu’il s’agit d’autre chose que d’une simple

induction. Comme il le souligne, les biologistes s’appuient en partie sur des comparaisons

phylogénétiques entre les organismes qu’ils étudient. « Si l’on constate qu’un mécanisme est

le même dans un ensemble d’organismes très distants phylogénétiquement, c’est une

indication qu’il est identique dans un grand nombre d’autres organismes, à savoir tous ceux

qui partagent un ancêtre commun avec les organismes connus qui sont comparés. »426

« Ainsi, des extrapolations ou des inférences inductives d’organismes modèles vers

d’autres organismes sont possibles et peuvent être raisonnablement valables, du moment

qu’elles sont fondées sur des relations phylogénétiquement connues. En dernière analyse, la

généralité des principes biologiques moléculaires peut uniquement être établie par de telles

inférences. »427

Ainsi, si les biologistes espèrent toujours trouver et trouvent effectivement souvent

des mécanismes communs dans le vivant, cette généralité n’est pas fondée sur des raisons

théoriques. Elle est garantie a posteriori par certains arguments que l’on peut considérer

comme théoriques, c’est-à-dire l’existence de mécanismes évolutifs. Mais elle passe

nécessairement pas l’accumulation d’observations sur les systèmes naturels et non par un

travail sur des modèles abstraits. Si, comme l’affirme Weber, il s’agit d’un type particulier

d’inférence inductive, le mouvement inductif reste central. C’est pour cette raison qu’avant

d’avoir étudié un certain nombre d’organismes phylogénétiquement éloignés, il est délicat de

juger du degré de généralité d’un mécanisme. En d’autres termes, les biologistes savent qu’un

certain nombre de mécanismes ont été fixés au cours de l’évolution et, en comparant diverses

espèces, ils s’efforcent de les mettre au jour.

Un dernier point mérite d’être souligné à propos de l’analyse de Schaffner : il

s’éloigne d’une réflexion en termes de lois pour s’intéresser à des généralisations de divers

ordres. C’est-à-dire que la question de la généralité des modèles en biologie peut être posée de

manière plus nuancée. Ce déplacement était nécessaire, car, de la même manière que dans les

débats sur le réductionnisme que nous avons décrit dans le deuxième chapitre, le cadre hérité

des empiristes logiques était mieux adapté à la physique qu’à la biologie.

D’ailleurs Waddington reconnaissait que la biologie théorique devait se démarquer

de la physique théorique. Il écrivait : « Elle [la biologie théorique] ne chercherait pas des lois

universelles et éternelles. Au lieu de cela, elle accepterait que les systèmes vivants sont des

426 Ibid., pp. 180-181. 427 Ibid., p. 182.

Page 233: Thèse version3.R

233

cas particuliers d’une sorte de « complexité organisée » [organized complexity], et que son but

serait de se demander « quelle sorte de complexité ? », et « quels sont les principes de son

organisation ? » ».428 Waddington fait là une remarque d’une extrême importance, puisque

d’une part il reconnaît l’inadéquation d’une réflexion en termes de lois en biologie et, d’autre

part, il comprend que l’objet de la biologie théorique est l’organisation des systèmes

complexes, décrit à un certain niveau d’abstraction.

Pour conclure cette section, on peut dire qu’on observe une certaine convergence

chez plusieurs philosophes qui ont réfléchi à la nature des théories et des modèles en biologie

vers la conclusion suivante : mis à part quelques exceptions (l’exemple le plus évident étant

certainement le principe de sélection naturelle), les modèles en biologie sont voués à un degré

de généralité moyen. Cette vision est certainement partagée par beaucoup de biologistes

(surtout chez les biologistes moléculaires), qui s’attachent avant tout à étudier des

mécanismes particuliers, dans des organismes particuliers, et qui ne se soucient que dans un

second temps de la possibilité de pouvoir généraliser leurs modèles. Il est clair que cette

attitude contraste fortement avec celle des théoriciens. Il nous semble que cette différence

fondamentale de points de vue peut contribuer à expliquer la difficulté des théoriciens à faire

admettre la légitimité de leur entreprise par la communauté des biologistes.

La question de la contingence du vivant sera discutée plus en profondeur dans le

dernier chapitre de ce travail.

Conclusion La biologie théorique a donc une longue et riche histoire et a connu certains

développements remarquables. Nous avons montré que l’idéal qui a toujours sous-tendu ces

efforts est la recherche de généralité. Cela n’a, bien entendu, rien de très surprenant, puisque

c’est ce qui fait depuis longtemps la force de la physique théorique. Il faut à cet égard

remarquer que la plupart des chercheurs que nous avons présentés ont ressenti comme un

problème l’immense fossé qui séparait la biologie de la physique en termes d’absence de

principe unificateur et de formalisme général permettant de rendre compte de divers

phénomènes. Il faut toutefois insister sur le fait que le type d’unification recherché n’a jamais

fait l’objet d’un consensus. Nous avons vu que certains travaillaient à formuler des principes

généraux capables d’expliquer l’apparition de structures au cours du développement, tandis

428 C. H. Waddington (Ed.), Towards a theoretical Biology, 2. Sketches, op. cit.

Page 234: Thèse version3.R

234

que d’autres pensaient pouvoir atteindre un degré de généralité qui dépasserait le seul

domaine du vivant. Cette hétérogénéité des points de vue ne doit pas être minimisée (même si

souvent, il n’y a pas d’incompatibilité entre ces approches).

Si tous les scientifiques impliqués dans ce projet étaient conscients de la difficulté

de trouver un formalisme capable de s’appliquer à la complexité et à la singularité des

systèmes biologiques, cette entreprise leur paraissait néanmoins constituer une nécessité

absolue. Il est donc certain que le développement d’une biologie théorique est indissociable

d’une biologie mathématique. Toutefois, il nous a semblé important de souligner que la

première est par nature plus profonde et plus ambitieuse que la seconde. Comme nous le

verrons dans le chapitre suivant, cette distinction est importante à garder à l’esprit lorsqu’on

se penche sur les développements récents en biologie des systèmes. En effet, un grand nombre

de travaux de modélisation mathématique ne poursuivent pas la recherche de principes

généraux, mais veulent avant tout recourir à tous les moyens disponibles pour analyser

certains phénomènes particuliers.

Nous avons rappelé ce que beaucoup de commentateurs ont déjà analysé (et ce que

certains scientifiques ont depuis longtemps déploré), à savoir que la biologie théorique est

toujours restée marginale et suspecte. Nous avons identifié deux raisons qui nous semblent

expliquer en partie cette situation. Premièrement, elle est restée trop coupée des approches

expérimentales (et des résultats que celle-ci produisait). Cette coupure est particulièrement

évidente avec la biologie moléculaire, qui connaissait alors ses plus grands succès et qui

pouvait prétendre à la plus grande scientificité. Si certains théoriciens ont tenté d’établir des

ponts, beaucoup ont malheureusement voulu se démarquer de ces approches considérées

comme dangereusement réductionnistes (cela est particulièrement vrai de Bertalanffy). Il faut

également garder à l’esprit qu’il était sans doute tout simplement trop tôt pour parvenir à des

modèles à la fois généraux et empiriquement fondés. Notre but n’était donc pas de critiquer

ces tentatives, mais de mieux comprendre les défis qu’elles ont rencontrés.

La deuxième raison est plus profonde et tient davantage à une question de

conception philosophique que de méthodologie scientifique. En cherchant à tout prix la

généralité au-delà de la diversité des phénomènes biologiques, la biologie théorique a suscité

la méfiance de tous ceux qui voyaient dans le vivant le règne de la contingence et qui

préféraient s’en tenir à l’étude des systèmes particuliers.

L’idée que nous aimerions développer dans les deux derniers chapitres de ce travail

est la suivante : la biologie contemporaine des systèmes, par l’originalité de sa méthode et

grâce aux progrès technologiques sur lesquels elle s’appuie, pourrait constituer une nouvelle

Page 235: Thèse version3.R

235

voie menant vers une biologie théorique solide et féconde. La perspective qu’elle adopte lui

permettrait d’éviter dans une certaine mesure les difficultés que nous avons évoquées dans ce

chapitre. En revanche, la question de la généralité en biologie et des tensions que cette idée

engendre avec le principe de contingence évolutive reste présente et sera l’objet du dernier

chapitre.

Page 236: Thèse version3.R

236

Chapitre 5

Biologie des systèmes et recherche de principes généraux d’organisation

Nous avons vu dans le chapitre précédent à quel point la recherche de modèles

généraux était une entreprise difficile en biologie. Malgré les obstacles, les efforts dans cette

direction n’ont pourtant jamais cessé, souvent sans que la majorité des biologistes n’en ait

vraiment conscience. Le développement récent de la biologie des systèmes pourrait toutefois

changer cette situation, en sortant ce type de recherche de la marginalité dans laquelle elle

semblait condamnée à rester. D’une part, ces nouvelles approches fournissent aux théoriciens

l’opportunité d’appliquer leurs cadres d’analyse à des cas concrets et, d’autre part, elles

révèlent aux expérimentalistes l’intérêt que peuvent avoir ces cadres pour guider leurs

recherches.

Ce chapitre sera donc consacré à explorer ce rapprochement opéré par la biologie

des systèmes entre biologie théorique et biologie expérimentale. Nous décrirons quelles

formes prend cette recherche et quels genres de principes généraux pourraient être mis au

jour.

Nous commencerons par introduire une distinction souvent faite entre deux types

de recherche en biologie des systèmes : une voie que l’on peut appeler pragmatique et une

voie plus théorique. La voie théorique semble prolonger les tentatives décrites dans le chapitre

précédent. La plupart des commentateurs admettent que, si des principes généraux et

théoriques pourraient être trouvés, ce serait en suivant la voie théorique (aussi appelée top-

down). Nous voulons remettre partiellement en question cette idée et montrer que des

approches considérées comme pragmatiques (ou bottom-up), pourraient mener à de tels

principes.

Page 237: Thèse version3.R

237

Nous commencerons par présenter des approches top-down, qui étudient les

propriétés de la structure globale des réseaux biologiques. Si cette piste semble fascinante,

nous soulignerons certains problèmes que soulèvent ces analyses. Nous verrons que la

biologie des systèmes offre d’autres approches pour mettre au jour des principes généraux,

qui s’inspirent plus des idées des ingénieurs que des physiciens. Ces dernières permettent de

mieux intégrer les modèles bottom-up et sont par conséquent mieux fondées empiriquement.

En outre, l’ingénierie est une discipline qui, contrairement à la physique, a toujours recouru à

un discours fonctionnel.

Nous montrerons donc que la biologie des systèmes offre la possibilité de

développer des modèles à la fois suffisamment généraux et théoriques pour saisir des

propriétés fondamentales des systèmes biologiques et suffisamment proches des données

empiriques pour être réalistes. Ce serait une sorte de voie médiane entre, d’un côté, les

modèles moléculaires particuliers et, de l’autre, des modèles abstraits et souvent très éloignés

du vivant tel qu’il est décrit par les biologistes. C’est par l’exploration des propriétés

structurelles et dynamiques des réseaux, ainsi que des contraintes pesant sur ceux-ci, que l’on

peut découvrir des principes généraux, mais ces principes sont fondés sur l’étude détaillée de

systèmes « réels ».

5.1. Deux formes de biologie des systèmes : théorique et pragmatique Un certain nombre de commentateurs ont proposé de distinguer deux courants de

recherche en biologie des systèmes. Cette distinction a été formulée en différents termes, mais

on peut considérer que toutes ces analyses convergent vers la même idée.429

Selon John Dupré et Maureen O’Malley, il existerait dans la biologie

contemporaine des systèmes une première voie de recherche, qu’ils appellent pragmatique et

une seconde, désignée comme théorique (systems-theoretic).

« Il existe sous la rubrique de biologie des systèmes deux manières différentes

(mais pas mutuellement exclusives) de comprendre le terme « système ». La première

explication est donnée par des scientifiques qui considèrent qu’il est utile pour différentes

raisons (notamment l’accès aux financements) de désigner les phénomènes interconnectés

429 Voici trois références importantes : M. O’Malley and J. Dupré, « Fundamental issues in systems biology », Bioessays, 27 (2005) : 1270-1276 ; S. Huang, « Back to the biology in systems biology : what can we learn from biomolecular networks ? », Briefings in functional genomics and proteomics, 2 (2004) : 279–297 ; H. V. Westerhoff and B. O. Palsson, « The evolution of molecular biology into systems biology », Nature Biotechnology, 22 (2004) : 1249-1252.

Page 238: Thèse version3.R

238

qu’ils étudient comme des « systèmes ». La seconde définition vient de scientifiques qui

insistent sur le fait que des principes systémiques sont nécessaires au développement de la

biologie des systèmes. Nous pourrions appeler le premier groupe « biologistes pragmatiques

des systèmes » et le second « biologistes théoriques des systèmes ». »430

Selon ces auteurs, la majorité des chercheurs en biologie des systèmes doit être

rangée dans la première catégorie. Ce sont avant tout les progrès technologiques de la

génomique fonctionnelle qui a poussé les biologistes à développer d’autres méthodes de

recherche, auxquelles ils donnent le nom de systémique, sans que cela procède d’une

réflexion profonde sur le concept de système. On peut rattacher ces travaux à la biologie

mathématique non théorique. Comme dans l’exemple des équations de Hodgkin et Huxley,

l’enjeu est de rendre compte des données empiriques à l’aide de modèles formels, sans

chercher à formuler des principes généraux. On retrouve ici la distinction proposée dans le

chapitre précédent entre biologie théorique et biologie mathématique. Ajoutons que, comme

le remarquent O’Malley et Dupré et comme nous l’avions relevé dans le premier chapitre, il

est certain qu’il existe depuis quelques années un effet de mode, qui fait que se rattacher au

courant de la biologie des systèmes peut être avantageux en termes de financement.

Les chercheurs qui relèvent du deuxième courant sont plus profondément impliqués

dans une réflexion systémique et se considèrent volontiers comme les héritiers des

scientifiques que nous avons évoqués au chapitre précédent : von Bertalanffy, Wiener, Rosen,

etc.

Pour mieux cerner les caractéristiques de ces deux voies ainsi que ce qui les

distingue, nous reprendrons un tableau comparatif que l’on trouve dans un article de Sui

Huang (cf. figure 5). Ce dernier établit une distinction proche de celle de Dupré et O’Malley,

mais il utilise les termes globaliste et localiste. Cette distinction est également souvent

formulée en termes de top-down et bottom-up, mais il faut noter que ces expressions sont

utilisées dans divers contextes, ce qui peut prêter à confusion.

430 M. O’Malley and J. Dupré, op. cit., p. 1271.

Page 239: Thèse version3.R

239

Les approches localistes

Les approches globalistes

Centrées sur les composants et les mécanismes Centrées sur les réseaux

Les hypothèses portent sur des détails. Ex : le gène A inhibe le gène B

Les hypothèses portent sur les structures des réseaux. Ex : des architectures scale-free favorisent l’ordre et la robustesse

Le but est de décrire l’ensemble des détails des systèmes biologiques.

Le but est de comprendre les propriétés génériques des réseaux entiers. Analyse des propriétés statistiques des réseaux

On représente la dynamique détaillée des circuits

On représente la dynamique globale des systèmes, par exemple les états stables des cellules

Explications idiosyncrasiques Explications universelles

Figure 5 : Tableau comparatif entre approches localistes et globalistes en biologie des systèmes (inspiré par un tableau de S.Huang (Op. cit.)

Commentons rapidement ce tableau. Si ces deux types d’approches se fondent sur

les données issues des techniques de génomique fonctionnelle, elles poursuivent des buts

différents. Les approches globalistes conservent l’intérêt qu’ont depuis un certains temps les

théories de la complexité pour les propriétés des réseaux complexes. Les analyses portent

avant tout sur les propriétés statistiques des réseaux qui révèlent leur structure. La

connectivité, c’est-à-dire le nombre moyen de connexions par noeud, est l’exemple le plus

évident de ce type de propriété. Dans certains cas, l’intérêt des chercheurs peut se limiter aux

structures et aux propriétés générales associées à ces structures, mais d’autres étudient

également leurs propriétés dynamiques. Dans ce cas, le but est de représenter leur dynamique

globale et d’étudier l’apparition d’états stables ou encore des changements de régimes qui

pourraient être fonctionnellement importants. Dans tous les cas, comme nous l’avons souligné

dans le chapitre précédent, il s’agit d’étudier des propriétés génériques de classes de système.

Même lorsque c’est un réseau particulier qui est considéré, le but est toujours de comprendre

ses propriétés les plus globales sans s’intéresser aux détails. Il s’agit de recherches proches de

ce que fait Kauffman depuis longtemps, bien que, comme nous le verrons plus loin, ces

nouveaux modèles représentent les systèmes biologiques de manière plus réaliste.

En contraste avec ce type d’approche, la tendance localiste reste nettement plus

proche des habitudes des biologistes moléculaires. Ce sont toujours des mécanismes

particuliers qui sont étudiés. Si l’on parle également en termes des réseaux, ceux-ci sont d’une

Page 240: Thèse version3.R

240

taille nettement plus réduite. Alors que les approches globalistes étudient des réseaux qui

peuvent inclure des milliers de composants, les approches localistes dépassent pour l’instant

rarement quelques dizaines de composants. Les biologistes veulent comprendre comment un

mécanisme particulier produit un comportement fonctionnel tout aussi particulier. Les

hypothèses portent sur certains aspects de ces mécanismes, par exemple sur l’existence ou la

nature d’une interaction. Lorsqu’un modèle dynamique est construit, le but est de représenter

le plus finement possible le comportement d’un mécanisme ou d’un petit réseau et, dans la

mesure du possible, de manière quantitative.

Le dernier point à souligner est que les approches globalistes rechercheraient des

explications universelles, alors que les approches localistes se limiteraient à des explications

idiosyncrasiques. Cette différence est évidemment de la première importance pour nous et

sera explorée tout au long de ce chapitre et du suivant. Il est ainsi souvent admis que ce sont

les approches théoriques, dans le sens top-down, qui peuvent nous permettre de parvenir à des

principes généraux portant sur les systèmes et les réseaux biologiques. Les approches bottom-

up ne seraient qu’une sorte d’extension des modèles classiques de la biologie moléculaire.

« La division des approches systémiques en deux courants est reflétée par la

stratégie de modélisation. La biologie pragmatique des systèmes est avant tout caractérisée

par une approche bottom-up (parfois middle-out), tandis que la biologie théorique des

systèmes suit une perspective top-down et vise des « principes et des lois fondamentaux ». »431

L’expression top-down renvoie donc au fait que le point de départ est l’étude et la

construction de représentations de réseaux globaux et non pas de composants et de

mécanismes particuliers, comme c’est la cas dans les approches bottom-up.

Cette manière de décrire la recherche contemporaine nous semble toutefois un peu

rapide. Nous essaierons de montrer que des approches localistes ne se limitent pas toujours à

des explications idiosyncrasiques.

Avant de considérer ces questions de plus près, il faut reconnaître que les articles

cités sont importants, car ils ont le mérite de souligner l’existence d’une ambition théorique

dans la biologie contemporaine des systèmes. Si cette ambition n’est certainement pas

partagée par tous (loin s’en faut), il est évident qu’un certain nombre de biologistes des

systèmes revendiquent la recherche de principes généraux. Il faut en outre noter qu’ils

reconnaissent les liens avec les anciennes tentatives ainsi que leur dette à leur égard.

431 M. O’Malley and J. Dupré, op. cit., p. 1273.

Page 241: Thèse version3.R

241

Ainsi, Westerhoff et Palsson écrivent : « La modélisation et la simulation

systémiques en biologie moléculaire étaient autrefois considérées comme purement

théoriques et pas particulièrement pertinentes pour comprendre la « vraie » biologie.

Cependant, maintenant que la biologie moléculaire est devenue un domaine aussi riche en

données, le besoin de théorie, de modélisation et de simulation est apparu. La racine

systémique [de la biologie des systèmes] a toujours eu l’ambition de découvrir des principes

et des lois fondamentaux, tels que ceux de la thermodynamique loin de l’équilibre et le MCA

[l’analyse du contrôle métabolique]. Cette ambition doit maintenant s’étendre à la biologie

des systèmes. »432

Kitano, dont les thèses seront discutées plus bas, est lui aussi très affirmatif sur ce

point : « Le but scientifique de la biologie des systèmes n’est pas simplement de créer des

modèles précis de cellules et d’organes, mais également de découvrir des principes

fondamentaux et structuraux derrière les systèmes biologiques, qui définissent l’espace

possible de design du vivant. »433

Tournons-nous maintenant vers ces approches top-down.

5.2. Les approches top-down Les approches que l’on appelle communément top-down correspondent à l’étude

des propriétés globales et souvent statistiques des réseaux de grandes tailles. Nous avons

souligné dans le premier chapitre que la génomique fonctionnelle avait eu pour conséquence

le développement de représentations de larges réseaux d’interactions entre macromolécules.

Ce mode de représentation a ouvert la voie à l’étude des propriétés générales de ces réseaux et

à leur comparaison avec d’autres types de réseaux.

Il faut ajouter qu’il existe depuis assez longtemps un domaine des mathématiques

qui s’intéresse aux propriétés des réseaux : la théorie des graphes. On peut faire remonter ce

domaine à Euler, mais c’est surtout à partir des années 1930 qu’il s’est développé et a connu

un renouveau dans les années 60. Un graphe est un ensemble de sommets reliés par des arêtes

ou arcs. Dans un graphe orienté, les arêtes ont une origine et une extrémité. Les graphes non

orientés décrivent bien des réseaux d’interaction entre protéines, tandis que des graphes

orientés permettent de rendre compte de la direction des réactions dans un réseau métabolique

(cf. figure 6). 432 H. V. Westerhoff and B. O. Palsson, op. cit., p. 1251. 433 H. Kitano, « Towards an theory of biological robustness », Molecular Systems Biology, 3 (2007), p. 1.

Page 242: Thèse version3.R

242

A.

Figure 6 : A. Graphe non-orienté. B. Graphe orienté

Les recherches récentes se sont beaucoup concentrées sur une propriété que

semblent partager la plupart des réseaux biologiques : la propriété d’invariance d’échelle, dite

scale-free. Pour beaucoup de chercheurs, cette propriété a semblé pouvoir prétendre au statut

de principe universel d’organisation des réseaux complexes. Voyons de quoi il s’agit.

Depuis quelques années, il est devenu apparent que les réseaux biologiques ne sont

pas structurés comme le supposaient les modèles aléatoires de Kauffman (ou ceux sur

lesquels travaillent traditionnellement les mathématiciens). Rappelons que les réseaux étudiés

par Kauffman sont essentiellement définis par deux variables (ainsi que par des types de

fonctions booléennes) : 1) le nombre de noeuds et 2) la connectivité moyenne par noeuds

(plus précisément : le nombre moyen d’inputs pour chaque élément). Par conséquent, ces

réseaux peuvent être considérés comme homogènes du point de vue structural. Il était évident

depuis longtemps que cette hypothèse n’était pas très réaliste, mais les données de la

génomique fonctionnelle ont commencé à nous donner une idée plus précise sur cette

question. Il est apparu que la distribution des liens par noeud ne suivait pas la relation typique

des réseaux construits de manière aléatoire. La particularité de cette distribution a fait que ces

réseaux ont été appelés scale-free.

Un réseau scale-free est caractérisé par le fait qu’il possède certains noeuds

hautement connectés, qui sont appelés hubs, alors que la plupart ne sont que faiblement

connectés. Cette propriété est reflétée par la relation suivante : P(k) =Ak-γ. Cette relation

exprime le fait que la probabilité qu’un noeud soit connecté avec k autres noeuds est

1

2

3

6

4

5

4

3

2

5 6

1

B. A

Page 243: Thèse version3.R

243

proportionnelle à k-γ (le coefficient γ varie suivant les réseaux). Elle est appelée power law

(loi de puissance).

Le scientifique qui a été au centre de ces recherches est Laslo Barabasi. Il a non

seulement beaucoup travaillé sur ces questions, mais aussi largement contribué à populariser

cette approche dans la communauté scientifique.434 Il a fait de la propriété scale-free une

espèce de principe universel capable de fournir la clé de la compréhension de toutes sortes de

réseaux.

Barabasi a soutenu que toutes sortes de réseaux n’avaient pas une distribution

aléatoire de la connectivité, mais suivaient cette loi. Dans le cas des réseaux biologiques, des

études ont défendu cette thèse à propos des réseaux métaboliques435 et d’interactions entre

protéines436. Cette architecture a également été observée dans des réseaux sociaux437,

écologiques438 et internet439.

Cette classe de réseau est supposée être caractérisée par plusieurs propriétés

intéressantes, la plus importante étant sans doute sa grande robustesse. En effet, la plupart des

défaillances dans ce type de réseau n’auront que de faibles conséquences. Imaginons qu’un

noeud soit inactivé de manière aléatoire, il est probable que ce soit un noeud faiblement

connecté, et par conséquent le problème ne se propagera pas dans le réseau. La probabilité

qu’un noeud important soit inactivé est faible. Toutefois, si un ou plusieurs hubs sont touchés,

le réseau risque de perdre sa structure et ses propriétés globales (séparation en plusieurs îlots).

Les hubs seraient donc le talon d’Achille de ces réseaux. En ce sens, les réseaux scale-free

présentent une grande fragilité à des attaques ciblées.440

L’hypothèse habituellement proposée pour expliquer la structure de ces réseaux est

le mécanisme d’attachement préférentiel. L’idée est simple : d’une part, on admet que ces

434 Pour un des premiers articles sur la propriété scale-free : A.-L. Barabási and R. Albert, « Emergence of scaling in random networks », Science, 286 (1999) : 509–512. 435 H. Jeong et al., « The large-scale organization of metabolic networks », Nature, 407 (2000) : 651–654 ; E. Ravasz et al., « Hierarchical organization of modularity in metabolic networks », Science, 297 (2002) : 1551-1555. 436 S. H. Yook et al., « Functional and topological characterization of protein interaction networks », Proteomics, 4 (2004) : 928-942 ; S. Maslov and K. Sneppen, « Specificity and Stability in Topology of Protein Networks », Science, 296 (2002) : 910–913. 437 M. E. J. Newman, « The structure of scientific collaboration networks », Proceedings of the National Academy of Sciences, 98 (2001) : 404–409. 438 R. V. Sole and J. M. Montoya, « Complexity and fragility in ecological networks », Proceedings of the Royal Society London B, 268 (2001) : 2039–2045. 439 R. Albert, H. Jeong, and A. L. Barabasi, « Diameter of the World Wide Web », Nature, 401 (1999) : 130-131. 440 Pour une bonne introduction aux propriétés topologiques des réseaux biologiques, voir A. L. Barabási and Z. N. Oltvai, « Network biology: understanding the cell's functional organization », Nature Reviews Genetics, 5 (2004) : 101-113.

Page 244: Thèse version3.R

244

réseaux croissent par intégration de nouveaux composants et, d’autre part, on suppose qu’un

nouveau composant se lie à un noeud avec une probabilité proportionnelle au nombre de

connexions qu’a déjà établies ce noeud. Ce principe est appelé croissance et attachement

préférentiel (growth and preferential attachment).

Les approches top-down se sont intéressées à d’autres aspects de l’organisation

globale des réseaux. Il s’agit essentiellement de la structure modulaire, dont nous avons déjà

parlé dans le troisième chapitre. A priori, une structure modulaire peut paraître incompatible

avec la propriété scale-free, mais cette tension disparaît si l’on admet une structure

hiérarchique (voir la figure 7).

Figure 7 : Comparaison de trois modèles de réseaux. A : un réseau aléatoire. B : un réseau scale-free. C : un réseau hiérarchique. Les graphiques de la deuxième ligne (Ab, Bb,Cb) représentent la distribution de liens par noeud. Les réseaux aléatoires suivent une distribution de Poisson (Ab). En revanche, les deux autres types de réseaux suivent une loi de puissance. Le réseau modulaire est donc également un réseau scale-free. Les graphiques de la troisième ligne (Ac, Bc, Cc) représentent la relation entre le coefficient de clustering et le nombre de liens par noeud. Dans les deux premiers types de réseaux, ce coefficient est indépendant de k, ce qui dénote une structure non modulaire. En revanche, dans le cas Cc, on constate que le coefficient est fonction de k-

1, ce qui est le signe d’une structure modulaire. (Tiré de A. L. Barabási and Z. N. Oltvai, « Network biology: understanding the cell's functional organization », Nature Reviews Genetics, 5 (2004) : 101-113).

Page 245: Thèse version3.R

245

5.3. Limites des approches top-down Ces approches ont fait beaucoup parler d’elles et ont suscité un enthousiasme

remarquable. Si nombre de biologistes restent sceptiques, ces idées se sont néanmoins

nettement mieux diffusées dans la communauté des biologistes moléculaires que les

anciennes théories systémiques. Il faut noter que des revues scientifiques majeures et lues par

tous les biologistes, comme Science, Nature, ou encore PNAS, ont largement ouvert leurs

colonnes à ce type de travaux.

Sans vouloir nier l’intérêt, ni la légitimité de ces études, nous voudrions attirer

l’attention sur certaines de leurs limites. L’idée générale que nous voulons développer est que

ces approches, en restant essentiellement au niveau statistique et global, ne peuvent aborder

l’étude des contraintes fonctionnelles qui pèsent sur ces réseaux que de manière relativement

grossière. D’autre part, ces principes sont encore trop abstraits et vagues pour que les

expérimentalistes puissent en tirer un véritable profit. Ainsi, si ce cadre est important, il ne

constitue qu’un premier pas.

La première chose à remarquer à propos des travaux qui portent sur les réseaux

scale-free, c’est qu’à l’instar des anciennes théories systémiques, ils s’intéressent à des

propriétés partagées par une classe de réseaux extrêmement large et hétérogène. Comme nous

venons de le dire, Barabasi s’est d’abord intéressé au réseau internet, avant de se tourner vers

les réseaux biologiques et sociaux. La question qui se pose inévitablement dans ce cas est la

suivante : dans quelle mesure un réseau biologique peut-il être comparé à internet ou à un

réseau social ?

Nous ne voudrions certes pas suggérer que ces divers réseaux n’auraient aucune

propriété intéressante en commun, mais le risque est de perdre en pertinence ce qu’on gagne

en généralité. Le danger que courent ces modèles est de perdre de vue ce qui fait la

particularité des systèmes biologiques. Il est raisonnable de penser que ceux-ci ont évolué

sous la pression de contraintes très spécifiques, qui sont de natures fort différentes de celles

qui ont modelé internet.

Au-delà du problème de la possibilité d’une science générale des réseaux

complexes, une autre question se pose. En effet, même en restreignant la classe des réseaux

considérés au domaine biologique, on peut penser que cette grille de lecture est encore trop

grossière. Certains scientifiques semblent parfois minimiser les différences entre les divers

réseaux qu’on peut identifier dans une cellule : réseaux de régulation génétique, réseaux

métaboliques, réseaux de signalisation. Chacun de ces réseaux implique des fonctions et des

Page 246: Thèse version3.R

246

contraintes distinctes. En outre, il faut être conscient que, si ces réseaux sont construits sur la

base des données empiriques issues des approches de génomique fonctionnelle, celles-ci ne

donnent qu’une image grossière de la structure de ces réseaux. Les modèles scale-free sont

certainement plus réalistes et plus fins que les réseaux de Kauffman, mais, ici aussi, la

prudence doit être de mise. Plusieurs éléments peuvent nous conduire à penser que ces

hypothèses sont trop générales.

On peut prendre l’exemple de Palsson qui distingue deux classes de réseaux : d’une

part, ce qu’il appelle les réseaux d’influence (influence networks) et, de l’autre, les réseaux de

flux (flow networks). Il souligne que chaque classe a des propriétés uniques. Les premiers

correspondent par exemple aux réseaux de signalisation. Chaque lien désigne la présence

d’une interaction entre composants. Les seconds correspondent essentiellement aux réseaux

métaboliques. Contrairement aux premiers, il existe dans ceux-ci un principe de conservation

de certaines variables à chaque noeud, par exemple la masse ou le flux d’énergie.

De ce point de vue, les réseaux métaboliques ne peuvent être considérés de la

même manière que d’autres réseaux. Premièrement, l’existence de ces variables conservées

constitue une particularité importante. Deuxièmement, ces réseaux représentent les systèmes

différemment. Dans les réseaux de protéines, les noeuds correspondent à des protéines et les

liens à des interactions entre ces protéines. En revanche, dans les réseaux métaboliques, les

noeuds sont des métabolites et les liens sont des réactions catalysées par des protéines

spécifiques.

Dans le cas des seconds, il faut considérer non seulement leur structure, mais

également leurs états fonctionnels. En se fondant sur des modèles développés pour représenter

ces états fonctionnels (chez E.coli et S.cerevisiae), le groupe de Palsson a examiné le principe

de tolérance aux erreurs et aux attaques.441 Si l’on en croit ce qu’affirment les études sur les

réseaux scale-free, ces réseaux devraient être résistants aux erreurs aléatoires, mais très

fragiles aux « attaques » contre les noeuds hautement connectés. Les auteurs ont examiné la

relation entre la connectivité d’un noeud (d’un métabolite) et la létalité de ses liens

(réactions). Ils ont ainsi pu mesurer le rapport entre la fraction de réactions létales et la

connectivité des noeuds.

Leurs résultats montrent que la situation est bien plus complexe que ne le suggèrent

les hypothèses théoriques. Certains des noeuds les moins connectés sont les plus importants

441 R. Mahadevan and B. O. Palsson, « Properties of metabolic networks : structure versus function », Biophysical Journal : Biophysical Letters, L07-L09 (2005).

Page 247: Thèse version3.R

247

pour assurer la fonction du réseau, de telle sorte que leur inactivation peut mener à la faillite

de l’ensemble du réseau.

« Ces résultats indiquent qu’en plus de la structure du réseau, les états fonctionnels

des voies métaboliques doivent être considérées dans l’étude des propriétés des réseaux et de

leurs relations aux fonctions biologiques observables. De manière intéressante, les études des

réseaux de régulation transcriptionnelle ont révélé des propriétés similaires, où les noeuds

hautement connectés ne sont pas corrélés avec l’ « indispensabilité » [indispensability]. Pris

ensemble, ces études semblent suggérer que, bien que les réseaux d’entités biologiques

pourraient avoir des propriétés similaires, il paraît y avoir des différences fondamentales dans

la nature de ces réseaux, dont l’investigation peut mener à des connaissances importantes

concernant leurs fonctions. »442

Il semble donc que cela dépend du type de fonction dans laquelle est impliqué un

noeud. Par exemple, on observe ce type de corrélation dans le réseau impliqué dans le cycle

cellulaire, mais pas dans d’autres cas. Il ressort de ces études que les lois de puissance ne

reflètent pas bien les contraintes qui pèsent sur les systèmes biologiques ni leurs principes de

robustesse.443

Evelyn Fox Keller a exprimé des doutes assez sérieux sur l’importance de ces

supposées lois universelles des réseaux complexes.444 Elle montre que la propriété scale-free

se rencontre relativement facilement dans la nature et ne devrait peut-être pas être source d’un

tel étonnement. Mais surtout, elle souligne que des architectures complètement différentes

partagent cette propriété statistique. De plus, en ce qui concerne l’origine de ces réseaux,

beaucoup de processus peuvent mener à une même architecture.

L’excitation autour des recherches sur les réseaux scale-free semble donc un peu

exagérée et injustifiée aux yeux de Fox Keller. Elle l’explique par la situation particulière

dans laquelle se trouve depuis quelques années la biologie. D’une part, les biologistes sentent

qu’il est devenu nécessaire de recourir aux outils et aux modèles que les physiciens utilisent

depuis longtemps et, d’autre part, ces derniers sont de plus en plus intéressés par l’exploration

442 R. Mahadevan and B. O. Palsson, « Properties of metabolic networks : structure versus function », op. cit. 443 Nous ne discuterons pas cette question plus avant, mais il faut noter que d’autres études récentes mettent en doute ces hypothèses. Voir : I. K. Jordan, Y. I. Wolf, E. V. Koonin, « No simple dependence between protein evolution rate and the number of protein-protein interactions: Only the most prolific interactors tend to evolve slowly », BMC Evolutionary Biology, 3 (2003) : 1 ; H. B. Fraser, D. P. Wall, A. E. Hirsh, « A simple dependence between protein evolution rate and the number of protein-protein interactions », BMC Evolutionary Biology, 3 (2003) : 11 ; H. Yu, D. Greenbaum, L. H. Xin, X. Zhu, and M. Gerstein., « Genomic analysis of essentiality within protein networks », Trends in Genetics, 20 (2004) : 227-231. 444 E. Fox Keller, « Revisiting « scale-free » networks », BioEssays, 27 (2005) : 1060-1068.

Page 248: Thèse version3.R

248

des phénomènes biologiques, mais cette rencontre ne va pas sans une certaine naïveté et sans

quelques maladresses. Les modèles venant de la physique statistique, qui sont à l’origine de

ces études, ont semblé convaincants aux biologistes pour faire progresser leur compréhension

des réseaux biologiques. Fox Keller remarque à juste titre, qu’un tel intérêt de la part des

biologistes aurait probablement été impossible, il y a encore quelques années.

Si nous partageons en partie son scepticisme, la conclusion de cette section n’est

toutefois pas que les principes généraux recherchés au niveau de propriétés topologiques

globales des réseaux ne seraient pas valables ou intéressants. Nous pensons au contraire qu’il

s’agit là d’observations importantes, qui ont ouvert une voie de recherche potentiellement très

féconde. Il nous a toutefois semblé nécessaire de souligner qu’en restant à ce niveau de

« résolution », ces modèles souffrent encore de certaines faiblesses qui ont été discutées dans

le chapitre précédent. Il convient donc de les considérer avec prudence, en attendant de voir à

quels développements ils vont mener.

Si nous avons insisté sur leur caractère « grossier » (au sens de pas détaillé), c’est

également pour les distinguer des principes généraux que nous allons aborder dans la suite de

ce chapitre. Ceux-ci portent non pas sur des propriétés de réseaux très larges, mais sur des

structures plus petites et intègrent naturellement des descriptions plus fines et détaillées des

mécanismes moléculaires, ce qui leur permet une meilleure analyse fonctionnelle.

Avant de nous pencher sur ces approches plus détaillées, disons déjà que ces deux

types d’approches ont clairement vocation à se rencontrer et à être articulées autant que

possible. D’ailleurs, Barabasi reconnaît volontiers qu’il est nécessaire de mener les analyses à

plusieurs niveaux. Dans un des articles cités, il fait référence aux études qui s’intéressent aux

sous-structures des réseaux. Il y aborde l’existence de structures plus fines et leurs propriétés

fonctionnelles et admet que les divers réseaux doivent être distingués. Nous verrons plus loin

que le thème de la robustesse constitue un lieu naturel d’intégration entre ces différents

cadres.

5.4. Les approches bottom-up : l’étude des circuits biologiques et de leur design445

Nous aimerions maintenant considérer en détail quelques exemples d’approches

bottom-up qui nous paraissent incarner particulièrement bien la possibilité de rechercher des 445 L’utilisation du terme design n’a évidemment ici rien à voir avec des thèses comme l’Intelligent Design. La question du statut de ces principes et notamment de leur rapport avec la sélection naturelle sera traitée dans le prochain chapitre. Il est difficile de traduire ce terme en français, c’est pourquoi nous avons décidé de laisser en anglais. Nous verrons qu’il renvoie ici à l’idée de conception, au sens des ingénieurs.

Page 249: Thèse version3.R

249

principes généraux, non pas à partir des propriétés globales de larges réseaux, mais de l’étude

minutieuse de petits sous-réseaux (ou circuits).

Au cours des dernières années, de plus en plus d’études se sont penchées sur les

principes généraux qui sous-tendraient l’organisation de mécanismes particuliers. Ces études

ne suivent toutefois pas toujours le même schéma explicatif. Il faut à notre avis distinguer

deux types d’approches. Le premier porte sur la caractérisation des propriétés fonctionnelles

de classes de petits circuits ainsi que sur la fréquence à laquelle on les rencontre dans les

réseaux globaux, tandis que le second concerne la détermination de contraintes fonctionnelles

fortes qui rendraient la présence d’une certaine structure nécessaire. Examinons-les à tour de

rôle.

5.4.1. Vers une science des circuits biologiques

L’étude de la structure des réseaux biologiques n’a pas seulement ouvert la voie à

l’étude de leurs propriétés statistiques globales, elle a également attiré l’attention de certains

chercheurs sur l’existence de sous-structures dans ces réseaux, qui seraient présentes avec une

fréquence beaucoup plus grande que s’il s’agissait de réseaux aléatoires. Cette observation a

mené à l’idée que les réseaux complexes étaient constitués de « briques » ou de constituants

élémentaires. Ces briques sont des sous-réseaux constitués de quelques éléments – le plus

souvent leur nombre est de 3, 4, ou 5 – liés de manière bien particulière, et caractérisés par

des propriétés fonctionnelles remarquables.

Si ces analyses se distinguent de celles que nous avons vues dans la section

précédente, il faut néanmoins noter que l’existence de ces structures a été postulée à partir

d’une approche top-down. Le principe est simple et se fonde sur une comparaison entre un

réseau inféré à partir des données de génomique fonctionnelle et un ensemble de réseaux

aléatoires. Le but est de détecter des motifs (c’est-à-dire des patterns de connexions) qui

apparaissent plus souvent dans le réseau étudié que dans les réseaux aléatoires. Par définition,

ces patterns sont appelés network motifs. Les réseaux qui servent de classe de référence ont

les mêmes propriétés que les réseaux biologiques étudiés, par exemple le nombre de noeuds et

de liens, sauf que les liens sont construits de manière aléatoire.446

446 Remarque : ces réseaux aléatoires sont définis statistiquement et partagent beaucoup de propriétés avec les vrais réseaux (par exemple la connectivité moyenne), comme dans les modèles de Barabasi ou Kauffman ; le fait qu’ils forment l’hypothèse nulle contre laquelle sont testés les vrais réseaux montre bien que les approches à la Alon visent un grain beaucoup plus fin.

Page 250: Thèse version3.R

250

Ces comparaisons, d’abord faites chez la bactérie E.coli447, puis chez d’autres

organismes comme la levure448 ou l’homme449, ont montré que quelques motifs revenaient

sans cesse dans les réseaux biologiques. Alon souligne que « parmi les nombreux patterns

possibles qui pourraient apparaître dans le réseau, seuls quelques-uns se rencontrent de

manière significative et sont des motifs de réseau. »450 Ces motifs ont chacun des propriétés

dynamiques et fonctionnelles particulières qui peuvent expliquer la fréquence avec laquelle ils

apparaissent. Le but est de mieux comprendre la dynamique du réseau entier à partir de la

dynamique de ces motifs.

Les travaux d’Uri Alon représentent un bon exemple d’étude rigoureuse, précise et

très complète des propriétés des circuits qui forment les éléments de base des réseaux

biologiques. Ils joignent l’analyse formelle et abstraite à l’étude aussi bien théorique

qu’expérimentale de cas particuliers, sans négliger les données top-down.

Nous avons décrit dans le deuxième chapitre comment certaines structures

(modules) pouvaient engendrer des comportements fonctionnellement importants. Les

approches dont il est ici question cherchent à étendre ces analyses et surtout à les mener de

manière systématique et générale.

Pour nous faire une idée plus précise de ce type de travaux, considérons les patterns

formés de 3 noeuds. Il existe 13 combinaisons possibles, mais une seule peut être considérée

comme un motif. Il s’agit de la feed-forward loop (FFL). Cette structure est représentée dans

la figure 8. Alon décrit et analyse en détail ce motif dans le quatrième chapitre de son livre.

Lorsque l’on compare le réseau transcriptionnel de la bactérie E.coli451 avec un réseau

aléatoire, le résultat semble clair : dans le premier on trouve 42 FFL, alors que, dans le

second, on en rencontre un peu moins de 2 (c’est une moyenne).

447 S. S. Shen-Orr, et al., « Network motifs in the transcriptional regulation network of Escherichia coli », Nature Genetics, 31 (2002) : 64-68 ; R. Milo et al., « Network motifs : simple building blocks of complex networks », Science, 298 (2002) : 824-827. 448 T. I. Lee et al., « Transcriptional Regulatory Networks in Saccharomyces cerevisiae », Science, 298 (2002) : 799-804. 449 G. Swiers et al., « Genetic regulatory networks programming hematopoietic stem cells and erythroid lineage specification », Developmental Biology, 294 (2006) : 525-540. 450 U. Alon, An Introduction to Systems Biology, op. cit., p. 41. 451 Il faut noter que ce modèle est incomplet.

Page 251: Thèse version3.R

251

Figure 8 : Schéma de la boucle feed forward : Le gène X induit l’activation des gènes Y et Z. Le gène Y induit l’activation du gène Z.

Si l’on considère le signe des interactions (négatif ou positif), on peut distinguer

huit types de FFL. Parmi ceux-ci, seuls deux se rencontrent souvent dans les réseaux de

transcription. Le premier est une boucle cohérente, ce qui signifie que le signe de l’influence

causale est le même selon les deux voies (c’est-à-dire de X directement vers Z ou de X vers Z

en passant par Y). Il est appelé C1-FFL. Le second est une boucle incohérente (le signe n’est

pas le même pour les deux voies), et il est appelé I1-FFL. Il faut ajouter que, pour chacun, il

existe encore deux possibilités : l’intégration des régulateurs X et Y peuvent suivre une

logique ET (X et Y doivent avoir une forte activité pour activer l’expression de Z), ou une

logique OU (un seul des deux est suffisant pour activer Z).

Cette observation soulève la question suivante : quelle fonction ce motif réalise-il,

qui pourrait expliquer la fréquence à laquelle il est présent dans les réseaux transcriptionnels ?

Il est intéressant de suivre ici l’analyse à laquelle procède Alon. Nous n’exposerons

que le cas C1-FFL avec une intégration de type ET. Commençons par préciser que ce circuit

reçoit des inputs, SX et SY. Ces signaux activent les facteurs de transcription X et Y de

manière très rapide. Lorsque SX apparaît, X devient actif et se lie au promoteur des gènes Y et

Z. Maintenant, imaginons que le signal SX apparaisse brusquement à un taux très élevé. Dans

ce scénario, SY est toujours présent. Rapidement, la concentration de Y augmente et converge

vers son état d’équilibre. Pour que Z puisse être synthétisé, il faut également que Y atteigne

un seuil d’activation, ce qui nécessite un certain temps d’accumulation. Ainsi, Z ne

commence à être exprimé qu’après un certain délai. La durée de ce délai dépend des

paramètres biochimiques de Y, notamment sa durée de vie et son seuil d’activation.

En revanche, lorsque le changement d’état est inversé, c’est-à-dire lorsqu’on passe

d’un état actif à un état inactif de SX, la situation est différente. Aussitôt que l’un des

activateurs disparaît, l’expression de Z s’arrête. Il n’y a donc pas de délai dans ce cas de

figure.

X

Z

Y

Page 252: Thèse version3.R

252

Un circuit de ce type peut être considéré comme un filtre asymétrique, capable de

discriminer les impulsions (pulse) activatrices selon leur durée : une impulsion plus courte

que le délai ne va pas activer l’expression de Z. Il ne va donc « laisser passer » que les

impulsions longues. En revanche, il répond immédiatement à un arrêt du stimulus.

Quel est donc l’intérêt de cette propriété ? Pour répondre à cette question, Alon

établit une comparaison avec l’ingénierie, où l’on rencontre souvent des situations dans

lesquelles il existe un coût d’erreur asymétrique. Il prend l’exemple des rayons lumineux qui

servent à détecter la présence d’objets dans les portes d’ascenseurs. Pour des raisons

évidentes, il est important qu’une brève coupure du signal déclenche immédiatement

l’ouverture de la porte. Mais lorsqu’on retire l’obstacle, il faut attendre un moment avant que

la porte ne se referme. Ce système est conçu pour ne pas risquer de se refermer au mauvais

moment et le délai asymétrique, qui dépend du sens du changement (sign-sensitive), remplit

bien cette fonction.

« Dans les réseaux transcriptionnels, la sélection évolutive pourrait avoir placé le

C1-FFL dans divers systèmes dans la cellule qui a besoin d’une telle fonction de protection.

En effet, l’environnement des cellules fluctue souvent de manière forte et des stimuli peuvent

parfois être présents sous forme de brèves impulsions, qui ne doivent pas entraîner une

réponse. Le C1-FFL peut offrir une fonction de filtration qui est avantageuse dans ces types

d’environnements fluctuants. »452

Ce type d’analyse semble être pertinent pour comprendre des circuits réels. Alon

cite le cas du système arabinose chez E.coli. C’est un système similaire à l’opéron lactose ; il

permet à la cellule de faire entrer ce sucre et de le décomposer. Étant donné que le glucose est

une meilleure source d’énergie, la cellule n’active ce système que lorsque l’arabinose est

présent et que le glucose est absent. C’est donc un système à la logique ET. Les inputs dans ce

système sont l’AMPc (SX), qui est produit en absence de glucose, et l’arabinose (SY).

L’activateur qui est sensible à l’AMPc est appelé CRP (il correspond à X) et celui qui est

sensible à l’arabinose est AraC (Y). Les gènes de dégradation de l’arabinose correspondent à

Z. Ces régulateurs forment une C1-FFL avec une intégration de type ET.

Des expériences ont été menées sur ce système et ont clairement montré la présence

d’un délai après l’activation de SX, mais pas après sa désactivation.453 La durée de ce délai

était d’environ 20 minutes. Or, il semble que, dans l’environnement naturel de cette bactérie,

452 U. Alon, An introduction to Systems Biology, op. cit., p. 54. 453 S. Mangan et al., « The coherent feed-forward loop serves as a sign-sensitive delay element in transcription networks », Journal of Molecular Biology, 334 (2003) : 197-204.

Page 253: Thèse version3.R

253

lors de changements de conditions, des courts pulses d’input au niveau de SX se produisent.

Ce système permettrait ainsi de ne pas répondre à ces « faux » signaux et à ne s’activer que

lors de périodes prolongées de manque de glucose (cf. figure 9).

Figure 9 : Structure et dynamique du motif C1-FFL. a) Le graphique montre l’existence d’un délai après l’apparition du stimulus Sx, mais pas après sa disparition. On constate également qu’un stimulus trop bref ne déclenche pas de réponse. b) Des mesures expérimentales faites sur le système arabinose de la bactérie E.coli montrent un comportement conforme au modèle. On constate (voir les cercles rouges) un délai après l’addition d’AMPc, mais pas après que le signal a cessé. La comparaison est faite avec le système lac (cercles bleus) qui répond au même signal, mais selon un mécanisme plus simple. (Tiré de l’article suivant : U. Alon, « Network motifs : theory and experimental approaches », Nature Review Genetics, 8 (2007) : 450-461)

Le fait que ce comportement soit observé dans un système naturel et pas

uniquement en théorie est important pour Alon, car il prouve la validité de ce principe même

dans des systèmes complexes :

« Il faut noter que le circuit FFL dans le système arabinose révèle un délai sensible

au signe, malgré le fait qu’il est enchâssé dans des interactions supplémentaires, comme des

boucles de rétroaction au niveau des protéines. Ainsi, bien que la théorie que nous avons

Page 254: Thèse version3.R

254

discutée concerne un circuit FFL de trois gènes pris isolément, le FFL de l’arabinose révèle

également la dynamique escomptée, lorsqu’il est dans le réseau d’interaction de la cellule. »454

Ce qu’il faut avant tout retenir, c’est que les analyses menées par Alon prennent

toujours en compte le contexte fonctionnel dans lequel opère un réseau. Il ne s’agit pas

seulement de dire que telle structure a des bonnes propriétés et doit être présente, mais de

déterminer l’avantage qu’elle peut avoir dans un certain contexte ainsi que ses désavantages

dans un autre. On retrouve ici la voie ouverte par Savageau, évoquée au chapitre précédent.

Peut-on toutefois considérer qu’il s’agit de principes généraux ? La réponse nous

paraît clairement positive. En tout cas, l’intérêt pour la généralité est beaucoup plus marqué

que dans les analyses habituelles en biologie moléculaire. Les contextes fonctionnels qui sont

distingués sont formulés sous une forme très générale, par exemple en termes de rapidité de

réponse. La prise en compte du contexte fonctionnel ne remet donc pas en question la

généralité de ces principes, dans la mesure où il est formulé en des termes très généraux.

Ces études en sont encore à un stade précoce et exploratoire, mais les résultats sont

encourageants et laissent penser que cette voie de recherche est féconde. On peut imaginer

qu’à terme, il serait possible de disposer d’un ensemble relativement limité de structures bien

caractérisées fonctionnellement et que l’on retrouverait dans tous les réseaux biologiques.

Nous n’avons pas jugé qu’il était nécessaire de multiplier les exemples, mais il suffit d’ouvrir

le livre d’Alon pour comprendre que ces approches sont en train d’être étendues à d’autres

structures et modes d’organisation.

Kitano semble défendre cette idée, puisqu’il espère trouver une sorte de table

périodique des réseaux biologiques. « Bien qu’il existe un très grand nombre de topologies de

réseaux de gènes et de paramètres associés, ce n’est certainement pas infini et le nombre de

patterns utiles devrait être dénombrable. Par une analyse et une catégorisation soigneuses,

l’auteur [Kitano] s’attend à ce que quelque chose de l’ordre d’une table périodique des

réseaux biologiques puisse être créé. »455

454 U. Alon, op. cit., p. 56. 455 H. Kitano, « Looking beyond the details : a rise in system-oriented approaches in genetics and molecular biology », Current Genetics, 41 (2002) : 1-10. Sur cette idée, voir aussi Ma et al., “Robustness and modular design of the Drosophila segment polarity network” Molecular Systems Biology, 2 (2006) : 70.

Page 255: Thèse version3.R

255

5.4.2. Contraintes fonctionnelles fortes : explications en termes de design Nous allons maintenant considérer un cas d’étude de design de circuit d’un type

assez différent. Par beaucoup de côtés, il paraît nettement plus ambitieux, mais également

plus difficile à atteindre. Dans l’exemple que nous allons présenter, il s’agit non seulement de

mener une analyse rigoureuse des rapports entre structure et fonction dans des circuits (ou des

petits réseaux), mais en outre de montrer que, dans certains cas, étant donnée une fonction, il

n’existe qu’un seul type de structure capable d’assurer cette fonction. Il faut également noter

que l’approche que nous allons présenter est encore plus fondamentalement bottom-up et

s’appuie moins sur les données globales de la génomique fonctionnelle.

Cet exemple concerne le mécanisme impliqué dans la chémotaxie chez la bactérie.

La chémotaxie est la capacité qu’ont les bactéries à « sentir » des gradients de ligands, c’est-à-

dire des molécules présentes dans leur environnement et pouvant se lier à des protéines de la

membrane cellulaire. Les bactéries sont capables de se diriger vers les molécules attractives et

de s’éloigner des molécules répulsives. Le mécanisme responsable de ce comportement a été

extrêmement bien étudié au niveau moléculaire.

Les bactéries peuvent se déplacer grâce à la rotation de plusieurs flagelles. Lorsque

cette rotation est dans le sens contraire des aiguilles d’une montre, la bactérie se déplace de

manière continue et directionnelle, c’est-à-dire en suivant une direction précise. Mais lorsque

la rotation est dans le sens des aiguilles d’une montre, la bactérie change de direction. Le

mouvement d’une bactérie se fait donc selon un processus aléatoire, avec une alternance de

trajets directionnels et de réorientations. Ce processus aléatoire est toutefois biaisé, puisque la

fréquence des événements de réorientation (et donc de la durée de ces phases de mouvement)

peut être modulée par une voie de signalisation. Lorsque la concentration de molécules

attractives augmente, la fréquence de réorientation diminue et la bactérie garde le même cap,

ce qui lui permet de remonter le gradient. Il faut noter que ce système de détection est de

nature temporelle, seul capable de permettre à une bactérie de sentir un gradient. En effet, une

bactérie est trop petite pour sentir une différence spatiale.

Un des aspects les plus intéressants de la chémotaxie est sa propriété d’adaptation.

L’état d’équilibre de la fréquence de réorientation dans un environnement homogène est

indépendant de la valeur de la concentration de ligand. C’est-à-dire que, lorsque la

concentration de molécules attirantes augmente, cette fréquence va diminuer, puis va revenir à

son état d’équilibre. Cela permet à la bactérie de maintenir sa sensibilité sur un large spectre

Page 256: Thèse version3.R

256

de concentrations de ligand. C’est le même genre de phénomène que lorsque nos yeux

s’adaptent à un changement de luminosité.

Depuis assez longtemps, les biologistes moléculaires ont étudié en détail ce

mécanisme et sont parvenus à une connaissance relativement précise de la manière dont il

opère.456

La figure 10 représente un schéma très simplifié de ce mécanisme. On voit qu’un

récepteur membranaire et six protéines sont impliqués dans cette voie de signalisation. Le

récepteur forme un complexe avec l’histidine kinase CheA par le biais de la protéine

adaptatrice CheW. L’état du récepteur (c’est-à-dire lié par un ligand ou non) modifie l’activité

de CheA. CheA peut se phosphoryler elle-même et transférer un groupe phosphate à CheY,

qui est une protéine diffusible. La forme phosphorylée de CheY interagit avec le moteur des

flagelles et augmente la fréquence de réorientation. D’autre part, CheZ favorise la

déphosphorylation de CheY. Lorsqu’un ligand se lie au récepteur, l’activité de CheA diminue,

ce qui cause une diminution de la fréquence de réorientation et donc favorise le maintien du

cap.

L’adaptation est réalisée par la méthylation et la déméthylation du récepteur.

Lorsque le récepteur est méthylé, le taux de phosphorylation de CheY augmente. Les

processus de méthylation et de déméthylation sont catalysés par CheR et CheB-P

respectivement. CheA peut phosphoryler CheB et augmenter son activité de déméthylation.

Ainsi, lorsqu’un ligand est attaché, l’activité de CheA diminue, mais elle peut être compensée

par une augmentation dans la méthylation du récepteur, ce qui augmente son activité. Cette

dernière partie du mécanisme correspond à une boucle de rétroaction négative.

456 M.Eisenbach, Chemotaxis, Imperial College Press, 2004

Page 257: Thèse version3.R

257

Figure 10 : Chemotaxis machinery (from H.C.Berg, Motile Behavior of Bacteria, Physics today on the web, http://www.aip.org/pt/jan00/berg.htm)

Il est clair que cet exemple est un cas typique d’explication mécaniste. Ce schéma

est bien sûr incomplet et d’autres études vont mettre au jour de nouveaux détails et

éventuellement intégrer d’autres composants. Mais un tel modèle constitue déjà une

explication satisfaisante du phénomène considéré : il explique comment la bactérie est

capable de sentir le gradient (de manière temporelle), comment elle convertit une différence

de concentration de ligand en un changement de mouvement flagellaire et en outre comment

ce mécanisme peut s’adapter à de grandes différences de concentration.

Toutefois, la robustesse de ce mécanisme restait difficile à analyser et à expliquer.

Un modèle mathématique fut développé par Barkai et Leibler. Ce modèle n’était certes pas

très complexe, puisque le complexe formé par le récepteur et CheA et CheW est caractérisé

par deux états fonctionnels : actif ou inactif. L’état dépend de son niveau de méthylation et de

liaison avec le ligand (de manière probabiliste). Le modèle est un système d’équations

différentielles couplées qui rendent compte des liens entre l’input, qui est la concentration du

ligand et l’output, qui est l’activité du complexe. Ces équations décrivent les interactions

entre le complexe et les protéines CheR et CheB.

Le grand intérêt de ce modèle est d’avoir pu montrer que ce système était robuste à

des changements de valeurs de paramètres. C’est-à-dire qu’il fonctionne normalement même

si des constantes de réactions sont modifiées. Ainsi, ce modèle a montré que l’adaptation n’est

pas le résultat d’un réglage fin des paramètres, comme certains en avaient fait l’hypothèse,

mais plutôt de la connectivité du réseau. Il faut toutefois remarquer que certaines propriétés,

comme le temps d’adaptation, ne sont pas robustes et peuvent varier avec la concentration des

Page 258: Thèse version3.R

258

protéines.

Pour avoir un comportement adaptatif, il faut que l’activité du système soit

indépendante du niveau de l’input. Une manière robuste de satisfaire cette demande est de

disposer d’un taux de modification de la méthylation du récepteur qui dépend de l’activité du

système (et non par exemple de la concentration de l’enzyme méthylé). Pour satisfaire cette

condition, il suffit d’admettre que CheB ne déméthyle que les récepteurs actifs. Dans ce cas,

la propriété d’adaptation ne dépend pas des valeurs de paramètres. Ce modèle a donc montré

que l’adaptation robuste était due à la structure de ce mécanisme, et en particulier à la boucle

de rétroaction réalisée par CheB.

Ce résultat a d’ailleurs été confirmé expérimentalement par la suite, en variant la

concentration des différentes protéines de ce mécanisme. Les auteurs de ce travail ont

notamment constaté qu’entre 0,5 fois et 6 fois la concentration habituelle de CheR, la

précision de l’adaptation ne variait que de quelques pourcents. En revanche, comme le

prévoyait le modèle théorique, le temps d’adaptation ainsi que la fréquence de réorientation

variaient dans de larges proportions.

Ces travaux constituent une très bonne illustration de ce que peut nous apprendre la

modélisation, mais il ne s’agit là que d’une première étape. La véritable nouveauté est venu

d’un article publié en 2000 par le groupe de John Doyle.457 Ces chercheurs ont analysé

mathématiquement le modèle de Barkai et Leibler, dans le but de mieux caractériser la

structure fondamentale de ce mécanisme. Plus précisément, ils l’ont analysé du point de vue

de la théorie du contrôle robuste. Il s’agit d’un domaine en ingénierie qui élabore des outils

d’analyse permettant de mettre au point des systèmes de contrôle robustes, c’est-à-dire qui

sont relativement insensibles à des perturbations internes ou externes.458

En menant une analyse minutieuse du modèle de Barkai et Leibler, ils ont identifié

un principe bien connu des ingénieurs : le principe d’integral feedback control. Il correspond

à un type particulier de boucle de rétroaction. Il était clair depuis longtemps qu’une boucle de

rétroaction jouait un rôle important dans la régulation de ce mécanisme. Cependant, il existe

457 T. M. Yi et al., « Robust perfect adaptation in bacterial chemotaxis through integral feedback control », Proceedings of the National Academy of Sciences, 97 (2000) : 4649-4653. 458 Le but de ce cadre est aussi de parvenir à des résultats qui sont insensibles aux erreurs de modélisation, c’est-à-dire qui sont valables non seulement pour le modèle, mais également pour le système modélisé. Voici une bonne définition de cette théorie : « La théorie du contrôle robuste est une méthode pour mesurer les changements de performance d’un système de contrôle lorsque les paramètres du système varient. L’application de cette technique est importante pour construire des systèmes intégrés fiables. Le but est de permettre l’exploration de l’espace de design pour trouver des alternatives qui sont insensibles à des changements dans le système et qui peuvent maintenir leur stabilité et leur performance. (Leo Rollins, http://www.ece.cmu.edu/~koopman/des_s99/control_theory/)

Page 259: Thèse version3.R

259

différentes sortes de boucles de rétroaction et toutes n’ont pas les mêmes propriétés de

stabilité et de contrôle. Par exemple, le contrôle proportionnel ne permet pas d’éliminer

l’erreur et peut être instable dans certaines conditions.

La particularité de cette stratégie de contrôle est que l’intégrale temporelle de

l’erreur du système, c’est-à-dire la différence entre le niveau réel de sortie et le niveau

souhaité de sortie, est reprise comme entrée du système (voir la figure 11).

Ce travail confirme que la présence de ce principe de contrôle dans le système

explique la robustesse de l’adaptation parfaite. Mais les auteurs vont bien plus loin, puisqu’ils

soutiennent en outre que ce mode de contrôle est non seulement suffisant, mais aussi

nécessaire pour avoir une adaptation robuste et parfaite.

« Nous montrons que toute solution également robuste capable de réaliser une

erreur nulle à l’équilibre et ainsi l’adaptation parfaite, doit être équivalente au contrôle

intégral. » 459 Et plus loin : « Dans ce travail, nous avons placé les découvertes de [Barkai et

Leibler] dans un cadre théorique plus large. Avant tout, nous avons montré que l’integral

feedback control n’est pas seulement suffisant, mais également nécessaire pour l’adaptation

robuste. Ainsi, si leur modèle spécifique se trouvait dans le futur contredit par des données

expérimentales, un autre mécanisme implémentant le feedback control sera certainement

présent. »460

Cette remarque montre qu’il n’est pas évident de déterminer si ce mode de contrôle

est réalisé au niveau de ce mécanisme, ou s’il faut considérer un mécanisme plus large,

comprenant par exemple CheY, CheZ ou le moteur. Ce que suggèrent les données sur le

comportement de la bactérie, c’est qu’il doit exister au moins une ou plusieurs boucles de

rétroaction de ce type. Ajoutons encore que des modèles plus récents ont montré qu’en

intégrant d’autres aspects de ce mécanisme, notamment les interactions entre récepteurs, qui

avaient été ignorées dans le modèle initial, le principe d’integral feedback était vérifié.461

459 T. M. Yi et al., op. cit., p. 4651. 460 Ibid., p. 4652 461 C. H. Hansen et al., « Chemotaxis in Escherichia coli: A Molecular Model for Robust Precise Adaptation », PLoS Computational Biology, 4 (2008) : e1.

Page 260: Thèse version3.R

260

Figure 11: Schéma du principe de l’integral feedback control. La variable u est l’input du processus, qui est caractérisé par un gain k. La différence entre la sortie réelle y1 et la sortie à l’équilibre y0 correspond à l’erreur y. A travers la boucle de rétroaction, l’intégrale temporelle de y, x, régule le système. Dans le cas de la chémotaxie, l’input est le ligand, la sortie est l’activité du récepteur, et –x représente le niveau de méthylation du récepteur. (Tiré de T. M. Yi et al., op. cit.)

Il faut ajouter que des études ultérieures semblent indiquer que d’autres espèces de

bactéries utilisent le même mode de contrôle, bien que sous la forme de mécanismes

différents.462

Nous ne donnerons pas d’autres exemples de ce type de recherche, mais nous

voulons souligner qu’il ne s’agit pas de cas exceptionnels et qu’on voit apparaître depuis peu

de plus en plus de travaux de ce type.463

462 C. V. Rao, J. R. Kirby, and A. P. Arkin, « Design and Diversity in Bacterial Chemotaxis: A Comparative Study in Escherichia coli and Bacillus subtilis », PLOS Biology, 2 (2004) : 0239-0252. 463 Ma et al.,op. cit.; H. El-Samad, et al., « Surviving heat shock: Control strategies for robustness and performance », Proceedings of the National Academy of Sciences, 102 (2005) : 2736-2741 ; K. Lau, S. Ganguli, and C. Tang, "Function constrains network architecture and dynamics: A case study on the yeast cell cycle Boolean network," Physical Review E, 75 (2007) : 051907. Dans cette dernière référence, les auteurs se posent la question suivante : « dans quelle mesure la nécessité de réaliser une fonction spécifique contraint-elle les propriétés structurales et dynamiques d’un réseau ? » Leur conclusion montre bien que la stratégie explicative est la même : « Nous avons démontré que pour qu’un réseau produise une cascade d’activation, c’est-à-dire le processus de cycle cellulaire, le réseau doit avoir des boucles feed-forward et des boucles de rétroaction négatives. Ce n’est pas seulement qu’il s’agit d’un bon principe de design pour réaliser une longue cascade transitoire ; c’est essentiellement le seul moyen d’y parvenir de manière générique, et cela fournit un exemple de la manière dont la fonction d’un réseau contraint sa structure. ».

Page 261: Thèse version3.R

261

5.5. Intégration des différentes approches à travers le concept de robustesse

Le concept qui est au coeur de toutes les approches que nous venons d’évoquer, que

ce soit l’étude des propriétés topologiques générales des systèmes biologiques, ou l’analyse

des principes d’organisation des petits circuits, est incontestablement celui de robustesse. Cela

était déjà évident dans les efforts théoriques décrits au chapitre précédent, mais la question de

la robustesse a pris une place tout à fait centrale dans la biologie contemporaine des systèmes.

On peut même dire, qu’en dernière analyse, tous ces principes visent à comprendre comment

des systèmes aussi complexes peuvent fonctionner si bien dans des conditions aussi variables.

Un des buts poursuivis par certains est de parvenir à formuler une théorie générale de la

robustesse.

Hiroaki Kitano est certainement l’un des scientifiques à avoir défendu cette idée

avec le plus de conviction. Il soutient qu’il existe des principes qui permettent à des systèmes

d’être robustes et d’avoir la capacité d’évoluer, et que ces principes seraient universels, dans

le sens où ils seraient valables pour tous les systèmes complexes robustes et pouvant évoluer.

« J’ai affirmé qu’il existe des propriétés architecturales nécessaires pour rendre les

organismes robustes et qu’elles pourraient être universelles pour tout système complexe

robuste et capable d’évoluer. »464

Kitano souligne que le concept de robustesse doit être pris dans un sens large. Il

s’agit d’une propriété plus profonde que la simple stabilité d’un mécanisme ou d’un système.

Il la définit de la manière suivante : « La robustesse est le maintien de fonctions spécifiques

face à des perturbations, et cela exige souvent que le système modifie son mode d’opération

d’une manière flexible. En d’autres termes, la robustesse permet des changements dans la

structure et les composants du système à cause de perturbations, mais les fonctions

spécifiques sont maintenues. »465

Kitano mentionne différents éléments qu’il juge essentiels pour obtenir un système

robuste. Outre le principe de redondance, qui est intuitivement évident, il accorde une place

centrale aux modes de contrôle et de régulation que nous avons déjà longuement discutés dans

ce travail (essentiellement les boucles de rétroactions négatives et positives), ainsi qu’à la

structure modulaire. Mentionnons également une propriété structurale qui assurerait selon lui

une grande robustesse : ce qu’il appelle la structure bow-tie. Cette structure est caractérisée

464 H. Kitano, « Biological robustness », Nature Review Genetics, 5 (2004), p. 835. 465 Ibid., p. 827.

Page 262: Thèse version3.R

262

par deux propriétés remarquables. Premièrement, la présence d’un coeur de processus très

interconnecté, auquel arrivent beaucoup d’inputs et duquel ressortent beaucoup d’outputs.

Deuxièmement, l’existence de processus versatiles, qui font office d’interfaces et qui

permettent de lier facilement des nouveaux processus à ces structures. Ainsi, des liaisons

entre des mécanismes et le coeur peuvent être ajoutés ou enlevés facilement, sans perturber

d’autres parties du système. Un exemple rendra ce principe plus clair. Dans les réseaux de

transduction de signaux, une grande diversité de signaux active différents récepteurs, mais ces

signaux convergent vers un nombre plus restreint de messagers secondaires, mais ceux-ci

vont ensuite affecter l’activité de beaucoup de gènes. Si le coeur fonctionnel est robuste, ce

type de système présente beaucoup d’avantages. Un de ceux-ci est le fait de pouvoir

facilement coordonner différents processus en réponse à des signaux environnementaux. Un

contrôle séparé de chaque réponse serait plus difficile à réaliser de manière fiable. D’un point

de vue évolutif, cette structure permet de facilement modifier les liens entre différents

processus, ce qui permet une grande souplesse adaptative.

Un des intérêt de l’idée d’une théorie de la robustesse est qu’elle vise à l’unification

des différents principes que nous avons décrits. Idéalement, elle permettrait d’articuler les

explications en termes de propriétés topologiques globales (scale-free, modularité) et des

explications plus centrées sur des modules ou petits circuits.

Il faut toutefois être attentif au fait que, si des principes généraux pourraient

permettre de comprendre ce que partagent tous les systèmes robustes, la robustesse prise en

elle-même n’a pas beaucoup de sens. Elle doit être définie par rapport à un contexte. Un

système est robuste uniquement par rapport à certaines perturbations. Comme le montre

Kitano, quand on augmente la robustesse d’un système face à une source de perturbations, on

augmente également sa fragilité à l’égard d’une autre source possible.466

Von Dassow et Meir insistent également sur ce point : « La « robustesse » n’est pas

un phénomène unifié ; au lieu de dire, « ce dispositif est robuste », nous devons dire, « tel

comportement fonctionnel de ce dispositif est robuste à telles et telles perturbations. » Le

premier énoncé n’a pas de sens sans un contexte qui spécifie le comportement et la

perturbation en question. »467 C’est pour cela que les théories sur la robustesse des réseaux

466 H. Kitano, « Towards a theory of biological robustness », Molecular Systems Biology, 3 (2007): 137. 467 G. von Dassow and E. Meir, « Exploring modularity with dynamical models of gene networks », In G. Schlosser and G. P. Wagner (ed.), Modularity in Development and Evolution, Chicago, University of Chicago Press, 2003, p. 281.

Page 263: Thèse version3.R

263

complexes ne peuvent être qu’une première étape vers une analyse fine de la robustesse des

systèmes biologiques, qui doit intégrer les aspects fonctionnels détaillés.468

5.6. L’étude du design représente une voie médiane entre modèles particuliers et théories abstraites

Nous voulons défendre l’idée que les approches de biologie des systèmes que nous

venons de présenter constituent une voie médiane entre modèles explicatifs idiosyncrasiques

et théories abstraites. Nous voyons au moins deux niveaux auxquels cette idée peut être

défendue. Premièrement, la manière dont les systèmes sont modélisés contraste avec ce que

nous avions décrit au sujet des anciennes approches théoriques. Nous sommes en présence

d’une véritable reconstruction des réseaux. Cette méthode s’efforce non seulement de réaliser

l’étape d’encodage dont parlait Rosen, mais elle va plus loin, puisqu’elle prend la forme d’un

cycle de modélisation, qui garantit une bien meilleure adéquation entre modèles et données

empiriques. Deuxièmement, l’étude fine des modes d’organisation des réseaux permet une

analyse fonctionnelle plus fine ainsi que la distinction entre des classes de réseaux de nature

différente (ce deuxième aspect est évidemment une des conséquences du premier). Ce sont

donc essentiellement les principes portant sur le design des circuits qui nous paraît introduire

une différence profonde avec les anciennes approches. Les théories sur les propriétés

statistiques globales des réseaux sont certes fondées sur la reconstruction des réseaux, mais

elles sont peut-être encore trop abstraites et grossières (au sens de pas assez détaillées) pour

rendre compte de l’organisation des systèmes biologiques.

5.6.1. Reconstruction des réseaux et cycles de modélisation On lit fréquemment que le développement de la biologie des systèmes a été rendu

possible par les progrès technologiques qui ont bouleversé la manière de conduire les

expériences en biologie moléculaire. Ainsi, ce seraient des progrès expérimentaux qui

expliqueraient, au moins en partie, le succès des approches systémiques théoriques, après tant

d’années d’ « errance ». Nous avions déjà cité dans le premier chapitre ce qu’affirmait Kitano

à propos des possibilités qu’offraient les progrès de la génomique fonctionnelle pour

468 Sur ce thème, signalons également l’ouvrage suivant : A. Wagner, Robustness and Evolvability in Living Systems, Princeton University Press, 2005. Voir aussi l’article suivant : J. Stelling et al., « Robustness of cellular functions », Cell, 118 (2004) : 675-685.

Page 264: Thèse version3.R

264

l’application des approches systémiques.469

Wolkenhauer lui fait écho, lorsqu’il déclare : « Le regain d’intérêt pour la

modélisation mathématique dans l’ère post-génomique des sciences de la vie, trouve son

origine dans la disponibilité des technologies qui nous permettent de faire des mesures

directes des processus cellulaires. »470

Pour comprendre ce qui a changé, il faut revenir sur le processus de modélisation

dans la nouvelle biologie des systèmes.

En fait, il semble utile de distinguer deux types de modélisation, qui, chacun à son

niveau, permet d’ancrer la recherche de principes généraux dans les données empiriques. Ces

deux voies correspondent à peu près aux deux types d’approches décrites au début de ce

chapitre. Premièrement, les projets de génomique fonctionnelle ont mené à ce qu’on appelle

la reconstruction de larges réseaux, de plus en plus à l’échelle de la cellule. Deuxièmement,

des modèles très détaillés de petits réseaux permet l’analyse fine des modes de contrôle de

processus de régulation cellulaire.

Commençons par la détermination des réseaux à large échelle. Ce type de projet a

déjà été décrit dans le premier chapitre, lorsque nous avons présenté les efforts d’intégration

des différentes méthodes de génomique fonctionnelle. Ici, nous voulons insister sur le fait que

les modèles auxquels ce travail permet d’aboutir représente le fondement et le point de départ

des analyses plus théoriques.

Palsson est l’un des scientifiques à beaucoup avoir insisté sur l’importance du

processus de reconstruction des réseaux. Dans son livre d’introduction à la biologie des

systèmes, il distingue quatre étapes dans la modélisation et l’étude des réseaux : 1) établir la

liste des composants, 2) les interactions entre composants sont étudiées et les circuits (wiring

diagrams) sont reconstruits, 3) les réseaux reconstruits sont décrits mathématiquement et

analysés et 4) les modèles sont utilisés pour faire des prédictions, tester des hypothèses et

analyser des résultats expérimentaux.471

La troisième étape peut être considérée comme le lieu du travail théorique. Il faut

en effet noter que des chercheurs peuvent mener un travail d’analyse mathématique à ce

niveau. Ce travail peut être fait analytiquement ou par des simulations, mais il s’agit dans tous

les cas d’analyser les propriétés des réseaux étudiés, de manière relativement abstraite.

469 Cf. chapitre 1, note 132. 470 O. Wolkenhauer, « Mathematical modelling in the post-genome era: understanding genome expression and regulation — a system theoretic approach », Biosystems, 65 (2002), p. 2. 471 B. O. Palsson, Systems Biology: Properties of Reconstructed Networks, op. cit., pp. 5-6.

Page 265: Thèse version3.R

265

Mais ce qui est remarquable par rapport aux anciennes approches théoriques, c’est

que ce travail d’analyse doit être précédé par un gros travail expérimental. Les réseaux étudiés

ne peuvent pas être considérés comme des fictions de la même manière que dans le passé,

puisqu’ils s’efforcent d’être des représentations précises et réalistes des interactions qui ont

lieu entre molécules.472 Plutôt que d’imaginer, à partir de quelques éléments plus ou moins

plausibles, des principes d’organisation qui pourraient être importants en biologie, les

chercheurs commencent par observer comment sont construits les systèmes biologiques, ils

essaient ensuite de repérer des structures récurrentes, et c’est une fois ces structures

identifiées qu’ils mènent un travail théorique, qui vise à caractériser de manière rigoureuse et

générale leurs propriétés.

Il est certain que cette manière d’analyser les systèmes biologiques est relativement

grossière par rapport aux études détaillées auxquelles se livrent habituellement les biologistes

moléculaires. Mais, comme nous l’avons déjà souligné, le fait que ces modèles de réseaux

sont induits à partir de nombreuses données d’expériences (expression des gènes, interactions

entre protéines, analyses génétiques, etc) leur donne néanmoins une certaine vraisemblance.

Il faut insister sur le fait que la recherche porte sur les réseaux biologiques et que

ceux-ci ne se réduisent pas à un certain formalisme mathématique. Selon les buts poursuivis,

il est possible de représenter sous différentes formes mathématiques un même ensemble

d’interactions : système d’équations différentielles, réseaux logiques, etc. Ce que nous

voulons dire par là, c’est que les chercheurs s’intéressent plus aux systèmes réels qu’à des

formalismes mathématiques, qui avaient parfois tendance à être étudiés pour eux-mêmes.

Ce processus de reconstruction a récemment pris des dimensions impressionnantes,

puisque, comme nous l’avons remarqué à plusieurs reprises, l’objectif est de représenter des

réseaux complets, dans le sens où tous les composants connus seraient inclus. Cet objectif est

de plus en plus à la portée des biologistes.473

Le cas du métabolisme humain en est un exemple frappant. Plusieurs entreprises à

large échelle se sont efforcées d’intégrer l’ensemble des connaissances disponibles sur les

réactions métaboliques humaines. La plus aboutie (à l’heure où nous écrivons ces lignes ;

étant donné la cadence formidable des progrès dans ce domaine, il est évident que les

exemples donnés sont rapidement dépassés) est sans doute l’Edinburgh Human Metabolic

472 Même si on peut considérer que, comme tout modèle scientifique, ils restent fondamentalement des fictions. 473 Mais il faut rappeler que cet objectif n’est pas si clairement défini : très souvent, un composé peut exister sous différentes formes et cette diversité est souvent négligée.

Page 266: Thèse version3.R

266

Network, déjà citée dans le premier chapitre.474

Cet effort a abouti à un réseau composé de presque 3000 réactions métaboliques et

plus de 2000 gènes. Les informations ont avant tout été puisées dans les bases de données

issues du séquençage du génome humain et plus particulièrement les bases d’annotations

fonctionnelles. Le problème est qu’il existe différentes bases de données qui ne sont pas

toujours concordantes. Une autre difficulté vient du fait que beaucoup de gènes ne peuvent

être liés de manière claire à des réactions enzymatiques. Ce réseau a été comparé et complété

avec les informations disponibles dans la littérature, ce qui implique un long et fastidieux

travail. Cet exemple montre bien les limites que connaît encore la génomique fonctionnelle :

manque de fiabilité des données, différences entre bases de données. Il est également

intéressant de relever que la vérification manuelle reste encore indispensable. On se rend en

outre bien compte des incertitudes liées à ce genre d’entreprise, en constatant que différentes

méthodes ne convergent pas de manière très satisfaisante. En effet, si l’on compare ce travail

avec une entreprise similaire, qui a été menée indépendamment475, on constate que les deux

réseaux ne se recouvrent que pour environ 1000 gènes et moins de 2000 réactions. Il ne

faudrait toutefois pas tirer de ces difficultés trop de scepticisme. Il s’agit des premières

tentatives et il est raisonnable de penser que, d’ici quelques années, les différentes approches

convergeront vers un réseau robuste et bien établi. Il faut au contraire souligner la formidable

opportunité que représente la possibilité de comparer entre eux différents modèles d’un même

système. Comme toujours en science, c’est la convergence de différentes approches qui donne

le plus de poids à des résultats ou des modèles. Quoi qu’il en soit, les modèles actuels

représentent déjà une rupture complète par rapport à tout ce qui existait jusque-là.

Les auteurs de ce modèle de réseau métabolique discutent l’importance de la

structure bow-tie, que Kitano plaçait parmi les principes architecturaux qui garantissent la

robustesse. Sans vouloir entrer dans cette discussion, cet exemple nous paraît bien illustrer

l’idée que nous défendons ici. Des structures qui pourraient être importantes peuvent être

étudiées dans un contexte naturel et pas seulement au niveau des modèles. Les biologistes

n’ont plus besoin de se limiter à extrapoler des principes généraux à partir de quelques

exemples (ce qui est déjà un progrès par rapport à des principes qui ne peuvent même pas être

mis en relation avec des cas concrets), mais à examiner la structure globale de nombreux

474 H. Ma et al., « The Edinburgh human metabolic network reconstruction and its functional analysis », Molecular Systems Biology, 3 (2007):135. 475 N. C. Duarte et al., « Global reconstruction of the human metabolic network based on genomic and bibliomic data », Proceedings of the National Academy of Sciences, 104 (2007) : 1777–1782.

Page 267: Thèse version3.R

267

systèmes biologiques et de déterminer la fréquence à laquelle on trouve une structure, quelle

place elle occupe dans le système ou encore dans quels types de système elle apparaît le plus.

Dans le cas des motifs de réseaux, on voit l’intérêt d’une autre type de modélisation

pour la validation des principes généraux. Si c’est également à partir de l’étude des réseaux

« complets » que ces motifs sont identifiés, ceux-ci sont ensuite l’objet d’une analyse à la fois

générale et détaillée. D’une part, des modèles mathématiques généraux des motifs sont

analysés, dans le but de caractériser leur comportement et leurs propriétés fonctionnelles

génériques. D’autre part, les chercheurs s’efforcent de tester ces principes sur des systèmes

particuliers. Nous avons vu le cas du motif FFL et les expériences sur le système arabinose.

Ici, c’est la modélisation bottom-up qui est utilisée, c’est-à-dire la construction de modèles

mathématiques particuliers, à partir de données empiriques. Dans l’exemple de l’integral

feedback control, nous avons vu que le travail d’analyse ayant permis de mener à cette

conclusion était fondé sur un modèle mathématique relativement précis du mécanisme de la

chemotaxie. Ce modèle représentait assez bien l’ensemble des réactions connues entre les

composants et résultait de la synthèse de nombreuses années de travail et d’une somme

considérable de résultats d’expériences de biologie moléculaire. Nous avons vu que les

prédictions faites par ce modèle avaient été confirmées expérimentalement par la suite. Bien

entendu, cela ne prouve pas que le mécanisme proposé est le bon, mais cette combinaison de

modélisation et d’expériences détaillées a permis d’attirer l’attention des chercheurs sur le

rôle que pouvait jouer une boucle de rétroaction dans le phénomène d’adaptation et dans sa

robustesse.

Ce dernier exemple fait apparaître l’importance des prédictions. Nous avions dit

que la majorité des modèles théoriques en biologie visait à étudier certaines propriétés

générales de classes de systèmes, qui, pensait-on, pouvaient se révéler importantes pour

comprendre les systèmes naturels. Cela implique certainement de pouvoir comparer les

modèles et les systèmes, mais en général de manière très approximative. Les prédictions

étaient toujours qualitatives. Peu d’efforts étaient faits pour tester ces modèles, et cela était

bien normal, puisque ces modèles n’étant pas conçus pour représenter fidèlement les

systèmes.

Le travail théorique en biologie des systèmes est fondamentalement moins fermé

sur lui-même. Les modèles utilisés étant relativement réalistes et précis, il est possible de faire

des prédictions qui seront testables empiriquement. Lorsque le modèle est inconsistant avec

les données empiriques, il est révisé de manière à faire disparaître l’inconsistance. Précisons

que cette amélioration ne doit pas être vue comme une sorte de bricolage, qui consisterait à

Page 268: Thèse version3.R

268

ajuster les paramètres dans le seul but de sauver le modèle. Il s’agit d’intégrer des nouvelles

données expérimentales. Les méthodologies venant de l’ingénierie sont à cet égard d’une très

grande utilité, puisqu’elles aident les biologistes à concevoir les expériences qui seront les

plus aptes à tester un modèle, discriminer entre plusieurs possibilités ou encore suggérer de

nouvelles hypothèses.

Ces nouveaux rapports entre expériences et modèles mathématiques ont souvent été

décrits à l’aide de l’image suivante : la modélisation en biologie des systèmes décrit une

spirale, qui passe continuellement des données expérimentales à la construction de modèles

mathématiques et inversement. Ce qui est souligné à travers cette image, c’est la nature

profondément itérative du processus de modélisation.

La nature itérative de la recherche en biologie des systèmes a bien été décrite dans

un article pionnier, publié par des chercheurs de l’Institut for Systems Biology, à Seattle. La

stratégie générale que devrait suivre la biologie des systèmes était définie de la manière

suivante. Quatre étapes doivent être suivies : 1) définir tous les gènes, les protéines et les

autres molécules impliqués dans le système étudié, 2) perturber tous les éléments du système

et suivre l’effet global au niveau de l’expression des gènes et de la concentration en protéines,

3) comparer ces données avec le modèle admis et avec d’autres informations concernant par

exemple les interactions physiques, 4) faire des hypothèses permettant d’expliquer les

observations non prédites par le modèle. Il faut ensuite faire de nouvelles expériences de

perturbation pour tester ces nouvelles hypothèses et répéter les étapes 2 à 4.476

Si l’on pense à l’analyse de Rosen, dont nous avons parlé au chapitre précédent, on

peut considérer que la biologie des systèmes travaille beaucoup moins dans le registre de la

métaphore et développe des modèles au sens rigoureux du terme. Les modèles formels sont

très souvent construits à partir de mesures expérimentales. L’étape d’encodage, comme

l’appelait Rosen, retrouve une place centrale.

Tout cela pourrait paraître tout à fait trivial à un biologiste moléculaire. L’essentiel

de son travail ne consiste-t-il pas à construire des modèles hypothétiques de mécanismes à

partir des diverses expériences faites sur le système étudié, et à corriger et raffiner ces

modèles chaque fois que des nouveaux résultats sont disponibles ? Cela est certainement vrai,

mais un certain nombre de différences sont introduites par ce nouveau style de modélisation.

Premièrement, ce va et vient entre expériences et modèles peut maintenant

s’appliquer à des modèles mathématiques et pas seulement à des schémas. Or, ces modèles 476 T. Ideker et al., « Integrated genomic and proteomic analyses of a systematically perturbed metabolic network », Science, 292 (2001) : 929-934.

Page 269: Thèse version3.R

269

ont l’avantage de rendre possible l’analyse des propriétés générales des réseaux mis au jour.

Deuxièmement, les prédictions qu’il est possible de faire en passant par des modèles

mathématiques et des simulations sont beaucoup plus précises qu’avec des simples schémas.

Il faut souligner à cet égard que les progrès technologiques ont accru considérablement les

possibilités de procéder à des tests expérimentaux pour mettre à l’épreuve les modèles. La

biologie synthétique et des techniques comme la microscopie à fluorescence et les mesures

faites sur une seule cellule représentent à cet égard des avancées majeures. Troisièmement,

l’induction des données vers les modèles devient plus raffinée à mesure que progressent les

méthodes de traitement des données en bioinformatique. Tout cela fait que le rapport entre

expériences et modèles est devenu beaucoup plus étroit.

Grâce à tous ces progrès, les modèles formalisés en biologie des systèmes sont

beaucoup plus falsifiables que dans le passé. Mais plus que la falsifiabilité, c’est surtout la

possibilité de s’assurer que les propriétés systémiques des réseaux complexes sont bien

valables pour les réseaux biologiques, qui nous paraît importante. Si les modèles de circuits

nous paraissent être plus facilement testables, il faut souligner que, même dans le cas des

propriétés statistiques globales, certaines prédictions peuvent être comparées avec les données

expérimentales. Nous avons vu que des chercheurs ont essayé de tester la prédiction du

modèle de Barabasi selon laquelle des noeuds hautement connectés sont plus fragiles et

nécessaires que les noeuds faiblement connectés. Si ces comparaisons entre modèles

théoriques et expériences soulèvent plusieurs difficultés et ne permettent pas de trancher de

manière claire, il s’agit néanmoins d’un progrès considérable.

Ajoutons une remarque, afin de lever tout malentendu. Nous ne voulons pas

suggérer que cette méthodologie de modélisation serait destinée avant tout au développement

de modèles théoriques ou à la recherche de principes généraux. Il est certain qu’une bonne

partie des biologistes des systèmes ne sont pas engagés dans une recherche de ce type. Mais

l’important est que les modèles théoriques se fondent sur ces modèles particuliers, et profitent

par conséquent indirectement des vertus de ces allers-retours entre données expérimentales et

formalisme. Nous ne voudrions donc pas suggérer qu’il n’y aurait plus de distinction entre

modèles « pragmatiques » et modèles théoriques, mais l’important est que les modèles

théoriques peuvent plus facilement s’appuyer sur les premiers.

Pour conclure cette section, disons que ce qui, à notre avis, confère aux explications

en termes de design un statut particulier, c’est qu’elles sont idéalement consistantes avec

toutes les données empiriques dont on dispose.

Page 270: Thèse version3.R

270

5.6.2. L’étude des circuits permet une analyse fonctionnelle plus fine et une distinction entre différentes classes de réseaux

Ce qui semble être la faiblesse principale des études purement statistiques des

réseaux est leur relative incapacité à rendre compte des contraintes fonctionnelles qui

distinguent différents types de réseaux. Nous aimerions insister sur le fait que l’étude des

motifs ne souffre pas de cette limite. En effet, l’hypothèse qui est actuellement explorée est,

d’une part, que chaque type de réseau est caractérisé par des motifs particuliers et, d’autre

part, qu’il doit être possible de mettre en relation les propriétés fonctionnelles des réseaux et

celles des motifs.477

Si les scientifiques qui travaillent sur les motifs comparent des réseaux de nature

diverse, ce n’est pas pour les regrouper dans une même classe (par exemple les réseaux scale-

free), mais plutôt pour identifier des familles de réseaux selon les motifs prédominants.478

Des résultats provenant de l’analyse des motifs composés de trois noeuds, semblent

révéler des tendances intéressantes. Il est possible d’identifier une première famille, qui

regroupe des réseaux de régulation de la transcription. Dans ces réseaux, les boucles FFL sont

surreprésentées. Ces réseaux sont appelés sensory networks, parce qu’ils doivent répondre à

des signaux passagers, comme le stress ou la présence de nutriments. Le temps de réponse du

réseau est du même ordre de grandeur que celui des composants. Une deuxième famille

correspond à des réseaux de traitement de l’information. Dans ces réseaux, on trouve d’autres

types de motifs : beaucoup plus de cascades, ainsi que des boucles de rétroaction à deux

composants. Le temps de réponse de chaque étape est beaucoup plus rapide que celui de la

fonction assurée par le réseau entier. Cette famille correspond à certains réseaux de

signalisation, à des réseaux de régulation de la transcription impliqués dans le développement,

ou encore à des réseaux neuraux. Des réseaux non biologiques, comme l’Internet ou des

réseaux sociaux, sont regroupés dans une famille encore différente.

Ce type d’étude est encore exploratoire et incertain, mais différents résultats

semblent converger. Si l’étude citée ne s’intéressait qu’aux motifs composés de trois noeuds,

d’autres travaux portant sur les motifs de quatre noeuds ont également révélé des différences

intéressantes, comme l’indique la citation suivante :

« Au niveau de résolution des motifs à quatre noeuds, les réseaux transcriptionnels

477 Il faut toutefois reconnaître que les approches statistiques globales pourraient également saisir dans une certaine mesure les particularités des divers réseaux. Mais notre impression est que cette analyse restera toujours relativement myope. 478 R. Milo et al., « Superfamilies of evolved and designed networks », Science, 303 (2004) : 1538–1542. Cet exemple est discuté par Michel Morange dans Expliquer la vie, op. cit., p. 105.

Page 271: Thèse version3.R

271

de la bactérie et de la levure montrent une préférence pour les mêmes motifs de réseaux. Il est

probable que ces réseaux, qui assurent la régulation des gènes dans les organismes

unicellulaires, ont évolué sous des contraintes similaires, et peuvent être considérés comme

une véritable « famille ». Cependant, d’après le profil d’importance des motifs de quatre

noeuds, le réseau STKE [« Signal Transduction Knowledge Environment » : c’est un

ensemble de données et d’outils permettant l’étude des réseaux de signalisation, à travers

l’échange de données et de modèles], le réseau transcriptionnel de la drosophile et le réseau

de neurone de C.elegans, ne semblent pas former une famille [...], puisqu’ils montrent des

préférences pour différents motifs de quatre noeuds. Intuitivement, cela a du sens que ces

réseaux ne partagent pas les mêmes contraintes fonctionnelles, puisqu’ils sont construits à

partir de composants très différents et qu’ils ont des fonctions extrêmement différentes. »479

Une vision plus fine nécessiterait d’étendre l’analyse à des structures plus

complexes, mais la direction suivie est claire. On est de toute évidence dans une autre

approche que l’étude des réseaux scale-free.

Cette plus grande finesse dans l’analyse fonctionnelle n’est pas étonnante si l’on

comprend que l’étude des circuits biologiques utilise massivement des outils et des concepts

venant de l’ingénierie. Il est frappant de constater le nombre d’articles récemment publiés qui

soulignent l’utilité que pourraient avoir les méthodes et concepts de l’ingénierie pour

progresser en biologie.480

Nous avons vu dans le troisième chapitre que certains scientifiques avaient établi

des parallèles entre mécanismes biologiques et circuits électroniques. Nous avions montré en

quoi ces comparaisons avaient l’avantage de rendre ces mécanismes plus intelligibles. Ce

transfert de connaissance à également une autre vertu, puisqu’il est possible d’appliquer à

l’étude des systèmes biologiques toutes les connaissances théoriques qui ont été développées

dans le domaine des circuits.

Ce qui nous paraît déterminant dans le développement de la biologie des systèmes,

c’est la manière dont des ponts ont été établis entre la biologie moléculaire et l’ingénierie.

Rappelons que ces ponts sont anciens, puisque les premiers discours sur les circuits

479 R. J. Prill et al., « Dynamic Properties of Network Motifs Contribute to Biological Network Organization », PLoS Biology, 3 (2005) : e343, p.1888. 480 Voici quelques exemples : O. Wolkenhauer, « Engineering Approaches: What can we learn from it in systems biology? », op. cit. ; M. E. Ceste and J. C. Doyle, « Reverse Engineering of Biological Complexity », Science, 295 (2002) : 1664-1669 ; C. J. Tomlin and J. D. Axelrod : « Understanding biology by reverse engineering the control », Proceedings of the National Academy of Sciences, 102 (2005) : 4219-4220.

Page 272: Thèse version3.R

272

biologiques remontent aux années 60.481 Mais les transferts de modèles, d’outils et de

connaissances n’ont vraiment commencé à sérieusement se développer qu’avec le passage à

une représentation des mécanismes biologiques sous la forme de réseaux, dans le contexte de

la génomique fonctionnelle. Alon est l’un des défenseurs les plus convaincus de la fécondité

de ces comparaisons : « les systèmes biologiques vus comme des réseaux peuvent facilement

être comparés à des systèmes d’ingénierie, qui sont habituellement décrits par des réseaux tels

que des organigrammes ou des plans. De manière remarquable, lorsqu’une telle comparaison

est faite, on voit que les réseaux biologiques partagent des principes structuraux avec les

réseaux d’ingénierie. »482

Pour Alon, l’ingénierie devrait attirer l’attention des biologistes sur trois principes

qui pourraient être aussi importants dans les systèmes biologiques qu’ils le sont dans les

artéfacts : la modularité, la robustesse à la tolérance des composants, et l’utilisation

d’éléments de circuits récurrents. Ces trois principes ont déjà été largement abordés plus haut

et nous n’allons pas y revenir. Ce qui nous paraît important ici, c’est que les biologistes

pourraient profiter des recherches intensives qui ont été menées aux cours des cinquante

dernières années en ingénierie. La robustesse des systèmes ne constitue une question centrale

pour les biologistes que depuis peu, mais, pour des raisons évidentes, elle a toujours été un

des problèmes fondamentaux pour les ingénieurs et ceux-ci ont beaucoup progressé dans la

compréhension des principes qui permettent de construire des systèmes robustes. La

récurrence d’éléments de circuits est évidente dans tous les systèmes que mettent au point les

ingénieurs : « Un appareil électronique, par exemple, peut comporter des milliers

d’occurrences d’éléments de circuits tels que des amplificateurs opérationnels et des registres

de mémoire. » Doyle rappelle qu’une raffinerie peut comporter plus de 10'000 boucles

implémentant le principe d’integral feedback. L’idée d’Alon est que « La biologie révèle le

même principe, utilisant les mêmes patterns de connexions à travers tout un réseau. »483

Il faut ajouter que ce rapprochement entre ces disciplines s’expliquerait également

par les progrès en ingénierie. À l’époque des premières utilisations de la métaphore du circuit,

l’ingénierie était beaucoup moins avancée dans sa connaissance des principes de conception 481 Les exemples les plus connus sont les modèle de Monod et Jacob de l’opéron lactose, le modèle général de Britten et Davidson (R. J. Britten and E. H. Davidson, « Gene regulation for higher cells : A theory », Science, 165 (1969) : 349-357) et celui de Kauffman (S. Kauffman, « Gene regulation networks: A theory for their global structure and behavior », op. cit.). L’idée d’appliquer les techniques de contrôle à la biologie n’est pas nouvelle non plus : F. S. Grodins, Control Theory and Biological Systems, New York, Columbia University Press, 1963 ; J. D. Hardy, Physiological Controls and Regulations, in W. S. Yamamoto and J. R. Brobeck (eds.), Philadelphia, Saunders, 1965. 482 U.Alon, « Biological Networks : the tinkerer as an engineer », op. cit. 483 Ibid., p. 1866.

Page 273: Thèse version3.R

273

des circuits. Beaucoup de résultats théoriques dans le domaine du contrôle sont postérieurs

aux années 80. On peut considérer que biologie et ingénierie connaissent depuis peu des

transformations similaires : « De nombreux défis de la biologie post-génomique convergent

avec les défis auxquels font face les ingénieurs qui construisent des « réseaux de réseaux »

complexes, et la théorie et la pratique de l’ingénierie connaissent une révolution aussi radicale

que celle de la biologie. »484

Avant de terminer cette section, considérons l’objection suivante : on pourrait

douter qu’en allant chercher des concepts du côté de l’ingénierie, la biologie puisse parvenir à

cette généralité qui caractérise selon nous la biologie théorique. Cette question sera traitée en

détail dans le dernier chapitre, mais quelques remarques peuvent déjà être faites. S’il est

évident que les ingénieurs passent beaucoup de temps à concevoir des machines particulières

et donc à trouver des solutions idiosyncrasiques, ce serait une erreur de penser que leurs

recherches se limitent à cela. Le domaine appelé Control System Theory, que nous avons

évoqué plus haut, doit être considéré comme un domaine fondamentalement général en

ingénierie. Il ne s’agit pas de l’étude d’une classe de problèmes particuliers, mais de principes

qui sont valables dans toutes les branches de l’ingénierie : électrique, mécanique,

aéronautique, chimique, etc. L’auteur d’un livre d’introduction à ce domaine est tout à fait

clair sur ce point : « Contrairement aux autres spécialités en ingénierie, dont le sujet d’étude

est un système d’ingénierie spécifique, tel qu’un système de moteur ou un système

aéronautique, la théorie du contrôle systémique étudie uniquement un modèle mathématique

général des systèmes d’ingénierie. » 485 Il s’agit donc indéniablement d’un domaine théorique

et non pas appliqué.

Nous ne poursuivrons pas ici cette exploration de la recherche de principes de

design, mais nous voulons insister sur le fait qu’il s’agit d’un courant assez fort en biologie

des systèmes depuis quelques années. De dizaines d’articles ont été publiés sur ce thème et

cette tendance ne semble pas s’essouffler.486

484 M. E. Csete and J. C. Doyle, op. cit., p. 1668. 485 C. C. Tsui, Robust Control System Design, Marcel Dekker, 2003, p. 1. 486 En plus du livre d’Uri Alon, qui constitue une sorte de manifeste pour ces approches, et des articles déjà cités, signalons la référence suivante : J.Doyle et al., « Motifs, control, and stability », PLoS Biology, 3 (2005) : 1868-1872.

Page 274: Thèse version3.R

274

5.7. Importance des principes généraux de design pour les expérimentalistes : contraintes dans la discrimination des mécanismes possibles

Nous avons insisté dans le chapitre précédent sur le fait que le manque d’intérêt des

expérimentalistes pour les approches théoriques s’expliquait en partie par le peu d’utilité

qu’avaient les principes généraux pour leurs propres recherches. Nous voulons maintenant

défendre l’idée que les principes généraux formulés par la biologie des systèmes ne devraient

plus être considérés comme des sortes de « curiosités » théoriques, mais pourraient constituer

pour les biologistes moléculaires une aide précieuse dans l’analyse des mécanismes

biologiques.

Le but des biologistes moléculaires est de formuler des modèles mécanistes à partir

de différentes données expérimentales dont ils disposent : comportement du système,

caractérisation des composants, résultats d’expériences de perturbation, etc. Ce travail est

évidemment très difficile à mener, tant les données sont souvent lacunaires et ambiguës. Il est

fréquent que les données ne permettent pas de déterminer lequel, parmi un ensemble de

mécanismes possibles, est le bon. Ce problème (qui correspond à la sous-détermination des

théories par l’expérience) est classique, mais il paraît devoir se poser avec encore plus de

force dans le contexte de la post-génomique. En effet, les mécanismes étudiés par les

biologistes deviennent de plus en plus complexes. Ils sont non seulement de plus en plus

larges, mais surtout, il est devenu évident que les détails des interactions et des régulations

peuvent dans certains cas faire des différences notables. Il ne suffit plus seulement de savoir

que telle protéine régule tel gène, il faut aussi être attentif à la nature précise de ce contrôle et

aux effets de synergie avec d’autres régulateurs (ces aspects ne sont évidemment pas

nouveaux, mais ils deviennent de plus en plus importants). D’autre part, les phénomènes

fonctionnels qui sont actuellement analysés sont beaucoup plus subtils et difficiles à élucider.

Il ne s’agit plus seulement de montrer que la liaison d’un ligand à un récepteur membranaire

peut aboutir à la transcription d’un gène, via une cascade de réactions, mais, comme nous

l’avons montré dans le deuxième chapitre, de comprendre comment ces réseaux peuvent

« traiter » ces signaux de manière extrêmement fine, grâce à des propriétés comme la bi-

stabilité.

Dans ce contexte, déterminer quels sont les mécanismes responsables de ces

phénomènes devient un défi immense. Rappelons que c’est ce problème que les biologistes

des systèmes nomment ingénierie inverse. Comme nous l’avions vu dans le premier chapitre,

Page 275: Thèse version3.R

275

l’enjeu est de déduire l’organisation d’un système, à partir de l’étude de ses éléments et de

leur comportement. Plusieurs biologistes des systèmes ont défendu l’idée que les progrès dans

notre connaissance des principes de design pourraient fournir une aide précieuse dans cette

tâche, en proposant des contraintes. C’est un des aspects centraux de la démarche mécaniste

que de s’appuyer sur les contraintes pour reconstituer un mécanisme. Un modèle mécaniste

est toujours contraint à la fois par les entités qui le composent et par les phénomènes à

expliquer.487 Le grand intérêt des principes en termes de design, c’est qu’ils fournissent des

contraintes supplémentaires.

Le cas de l’adaptation est évidemment un bon exemple. Si un comportement

d’adaptation parfaite et robuste a été observé, on peut en déduire488 que le mécanisme

responsable de ce comportement est une implémentation du principe de l’integral feedback

control. Cela restreint considérablement les modèles possibles. Il est toutefois probable que,

dans la plupart des situations, la contrainte soit moins forte et donc moins claire. Cependant,

les autres principes pourraient constituer un guide précieux. Nous avons vu que, dans le cas

du travail du groupe d’Odell, le modèle est devenu satisfaisant lorsque des boucles de

rétroaction positives ont été ajoutés. On peut penser qu’une bonne connaissance des

comportements fonctionnels des différents circuits peut aider à formuler la bonne hypothèse.

Dans ce cas, un comportement bistable devrait nous suggérer la présence de ce genre de

boucle. C’est ce que pensent en tout cas Cinquin et Demongeot, qui affirment :

« Nous avons montré que l’existence d’une boucle de rétroaction positive est une

condition nécessaire pour la multistationnarité dans une large classe de systèmes. C’est une

propriété intéressante en elle-même, mais c’est également une découverte à l’importance

pratique. On ne peut jamais être certain que les facteurs dans un réseau de régulation ont tous

été identifiés, mais il est également difficile d’être certain que des facteurs manquent.

Cependant, si l’on rencontre un système exhibant une multistationnarité, et que le système n’a

pas de boucle de rétroaction positive, alors notre résultat montre que le graphe d’interaction

est incomplet. »489

Le concept de robustesse semble pouvoir jouer un rôle central de ce point de vue.

En se fondant sur le présupposé raisonnable que les mécanismes biologiques doivent pouvoir

487 Voir les analyses de Bechtel et Richardson, dans Discovering Complexity: Decomposition and Localization

as Strategies in Scientific Research, op. cit., ainsi que celles de Craver, dans « Beyond reduction », op. cit. 488 Si l’on considère que la démonstration proposée par les ingénieurs est valide. Cette question dépasse nos compétences ce qui nous oblige à suspendre notre jugement sur ce point. 489 O. Cinquin and J. Demongeot « Positive and negative feedback: striking a balance between necessary antagonists », Journal of Theoretical Biology, 216 (2002) : 229-241.

Page 276: Thèse version3.R

276

fonctionner de manière robuste et ne pas dépendre par exemple du niveau précis de

concentration des protéines, il devient possible d’exclure un ensemble de modèles capables de

rendre compte d’un certain phénomène. En effet, si un mécanisme ne réalise sa fonction que

pour des valeurs extrêmement précises de tous les paramètres de réactions, il est peu probable

que ce soit le bon.490

Alon exprime bien cette idée : « Le fait qu’un circuit de gènes doit être robuste à de

telles perturbations impose des contraintes sévères sur son design : seul un faible pourcentage

des circuits possibles qui réalisent une fonction donnée peut la réaliser de manière

robuste. »491

Nous voulons insister sur le fait que cette idée occupe une place extrêmement

importante dans la recherche de principes généraux. Kitano souligne les bénéfices que l’on

peut attendre des progrès théoriques : « Cela [l’intégration dans une théorie de la robustesse

de différents aspects, et notamment les propriétés des réseaux] est une entreprise importante,

parce qu’elle pourrait conduire la théorie abstraite à une utilité pratique, en fournissant des

contraintes spécifiques sous-jacentes à l’organisation des organismes et des sous-systèmes

biologiques. À mesure que la recherche théorique dérivera des contraintes plus concrètes,

nous devrions être capables de mieux prédire et analyser par ingénierie inverse les structures

des réseaux biologiques. En combinaison avec différentes données expérimentales à haut-

débit, nous devrions pouvoir dériver les structures et la dynamique des réseaux avec une

grande précision. »492

Le fait que des principes généraux puissent constituer des guides heuristiques de

grande valeur pour les expérimentalistes nous semble un indice fort du changement de statut

de la recherche théorique en biologie.

Conclusion

La méthodologie suivie par la biologie des systèmes répond à deux grandes

objections que soulevaient les anciennes approches théoriques. Nous avions vu que,

premièrement, ces modèles souffraient d’un trop grand manque de réalisme (en tout cas au

goût des biologistes) et deuxièmement, ils semblaient relativement inutiles pour les

490 Sur ce point, voir: H. de Jong and D. Roppers, “Strategies for dealing with incomplete information in the modeling of molecular interaction networks », Briefings in Bioinformatics, 7 (2006):354-363. 491 U. Alon, « The tinkerer as an engineer », op. cit. 492 H. Kitano, « Towards a theory of biological robustness », op. cit., p. 6.

Page 277: Thèse version3.R

277

expérimentalistes. Si ces objections n’ont sans doute pas complètement disparu, nous avons

montré que, d’une part, la nature itérative de la modélisation garantissait désormais un certain

réalisme et nettement plus de falsifiabilité et, d’autre part, en fournissant des contraintes

supplémentaires dans la construction d’hypothèses mécanistes, les principes généraux

constituent une aide dont les expérimentalistes ne pourront se passer, surtout maintenant

qu’ils s’attaquent à des réseaux complexes.

On peut ainsi considérer qu’on assiste enfin à ce dont rêvaient depuis longtemps les

défenseurs des approches systémiques : le développement de modèles généraux féconds en

biologie. La biologie et la science des systèmes auraient donc atteint un degré suffisant de

maturité pour que ces anciens efforts portent enfin leurs fruits. Ces succès récents montrent

que les efforts des premiers théoriciens n’ont pas été inutiles et justifient, d’une certaine

manière, a posteriori cette foi dans la possibilité de développer une véritable biologie

théorique. Il est sans doute trop tôt pour voir ce que vont donner les approches théoriques en

biologie des systèmes, mais la manière dont d’anciennes voies de recherche longtemps restées

marginales, sont maintenant empruntées par un nombre croissant de biologistes moléculaires,

nous semble un développement tout à fait remarquable de la biologie contemporaine.

Les recherches que nous venons de décrire permettent également de répondre à une

question soulevée dans le premier chapitre. Nous avions vu que certains biologistes

interprétaient les changements méthodologiques récents comme le passage vers une science

fondée sur les données empiriques (data-driven), par opposition à une science fondée sur des

hypothèses. Or, tout ce chapitre montre clairement que la biologie des systèmes doit, au

contraire, être considérée comme un enrichissement considérable de la recherche théorique en

biologie. La biologie des systèmes n’est donc pas (en tout cas pas uniquement) de l’étude de

cas particuliers (stamp collection) faite à une échelle supérieure.

Nous rejetons donc des affirmations comme celle-ci : « les stratégies d’ingénierie et

(par extension) la biologie des systèmes ne représentent pas une science fondée sur des

hypothèses. »493 Elles décrivent, selon nous, très mal le projet poursuivi par les chercheurs que

nous avons évoqués dans ce chapitre. Nous nous rangeons donc du côté de scientifiques

comme Wolkenhauer, qui écrit : « La théorie systémique et du contrôle est une manière de

penser, pas une collection de faits sur le monde réel. »494

493 D. Kell and S. G. Oliver, « Here is the evidence, now what is the hypothesis? The complementary roles of inductive and hypothesis-driven science in the post-genomic era », 26 (2004), p. 101 494 O. Wolkenhauer, op. cit., p. 15.

Page 278: Thèse version3.R

278

Notre réflexion sur ces nouveaux modèles explicatifs va nous conduire à examiner

une autre question. Dans le chapitre précédent, nous avions identifié une objection d’un autre

ordre que l’on pouvait faire à la recherche de principes généraux : l’idée que l’universalité

était une chimère dans le domaine du vivant. Ces principes universels de design

constitueraient-ils un contre-exemple à la thèse selon laquelle il n’y a pas de principes

universels en biologie ? C’est à cette interrogation que nous allons consacrer l’essentiel du

dernier chapitre de ce travail.

Page 279: Thèse version3.R

279

Chapitre 6

Vers une nouvelle conception du vivant (et de la biologie) ?

Notre exploration de la biologie des systèmes nous a amené à réaliser qu’au sein de

ce domaine existait le projet de dégager des principes valables pour tous les systèmes vivants.

Si le destin que va connaître cette entreprise est encore difficile à discerner, nous avons

montré qu’un certain nombre de résultats récents obligent néanmoins à le prendre au sérieux.

C’est ce que nous nous proposons de faire en réfléchissant dans ce dernier chapitre à plusieurs

questions et problèmes que soulèvent ces ambitions.

Si des principes généraux portant sur l’architecture des systèmes biologiques sont

effectivement mis au jour, la conception dominante du vivant et de son évolution devrait-elle

être en partie repensée ? Si des contraintes fortes pèsent sur l’organisation de ces systèmes,

faudrait-il réévaluer le caractère contingent de l’évolution. Cela constituerait-il un défi pour

les explications sélectionnistes ?

Quelles seraient les conséquences sur nos conceptions concernant la nature des

théories en biologie, étant donné qu’il est généralement admis que, comme nous l’avons vu

dans le quatrième chapitre, mis à part certains domaines de la théorie de l’évolution, la

biologie est essentiellement une collection de modèles construits à partir de l’étude de

quelques systèmes particuliers, dont la généralité dépend surtout « d’accidents gelés » au

cours de l’évolution ?

Pour comprendre en quoi les explications en termes de design pourraient

transformer notre vision des systèmes biologiques, leur nature doit être analysée plus en

détail. Le discours sur le design est à la fois omniprésent en biologie et très ancien, puisqu’il

est bien plus ancien que le darwinisme. Tout le monde connaît le raisonnement de Paley, qui

comparait la perfection du design des organismes et des artefacts pour démontrer l’existence

d’un créateur dans les deux cas. Qu’en est-il de ces nouveaux principes ?

Page 280: Thèse version3.R

280

Nous allons commencer par montrer que ces explications sortent du cadre

mécaniste à plusieurs points de vue et peuvent être considérées comme des explications non

causales, qui révèlent des contraintes fortes pesant sur l’organisation des systèmes. Cette

analyse ne pourra être menée sans revenir sur les différents sens que peut revêtir le concept de

contrainte en biologie. Nous verrons que ces contraintes fonctionnelles constituent un type

particulier, qui est resté relativement peu étudié par les biologistes (surtout les biologistes

moléculaires).

L’idée de principes architecturaux universels semble proche des thèses sur l’auto-

organisation et des différentes conceptions structuralistes. Nous serons donc conduit à

examiner les différences entre les principes de design et d’auto-organisation, notamment dans

leurs rapports avec la sélection naturelle. Nous montrerons que, contrairement au principe

d’auto-organisation, les principes de design n’introduisent aucune tension avec les

explications sélectionnistes.

La méthode suivie par la biologie des systèmes soulève également une question

générale, sur la légitimité des comparaisons entre systèmes naturels et artificiels. Nous

examinerons les présupposés qui permettent d’appliquer des concepts et modèles venant de

l’ingénierie aux systèmes biologiques et les objections que cette démarche soulève. Cela nous

conduira à revenir sur le problème de la contingence dans l’histoire évolutive. Si ces principes

de design sont le produit de la sélection naturelle, mais qu’ils sont universels, ils pourraient

nous forcer à remettre en cause l’importance de cette contingence. Nous réfléchirons

également aux rapports que la biologie des systèmes pourrait ou devrait entretenir avec la

biologie de l’évolution.

Dans la dernière partie, nous aborderons la question de la nature de ces principes.

Peuvent-ils être considérés comme proprement biologiques ? Si ces principes viennent de

l’ingénierie, s’agit-il vraiment d’une biologie générale ou d’une science des systèmes

complexes ?

6.1. Les explications en termes de design sont non causales et mettent au jour des contraintes. Elles débordent en partie du cadre mécaniste.

Pour clarifier les conséquences que pourrait avoir pour la biologie et notre vision du

vivant la mise au jour de principes généraux d’organisation des systèmes biologiques, tels que

les formulent les explications par design, il est essentiel d’analyser plus en détail la nature de

ces explications. C’est ce que nous nous efforcerons de faire dans cette section et les deux

Page 281: Thèse version3.R

281

suivantes.

Nous soutiendrons la thèse que ce type d’explication sort en partie du cadre

mécaniste, cadre auquel peut être rattaché une bonne partie des recherches en biologie. Nous

avons déjà vu que les explications mécanistes sont profondément dynamiques et causales, or,

comme nous essaierons de le montrer, les explications en termes de design peuvent à bien des

égards être considérées comme non causales. Cette thèse a des conséquences pour le projet

explicatif de la biologie, ainsi que pour l’analyse philosophique qu’on peut en faire.

Ajoutons que les analyses qui vont suivre s’inspirent beaucoup des réflexions

auxquelles s’est livré Michel Morange dans son livre Les secrets du vivant. Dans cet ouvrage,

il souligne l’existence de différents schèmes explicatifs en biologie et insiste sur la nécessité

de leur articulation. Nous nous sommes efforcé de poursuivre ici cette analyse, qui nous

paraît indispensable pour rendre raison de la richesse des sciences biologiques.

Pour comprendre ce qui distingue les explications en termes de design des

explications mécanistes que l’on trouve habituellement en biologie, il faut revenir rapidement

sur ce qui caractérise ces dernières.

6.1.1 Rappel du cadre mécaniste S’il existe, comme nous l’avions vu, différentes définitions de ce qu’est une

explication mécaniste, toutes s’accordent sur le fait qu’il s’agit d’expliquer un processus qui

opère dans l’espace et dans le temps. Cela est particulièrement clair dans les définitions

données dans l’article de Machamer, Craver et Darden, qu’il vaut la peine de rappeler :

« Les mécanismes sont recherchés pour expliquer comment un phénomène est

produit ou comment un certain processus important fonctionne. De manière spécifique : des

mécanismes sont des entités et des activités organisées de telle manière qu’ils produisent des

changements réguliers depuis des conditions de départ ou initiales, jusqu’à des conditions

finales ou terminales. »495

Un mécanisme explique en montrant comment les différentes entités et leurs

activités produisent, étape par étape, l’état final. Ici, l’explanandum, c’est-à-dire le

phénomène à expliquer, correspond aux conditions finales, tandis que l’explanans correspond

aux conditions initiales et aux entités et activités du mécanisme. C’est pourquoi, on peut dire

495 P. Machamer, L. Darden, C. Craver, « Thinking about mechanism », Philosophy of science, 67 (2000) : 2-3.

Page 282: Thèse version3.R

282

que « donner une description d’un mécanisme pour un phénomène, c’est expliquer ce

phénomène, c’est-à-dire expliquer comment il a été produit. »496

Nous allons maintenant essayer de montrer pourquoi les exemples présentés dans le

chapitre précédent ne nous semblent pas bien s’accorder à ces définitions. Nous discuterons le

cas de l’explication de la présence du principe d’integral feedback control dans le mécanisme

de la chémotaxie.

Nous avions vu qu’il existait un bon modèle (en fait plusieurs variantes), capable

d’expliquer beaucoup d’aspects de ce système. Ce modèle est un bon exemple d’explication

mécaniste, puisqu’il explique le comportement du système à partir de ses composants et de

leurs interactions. De ce point de vue, le modèle mathématique développé par Barkai et

Leibler peut être considéré comme un modèle mécaniste, même si sa forme et les questions

auxquelles il devait répondre débordent le cadre classique de la biologie moléculaire.

Cependant, avec l’étude du groupe de Doyle, une différence essentielle apparaît. Il nous

semble que décrire ce système en termes d’integral feedback control revient à expliquer tout

autre chose. La manière dont le processus se déroule n’est pas mieux expliquée. On ne

comprend pas mieux comment la liaison du ligand entraîne une cascade de réaction qui finit

par modifier l’activité du moteur. Dans cette étude, les auteurs montrent qu’il existe un

principe architectural qui permet de comprendre pourquoi ce mécanisme est structuré de cette

manière et pas autrement. Une explication par design n’explique donc pas comment un

processus se déroule, mais pourquoi une structure est présente.

Un tel modèle n’explique pas en termes d’entités et d’activité, bien qu’il y ait

évidemment des entités qui réalisent cette structure et des activités qui produisent ce

phénomène. Des biologistes qui s’efforcent de mettre au jour des principes d’organisation ne

cherchent pas de nouvelles entités ou activités. Il est d’ailleurs tout à fait remarquable que,

dans leur article, Doyle et son groupe ne présentent aucun nouveau résultat expérimental. Ils

ne suggèrent pas l’existence d’une nouvelle protéine qui serait impliquée dans ce processus,

ou d’une nouvelle interaction entre composants. Ils « se contentent » d’analyser un modèle

existant dans un cadre théorique et en tirent de nouvelles conclusions.

Nous avons dit que ce type d’explication n’est pas causal. Cette affirmation peut

paraître étrange et demande à être explicitée. L’idée que nous voulons défendre est que la

relation qui existe entre une contrainte fonctionnelle (la nécessité d’une adaptation parfaite et

robuste) et une structure (l’integral feedback control), n’est pas causale. En effet, il ne semble

496 Ibid., p. 3.

Page 283: Thèse version3.R

283

pas légitime de dire que la fonction cause la structure. La fonction détermine la structure,

mais cette détermination n’est pas causale.

Pour clarifier ce point, nous nous appuierons sur le travail mené par Arno Wouters

sur d’autres exemples de modèles explicatifs qui nous semblent partager cette propriété

originale.

6.1.2 L’analyse de Wouters Il nous faut commencer par reconnaître notre dette à l’égard de Wouters. Ses

analyses nous ont non seulement aidé à comprendre l’originalité de certaines approches en

biologie des systèmes, mais nous lui avons également emprunté l’expression design

explanation.497 Son travail porte sur un autre domaine de la biologie, la physiologie, mais nous

pensons que les intuitions fondamentales de Wouters restent largement valables pour rendre

compte des explications en biologie des systèmes. Un rapide exposé des arguments de

Wouters permettra de mieux comprendre la spécificité de ce type d’explication.

Commençons par considérer un des exemples qu’il discute. Celui-ci concerne la

question suivante : Pourquoi les poissons respirent-ils avec des branchies plutôt qu’avec des

poumons? Pourquoi les tétrapodes respirent-ils avec des poumons, plutôt qu’avec des

branchies? Pourquoi ces organismes ne respirent-ils pas au moyen de leur peau ?

À première vue, ces explications semblent être des explications fonctionnelles

classiques, pourtant, Wouters affirme qu’il existe une différence profonde. La réponse à ces

questions renvoie aux relations existant entre les besoins de l’organisme en oxygène et les

propriétés des surfaces respiratoires. Ces relations sont déterminées par des lois physico-

chimiques.

« La réponse à la première question (pourquoi la respiration est-elle concentrée

dans un organe spécialisé ?) pointe vers les nombreux désavantages qu’il y a à utiliser la

surface entière du corps pour la respiration. Pour atteindre un certain niveau d’activité,

l’organisme doit générer une certaine quantité d’énergie et cela, à son tour, demande une

certaine quantité d’oxygène, ce qui génère une certaine quantité de dioxyde de carbone. De la

loi de Fick, il suit que, si les besoins en oxygène de l’organisme dépassent un certain niveau,

la surface respiratoire doit satisfaire certaines exigences pour pouvoir assurer que le taux de

diffusion (J) soit suffisamment élevé pour répondre aux besoins de l’organisme : (i) la

497 A. Wouters, « Design Explanation: determining the constraints on what can be alive », Erkenntnis, 67 (2007) : 65-80.

Page 284: Thèse version3.R

284

distance à travers laquelle le gaz doit diffuser (x) doit être suffisamment petite, (ii) la surface

disponible pour la diffusion (A) doit être suffisamment grande, et (iii) le matériau à travers

lequel le gaz doit diffuser doit être perméable au gaz. En d’autres termes, la surface

respiratoire doit être mince, grande et perméable. Cela empêche l’animal d’utiliser la surface

entière de son corps pour la respiration : une peau mince est facilement abîmée,

l’accroissement de sa surface extérieure perturberait son profil aérodynamique, et une peau

qui est facilement perméable à l’oxygène et au dioxyde de carbone est également facilement

perméable à l’eau (ce qui est un sérieux désavantage aussi bien sur la terre que dans des

environnements aquatiques, dont la pression osmotique diffère de celles des organismes). Des

organes respiratoires spécialisés fournissent le moyen de résoudre ce problème. »498

Ce raisonnement explique donc pourquoi des organes spécialisés sont nécessaires.

En poursuivant l’analyse, et en tenant compte des différences physiques entre l’air et l’eau, on

peut expliquer selon le même schéma pourquoi les structures de type branchie sont

nécessaires lorsque l’organisme vit dans l’eau et des structures de type poumon sont

nécessaires lorsqu’il vit à l’air libre.

Wouters montre que les conceptions classiques de l’explication fonctionnelle ne

permettent pas de rendre compte des spécificités des explications en termes de design.

Rappelons à ce propos que deux conceptions de l’explication fonctionnelle ont été distinguées

dans la littérature : la conception étiologique et la conception systémique. Les analyses

portant sur des deux conceptions et sur leurs avantages et défauts respectifs sont extrêmement

nombreuses et nous ne pourrons évidemment pas rendre compte de la finesse qu’elles ont

atteint, mais, pour les besoins de notre argumentation, on pourra se contenter d’en rappeler

l’essentiel.499 La conception étiologique définit une fonction selon son origine évolutive. Les

fonctions d’un trait biologique sont les effets pour lesquels il est une adaptation. La

conception systémique définit de son côté la fonction d’un trait comme le rôle causal que

celui-ci joue dans l’organisme.

Selon Wouters, contrairement à ce qu’affirme la conception étiologique, les

explications en termes de design n’expliquent pas en montrant qu’une structure a été

sélectionnée pendant l’évolution. On n’explique pas la présence des poumons en montrant

498 Ibid., p. 70. 499 La littérature est immense sur cette question, mais le recueil suivant est très complet : C. Allen, M. Bekoff, and G. Lauder (ed.), Nature’s Purposes, MIT Press, 1998. Voir également A. G. Wouters, "The Function Debate in Philosophy", Acta Biotheoretica, 53 (2005) : 123-151.

Page 285: Thèse version3.R

285

que ce trait a été maintenu au cours de l’évolution de la lignée, parce qu’il aidait l’organisme

à respirer.

« Premièrement, des explications en termes de design sont contrastives (une

propriété qui est remarquablement absente de toutes les conceptions actuelles de l’explication

fonctionnelle), et elles comparent souvent des organismes réels avec des alternatives

purement hypothétiques qui n’ont jamais existé (les explications évolutives font appel à des

différences de fitness passées entre des variantes qui ont réellement existé). Deuxièmement,

les explications en termes de design portent sur des relations synchroniques entre les

différents traits d’un organisme et l’environnement dans lequel il vit, plutôt que sur ce qui

s’est produit dans le passé. Ainsi, quels que soient les mérites de l’approche étiologique, elle

ne rend pas compte des explications en termes de design. »500

D’autre part, elles ne peuvent pas plus être rattachées à la conception systémique,

car elles ne montrent pas comment un mécanisme contribue au fonctionnement de

l’organisme.

« Etant donné un système (par exemple une branchie ou un poumon) qui réalise une

certaine fonction biologique (par exemple l’échange de gaz), une explication qui spécifie un

mécanisme sous-jacent expliquerait comment la capacité qui réalise ce rôle est produite par

l’activité organisée des parties de ce système (elle expliquerait, par exemple, comment

l’échange de gaz a lieu dans les branchies ou les poumons). Une explication en termes de

design montrerait quant à elle pourquoi ce rôle biologique est réalisé de cette manière, plutôt

que d’une autre manière concevable [...]. Cette explication en termes de design ferait cela en

spécifiant les propriétés des organismes et de leur environnement [...] qui rendent le design

observé meilleur que les alternatives, et en élucidant pourquoi, dans ces circonstances, le

design observé est meilleur que ces alternatives, en faisant appel à des généralisations

invariantes (telles que la loi de diffusion de Fick). »501

Elles révèlent des dépendances fonctionnelles synchroniques et non causales entre

la structure d’un système et l’environnement dans lequel il opère. Le but est de comprendre

pourquoi une certaine structure (un certain design) est meilleure qu’une alternative possible.

Nous ne voulons pas affirmer que les exemples discutés par Wouters et ceux que

nous avions décrits dans le chapitre précédent sont identiques. D’un côté, les explications en

biologie des systèmes semblent moins fortes, dans le sens où il ne s’agit pas de montrer

500 Ibid., p. 3. 501 Ibid.

Page 286: Thèse version3.R

286

directement ce qui permet à un organisme d’être vivant, comme dans le cas du système

respiratoire. Nous ne soutenons pas non plus que les analyses de Wouters s’appliqueraient

sans restriction à la biologie des systèmes. Il nous a toutefois semblé que les similitudes

étaient suffisamment frappantes pour que les arguments développés par Wouters puissent

apporter un éclairage intéressant sur ces questions et nous aider à mieux comprendre

l’originalité de ces approches.

Maintenant que nous avons précisé en quel sens ces explications peuvent être

considérées comme non causales, exposons les raisons qui nous poussent à penser qu’elles

débordent le cadre mécaniste.

6.1.3 Tensions avec le cadre mécaniste Si l’on reconnaît que la biologie des systèmes formule des explications

inhabituelles, doit-on nécessairement penser qu’elles sortent du cadre mécaniste ? On pourrait

rejeter notre interprétation en disant qu’il suffit d’aménager un peu la définition de ce qu’est

une explication mécaniste pour pouvoir rendre compte du genre d’approche que nous avons

présenté. Il faudrait en particulier insister davantage sur l’aspect organisationnel et structural

des mécanismes.

C’est la stratégie adoptée par William Bechtel dans un article récent, dans lequel il

défend la thèse de la compatibilité entre les cadres systémiques et mécanistes. Il écrit : « Le

mécanisme, comme je l’affirmerai, possède les ressources conceptuelles pour donner une

analyse philosophique adéquate du projet explicatif de la biologie des systèmes, mais il ne

peut le faire qu’en donnant autant d’importance à la compréhension des façons particulières

dont les mécanismes biologiques sont organisés, qu’il en a donné à la découverte des parties

des mécanismes et de leurs opérations. »502

Son analyse se fonde essentiellement sur les travaux de Tibor Ganti, que nous

avons déjà évoqué. Mais son argument pourrait être appliqué aux explications en termes de

design. De ce point de vue, le principe de contrôle ne serait qu’une partie de l’explication

mécaniste complète de la chémotaxie.

Il faut reconnaître que cette position semble raisonnable. Nous ne cherchons pas à

défendre une thèse radicale et nous reconnaissons volontiers que les modèles de la biologie

des systèmes sont profondément ancrés dans le cadre mécaniste. Il nous semble toutefois que

502 W. Bechtel, « Biochemical mechanisms : organized to maintain autonomy », in Systems Biology, Philosophical Foundations op. cit.

Page 287: Thèse version3.R

287

la position de Bechtel a le défaut de négliger les changements profonds introduits par

l’utilisation d’outils et de concepts venant de l’ingénierie. Nous avons déjà plusieurs fois

insisté sur l’idée que ces nouvelles méthodes pourraient changer profondément les théories et

les pratiques des biologistes.

Il faut être conscient que les questions posées ne sont pas les mêmes. Au risque de

nous répéter, insistons sur le fait que les explications mécanistes « classiques » cherchent à

expliquer quelles sont les structures qui permettent aux composants de produire un

phénomène et comment ils les produisent. En revanche, les explications en termes de design

cherchent à comprendre pourquoi il s’agit de tel type d’organisation et pas d’un autre. Si, dans

les deux cas, les biologistes s’intéressent à l’organisation, c’est dans deux perspectives très

différentes.

Il faut ajouter que, dans une explication mécaniste, l’organisation n’est importante

que dans la mesure où elle décrit la manière dont les composants interagissent pour produire

le phénomène, alors que, dans une explication en termes de design, les propriétés des parties

ne portent que peu de poids explicatif. Il faut se rappeler que Doyle et ses collaborateurs

considèrent que leur analyse est indépendante de la justesse du modèle particulier sur lequel

ils se sont fondés.

En somme, il nous semble qu’à trop vouloir faire rentrer toute la biologie dans le

cadre mécaniste, on risque de perdre de vue la spécificité et l’originalité des approches

développées actuellement en biologie des systèmes.503

6.2 Différents types d’explications non causales en biologie Pour continuer à explorer les caractéristiques de ces explications en termes de

design, nous voudrions maintenant les comparer avec d’autres types d’explications non

causales que l’on peut identifier en biologie. Pour cela, nous nous appuierons sur le travail de

Michel Morange, qui a récemment analysé en détail cette question.

Morange montre qu’il est possible de distinguer dans la biologie contemporaine

trois schèmes explicatifs : le schème molécularo-mécaniste, le schème darwinien, et enfin ce

503 Ce problème se pose également dans le cas de la théorie de l’évolution par sélection naturelle. Certains philosophes s’efforcent de montrer que le cadre mécaniste est capable de bien rendre compte de cette théorie. Sans vouloir entrer dans ce débat, il faut remarquer que cela ne va pas de soi et que, même si cela était possible, on peut se demander quel serait le gain procuré par une telle extension d’un cadre d’analyse. Pour une analyse critique de cette question, voir R. A. Skipper and R. L. Millstein, “Thinking about Evolutionary Mechanisms: Natural Selection,” in Carl F. Craver and Lindley Darden (eds.), Special Issue: “Mechanisms in Biology,” Studies in History and Philosophy of Biological and Biomedical Sciences, 36 (2005) : 327-347.

Page 288: Thèse version3.R

288

qu’il nomme le schème physique non causal. S’il ne voit pas d’incompatibilité entre ces trois

schèmes, il souligne bien leurs particularités et surtout la difficulté qu’ont souvent les

biologistes à les articuler. Nous nous intéresserons ici au schème physique non causal.

Voyons quels sont les exemples donnés par Morange pour illustrer cette catégorie.

Notons tout d’abord qu’il y rattache les cas de la propriété scale-free, ainsi que celui des

motifs de réseaux. Il discute également deux cas qui ont suscité beaucoup de discussions :

l’existence de lois d’allométrie et le phénomène de phyllotaxie.

Les lois d’allométrie sont des lois qui « relient un certain nombre de

caractéristiques des êtres vivants à leur taille. »504 Un exemple connu concerne le fait que

l’activité métabolique d’un organisme est proportionnelle à sa masse portée à la puissance

trois quarts. La durée de vie d’un organisme varie quant à elle en fonction de sa masse portée

à la puissance un quart.

Les phénomènes de phyllotaxie correspondent à une particularité remarquable de

beaucoup de végétaux : l’organisation de certaines de leurs structures (par exemple les feuilles

sur le long de la tige) en spirales, dont les propriétés géométriques étonnent depuis longtemps

les scientifiques. Morange montre qu’en plus d’explications darwiniennes et mécanistes, des

explications physiques de ce phénomène ont été proposées : « la spirale est la forme

géométrique qui se forme naturellement si les éléments dont on étudie la répartition, aiguilles

de pommes de pin ou feuilles sur une tige, sont engendrés à partir de petits disques empilés de

manière optimale sur une surface cylindrique. »505

Tous ces exemples sont considérés par Morange comme relevant de la catégorie

d’explication physique non causale, parce qu’il s’agit toujours de mettre au jour des relations

non temporelles et des contraintes pesant sur les systèmes vivants. Il semble donc que nos

exemples de biologie des systèmes sont à classer dans cette catégorie.

On peut toutefois se demander si cette catégorie est homogène. Dans quelle mesure

ce regroupement est-il naturel et robuste ? Morange reconnaît que ce choix est discutable.

Selon lui, certaines de ces explications ne seraient que temporairement non causales, comme

dans le cas de l’allométrie. D’autres seraient au contraire purement non causales, dans le sens

où elles ne feraient que révéler les contraintes pesant sur la liberté du système.

Si nous ne voulons pas remettre en question la pertinence de cette classe

d’explications, il nous semble qu’il est possible de raffiner cette caractérisation, ce qui nous

permettrait de mieux cerner la particularité des explications proposées par la biologie des 504 M. Morange, op. cit., p. 97. 505 Ibid., p. 100.

Page 289: Thèse version3.R

289

systèmes. Nous voulons proposer ici une distinction entre deux types d’explications non

causales.

Le premier type comprend les explications en termes d’auto-organisation et les lois

de coexistence. L’essence de ces explications est de montrer que, lorsque certaines propriétés

structurales sont présentes, d’autres propriétés, structurales ou fonctionnelles, émergent

naturellement. Prenons le cas des relations d’allométrie. Elles révèlent que des structures

anatomiques de l’organisme peuvent (ou pourraient) déterminer d’autres propriétés, comme la

durée de vie. Ces relations peuvent être considérées comme des lois de coexistence et dans ce

sens, elles ne sont pas causales.

Tous les modèles d’auto-organisation, que ce soit le modèle de Turing de la

morphogenèse ou les modèles de Kauffman sur les propriétés génériques des réseaux

booléens peuvent à notre avis être rattachés à cette catégorie. En effet, Turing a montré que, si

l’on considère un système simple de réaction-diffusion, certaines structures peuvent en

émerger. Kauffman a prouvé de son côté que les propriétés dynamiques de ses réseaux varient

avec la connectivité. Au-dessus d’une certaine valeur, le réseau est chaotique, au-dessous, il

est figé et, pour une valeur particulière, on observe l’apparition de propriétés remarquables,

comme la présence d’attracteurs, qui peuvent être fonctionnellement importantes.

En revanche, le cas des explications en termes de design procèdent différemment.

Comme nous l’avons souligné dans le chapitre précédent, elles révèlent que certaines

structures, ou modes d’organisation, sont nécessaires (ou hautement préférables ; nous

reviendrons sur ce point un peu plus loin) pour réaliser une fonction particulière ou pour avoir

des propriétés comme la robustesse. Une manière de formuler cette différence est de dire que

les explications en termes d’auto-organisation montrent comment les structures contraignent

les fonctions (ou d’autres structures), tandis que les explications en termes de design montrent

comment les fonctions contraignent les structures.

Bien entendu, ces deux types d’explications sont complémentaires. Pour pouvoir

montrer que la réalisation d’une certaine fonction nécessite une structure spécifique, il faut

d’abord comprendre comment des propriétés fonctionnelles émergent de cette structure.

Si Michel Morange a considéré que toutes ces explications relevaient de la même

catégorie, c’est parce qu’il pense qu’elles ont en commun de révéler les contraintes qui pèsent

sur les systèmes biologiques et qu’elles délimitent le champ du possible. Cette raison nous

semble bonne et forte, mais ce que nous venons de dire nous conduit à distinguer des

contraintes de nature différente, comme nous allons le voir dans la section suivante.

Page 290: Thèse version3.R

290

6.3 Différentes notions de contrainte en biologie Les explications en termes de design correspondent à la mise au jour de contraintes.

Mais il faut se demander quel type de contrainte est ici en jeu. En effet, on sait que cette

notion est très importante en biologie, mais qu’elle a pris différents sens au cours de son

histoire. On peut distinguer au moins deux grands types de contraintes qui ont récemment

reçu l’attention des biologistes et des philosophes de la biologie. Le premier type est

historique et a pris de l’importance dans le domaine qu’on appelle depuis peu evo-devo. Le

second correspond aux contraintes physiques et aux principes d’auto-organisation.

Nous allons exposer les caractéristiques de ces deux classes dans leurs grandes

lignes. Ce détour sera important, car il nous permettra de montrer que les explications par

design relèvent d’une troisième forme de contrainte.

6.3.1 Les contraintes évolutives Une définition classique des contraintes évolutives est de dire que la constitution

d’un organisme et ses mécanismes développementaux limitent le domaine des variations qui

peuvent apparaître dans cet organisme.506 On peut également les définir comme la résistance

d’organisations intégrées aux modifications et aux réorganisations. Raff écrit : « La nature des

systèmes développementaux existants contraint ou canalise d’une certaine manière les

changements possibles. »507 Le concept de generative entrenchment proposé par William

Wimsatt relève également du même ordre d’idée.508 Ces contraintes développementales

peuvent être considérées comme historiques dans la mesure où le chemin évolutif que va

pouvoir explorer une lignée dépend des principes de construction qui ont été retenus à un

moment de l’histoire évolutive.

Ce genre de contrainte n’est évidemment pas facile à identifier. L’absence de

certains phénotypes n’est pas suffisante, car ce peut être le résultat de la sélection. Idéalement,

il faut disposer d’indications expérimentales montrant que la variation est biaisée.

506 J. Maynard Smith et al., “Developmental constraints and evolution”, Quarterly Review of Biology, 60 (1985) : 265-287. 507 R. Raff, The Shape of Life : Genes, Development and the Evolution of Animal Form, Chicago, University of Chicago Press, 1996. 508 W. C. Wimsatt and J. C. Schank, « Two constraints on the evolution of complex adaptations and the means of their avoidance », in M.H. Nitecki (ed.), Evolutionary Progress, Chicago, University of Chicago Press, 1988, pp. 231-275.

Page 291: Thèse version3.R

291

6.3.2 Les contraintes physiques (structuralisme) Divers chercheurs ont défendu, sous une forme ou sous une autre, l’importance des

contraintes physiques. Nous n’allons pas entrer dans une comparaison fine de ces différentes

positions. Tout ce qui importe est de comprendre le caractère non historique de ce type de

contraintes.

L’auteur auquel on pense immédiatement lorsqu’on aborde la question des

contraintes physiques est D’Arcy Thompson. On sait que son livre majeur, On growth and

form509, était largement consacré à l’étude de la manière dont les lois physiques déterminent

de nombreux aspects des organismes vivants. Ces travaux ont suscité un certain scepticisme

chez les biologistes, mais certains principes sont reconnus comme évidents. Il est par exemple

clair que la hauteur d’un arbre ou la structure de nos os sont contraints par la force de

gravitation qui règne sur notre planète. À leur manière, les recherches de Stuart Kauffman

correspondent également à l’étude de contraintes physiques, bien qu’elles soient d’un type

différent. Nous avons vu que ce dernier voulait comprendre comment la mécanique statistique

des réseaux complexes déterminait les propriétés fondamentales du vivant.

Il existe également tout un courant structuraliste, qui s’est attaché à étudier les

formes qui émergent spontanément des systèmes physiques. Pour les structuralistes, la plupart

des propriétés morphologiques des organismes peut être expliquée par les lois physiques qui

génèrent les structures au cours du développement. Brian Goodwin est certainement le

représentant le plus connu de ce mouvement.510 Ce structuralisme fort fait l’hypothèse que le

nombre de structures possibles est limité et que celles-ci correspondent à des états génériques.

Cela le conduit à définir l’homologie de manière non historique : l’important n’est pas

l’appartenance à une même lignée, comme c’est le cas dans la définition courante de

l’homologie, mais la possession de principes morphogénétiques communs. Ce qui compte, ce

sont les règles qui déterminent les comportements et les propriétés des champs

morphogénétiques.

Il faut toutefois noter que ces thèses sont très controversées dans la communauté

scientifique. Si personne ne doute que les contraintes physiques sont importantes, on peut

penser que la position des structuralistes est un peu extrême. Pour Raff, le structuralisme fort,

509 D’Arcy Thompson, On Growth and Form, Cambridge, Cambridge University Press, 1917. 510 Voir par exemple, B. Goodwin, How The Leopard Changed Its Spots : The Evolution of Complexity, Charles Scribner and Sons, 1994.

Page 292: Thèse version3.R

292

qui implique l’existence de formes platoniciennes qui préexistent au processus évolutif, est

pré-darwinien.511

Ce qu’il faut retenir, c’est que, chez tous ces auteurs, l’histoire évolutive ne joue

aucun rôle. Les explications qu’ils ont proposées sont donc fondamentalement non

historiques.512

Ajoutons que ces deux types de contraintes ne doivent pas être vus de manière

indépendante. Par exemple, les cas de l’allométrie et de la phyllotaxie reflètent ces deux

aspects. En effet, si certaines propriétés structurales d’un organisme déterminent d’autres

aspects de sa morphologie ou de sa physiologie (c’est-à-dire certains de ses traits), alors ces

traits ne pourront être modifiés sans que les structures de bases le soient également. Par

exemple, la disposition des feuilles le long de la tige ne pourra être modifiée si la structure

d’empilement des disques qui la génère n’est pas elle-même changée. Ainsi, les contraintes

physiques canalisent les voies évolutives qui pourront être suivies.

6.3.3 Les contraintes de design relèvent d’un autre type de contrainte Cette trop rapide caractérisation des deux formes de contraintes habituellement

discutées en biologie suffit à indiquer ce qui singularise les contraintes identifiées par la

biologie des systèmes. D’une part, elles ne sont pas historiques, et d’autre part, elles ne

dépendent pas directement des lois physiques. Cette dernière affirmation pourra sembler

problématique. En effet, est-il si évident que les principes de contrôle sont irréductibles à la

physique ? C’est une des thèses centrales des anciennes théories systémiques et de la

cybernétique, qui soulignaient que leurs principes ne dépendaient pas des lois physiques. Ce

qui doit être relevé, c’est que ces principes sont fondés sur des propriétés fonctionnelles, qui

échappent au domaine de la physique. En effet, il s’agit toujours de déterminer comment une

fonction contraint le domaine des solutions structurales possibles.

Il est par conséquent important de voir que ces contraintes s’ajoutent aux

précédentes et ne s’y réduisent pas. Lorsqu’il discute le cas des réseaux métaboliques, Michel

Morange affirme avec raison : « il existe plusieurs chemins métaboliques possibles, et les

voies utilisées aujourd’hui par les organismes sont le fruit à la fois des contraintes

thermodynamiques et de l’histoire des êtres vivants qui nous ont précédés et qui ont choisi,

511 R. Raff, op. cit. Notons que Raff distingue également une forme plus faible de structuralisme, qui pourrait se rapprocher des explications en termes de design. 512 Sur ces questions, voir également l’ouvrage suivant : C. David Rollo, Phenotypes, Chapman and Hall, 1995.

Page 293: Thèse version3.R

293

dans un environnement chimique bien particulier, de privilégier telle ou telle voie. »513 Or,

d’après notre analyse, il faudrait ajouter que ces voies sont également le fruit de contraintes au

niveau des modes d’organisation et de contrôle et celles-ci ne sont pas directement données

par des lois physiques.

Pour mieux cerner cette distinction, il est nécessaire de clarifier les rapports entre

ces principes de design, les principes d’auto-organisation et la sélection naturelle.

6.4 Rapports entre principes de design, auto-organisation et explications sélectives

Nous avons montré dans la section précédente que les principes d’organisation

étudiés par la biologie des systèmes ne correspondaient pas aux contraintes généralement

reconnues en biologie. Une des particularités de ces principes réside dans leur rapport avec le

principe de sélection naturelle. Nous voulons insister sur le fait que, contrairement aux

modèles d’auto-organisation, les principes de design ne sont pas en tension avec la sélection

naturelle.

Une des thèses sous-jacentes aux théories de l’auto-organisation est que le cadre

néo-darwinien est incomplet. Il ne pourrait, sous sa forme actuelle, expliquer un certain

nombre de phénomènes biologiques. Le problème serait qu’il repose essentiellement sur le

principe de sélection naturelle et que celui-ci serait insuffisant pour rendre compte de

l’extraordinaire complexité du vivant. Les lois d’auto-organisation combleraient ce vide

explicatif.

Les auteurs que nous venons de mentionner (D’Arcy Thompson, Kauffman,

Goodwin, etc) ont tous défendu l’idée que l’organisation des systèmes biologiques n’était pas

avant tout le résultat d’un processus de sélection, mais le résultat de forces physiques et

chimiques. La sélection naturelle n’interviendrait qu’ultérieurement, pour faire des

ajustements fins de ces structures, qui apparaissent spontanément. En d’autres termes, la

sélection naturelle ne crée pas réellement ces structures, mais en dispose.514

La question qui se pose naturellement est de savoir si la biologie des systèmes

rejoint cette vision, à travers le concept de principe de design. C’est ce que semblent penser

O’Malley et Dupré lorsqu’ils écrivent : « Une dernière question porte sur la manière dont le

513 M. Morange, op. cit., p. 96. 514 Sur ces questions, voir B. H. Weber and D. J. Depew, « Darwinism, design, and complex systems dynamics », in W. A. Dembski and M. Ruse (Eds.), Debating Design, Cambridge, Cambridge University Press, 2004.

Page 294: Thèse version3.R

294

transfert vers la biologie des concepts et outils de l’ingénierie systémique (tels que la

robustesse et le design des circuits) affectera des concepts biologiques tels que l’évolution et

la sélection. Tandis que les défenseurs de l’approche théorique des systèmes pourraient

considérer comme évidente et raisonnable la relégation de la sélection au « réglage fin » des

structures fondées sur des principes de design, les biologistes pragmatiques des systèmes– qui

sont plus enclins à donner la priorité aux notions de contingence, de bricolage et d’adaptation

– seront plus sceptiques quant à laisser prédominer le cadre conceptuel du design. Si des

principes généraux de design pouvaient « surclasser » la sélection contingente, la science de la

biologie pourrait une fois encore être conçue comme une recherche de lois plutôt que comme

l’investigation de résultats historiques de généralité inconnue. »515

Nous retrouvons ici la dichotomie entre les deux types de biologies des systèmes.

Selon ces auteurs, la voie théorique accepterait la thèse selon laquelle des lois d’auto-

organisation existeraient en amont du processus de sélection et expliqueraient l’existence de

principes architecturaux. En revanche, la voie pragmatique resterait attachée à une conception

sélectionniste et ne serait pas encline à admettre des principes de ce genre.

Nous allons poursuivre ici notre critique de cette manière de décrire la biologie des

systèmes, car elle ne nous paraît pas donner une image fidèle des tendances actuelles. S’il

existe effectivement un courant qui reprend les thèses de l’auto-organisation, O’Malley et

Dupré ignorent l’existence des approches bottom-up, qui acceptent l’idée que les systèmes

biologiques sont avant tout le produit de la sélection, mais qui admettent dans le même temps

que celle-ci a pu mener à des principes de design. Ainsi, contrairement à ce que soutiennent

ces auteurs, nous voulons souligner qu’il existe une troisième voie entre, d’un côté, les

principes de design issus de l’auto-organisation et, de l’autre, l’absence de tels principes due à

l’action contingente de la sélection (et qui serait en gros la position standard des biologistes

moléculaires). Nous reviendrons dans un instant sur la question de la contingence, mais

commençons par réfléchir au rôle joué par la sélection dans ce nouveau cadre.

Nous pensons avoir montré assez clairement dans le chapitre précédent que les

principes de design ne correspondent pas à quelque chose qui viendrait s’ajouter à la sélection

naturelle. La thèse selon laquelle les systèmes biologiques seraient construits selon des

principes généraux de design n’implique pas qu’il n’y aurait pas eu (ou qu’il y aurait eu

moins) de sélection. La thèse que défendent des chercheurs comme Uri Alon est que la

sélection retombe toujours sur les mêmes solutions. « Les motifs de réseaux ont des fonctions

515 M. O’Malley and J. Dupré, op. cit., p. 1274.

Page 295: Thèse version3.R

295

de traitement de l’information définies. L’avantage de ces fonctions pourrait expliquer

pourquoi les mêmes motifs de réseaux sont redécouverts par l’évolution encore et encore dans

divers systèmes. »516

D’après les approches de type ingénierie, l’ordre que l’on trouve dans les réseaux

biologiques est surtout le reflet d’une pression de sélection : sélection pour les systèmes

robustes et pour certaines fonctions générales. Il s’agit de solutions générales à des problèmes

fonctionnels similaires.

« Des forces motrices communes sous-tendent-elles l’organisation des réseaux

biologiques ? Il semble invraisemblable de suggérer que de telles forces puissent exister, étant

donné que les entités biologiques impliquées sont aussi différentes que des gènes, des

enzymes et des cellules entières. Pourtant, même des systèmes fonctionnellement

indépendants pourraient avoir évolués sous des contraintes fondamentales. »517

La sélection est donc la cause de l’apparition de ces structures et ne se limite pas à

des ajustements (fine tuning). On ne peut donc pas dire que les principes de design

domineraient ou surpasserait (trump) la sélection naturelle, comme c’est le cas dans une

approche structuraliste.

Pourtant, nous avons dit plus haut que les explications en termes de design

n’expliquaient pas en renvoyant à une histoire sélective. Ne sommes-nous pas en train de

nous contredire de manière flagrante ?

La solution à ce paradoxe apparent est tout simplement que si, en dernière analyse,

ces explications sont fondées sur la sélection, celle-ci n’est pas directement mobilisée. Un

parallèle avec ce qu’Eliott Sober a appelé des explications en termes d’équilibre pourra nous

aider à préciser cette idée.518

L’exemple discuté par Sober est l’explication de l’équilibre du ratio des sexes dans

une population, qui fut formulée pour la première fois par Fisher.519 Selon ce modèle, si une

population s’écarte de l’équilibre entre le nombre de mâles et de femelles, les individus qui

produiront un excès de descendants du sexe minoritaire jouiront d’un avantage sélectif, ce

qui aura pour effet de ramener la population à l’équilibre.

Selon Sober, ce type d’explication n’est pas causal, car il correspond à une

disjonction de différents processus causaux. Ainsi, s’il existe en principe une explication 516 U. Alon, Introduction to Systems Biology, op. cit., p. 41. 517 R. Prill et al., « Dynamic Properties of Network Motifs Contribute to Biological Network Organization », PLoS Biology, 3 (2005) : 1881-1892. 518 E. Sober, « Equilibrium Explanation », Philosophical Studies, 43 (1983) : 201-210 519 R. Fisher, The genetical theory of natural selection, Clarendon, 1930.

Page 296: Thèse version3.R

296

causale et sélective dans chaque cas, l’explication en termes d’équilibre permet une

compréhension qu’on n’aurait pas en restant au niveau des histoires causales particulières.

Sober écrit : « alors qu’une explication causale montre comment l’événement à

expliquer a été en réalité produit, l’explication en termes d’équilibre montre comment

l’événement se serait produit, sans se préoccuper de savoir quel scénario causal, parmi toute

une variété, s’est véritablement réalisé. »520

Nous pensons que, dans les exemples que nous avons analysés, le raisonnement est

similaire. Il existe certainement des processus sélectifs qui pourraient expliquer pourquoi un

certain design est toujours présent dans une classe de systèmes, mais ce n’est pas en ces

termes que l’explication est formulée. Remarquons que c’est pour cette raison qu’on ne peut

pas considérer que ces exemples correspondent au schème explicatif de type darwinien.

Ajoutons encore que, si nous voulions (et pouvions) réduire ces explications à des événements

sélectifs, nous perdrions certainement beaucoup en termes de compréhension et d’unification.

Récapitulons ce que nous venons de dire. Une partie de la biologie des systèmes

vise à comprendre comment les fonctions que réalisent les systèmes biologiques déterminent

ou du moins contraignent fortement leurs structures. L’étude de ces contraintes fonctionnelles

prend la forme d’explications non causales et non mécanistes. Ces contraintes sont d’un genre

inhabituel en biologie, puisque, d’une part, elles ne sont ni historiques, ni développementales,

ni physiques. D’autre part, elles ne correspondent pas à des principes d’auto-organisation, qui

viendraient s’ajouter à la sélection naturelle ; elles sont le produit de cette sélection. Pourtant,

ces explications ne cherchent pas à montrer comment ces structures ont été sélectionnées.

Elles s’appuient sur des principes généraux d’ingénierie qui affirment, soit qu’il est

nécessaire, soit qu’il est très avantageux de suivre ces principes pour obtenir ces

comportements ou ces propriétés fonctionnelles.

À ce stade de notre analyse, plusieurs questions se posent. Comme nous l’avons

déjà signalé plusieurs fois dans ce travail, la méthodologie suivie par la biologie des systèmes

est une sorte d’ingénierie inverse (reverse engineering), c’est-à-dire qu’elle s’efforce de

comprendre la manière dont sont construits (designed) les systèmes biologiques, à partir de

l’étude de leurs structures et des fonctions qu’ils doivent assurer. Cette démarche repose sur

l’assimilation des organismes à des artéfacts. Cette pensée a une longue histoire en biologie,

mais elle soulève un certain nombre de problèmes. Qu’est-ce qui justifie cette comparaison et

par conséquent la méthode d’ingénierie inverse ?

520 E. Sober, op. cit., p. 202.

Page 297: Thèse version3.R

297

Nous allons constater qu’on retrouve ici le problème classique de l’adaptationisme.

En effet, pour appliquer des principes d’ingénierie, on semble présupposer que l’organisation

des systèmes biologiques est une adaptation et qu’ils ont été « conçus » de manière optimale.

L’idée que l’évolution a pu aboutir à des principes optimaux de design semble également être

en tension avec les idées de bricolage évolutif et de la contingence fondamentale des

processus évolutifs. Au vue de ces difficultés, peut-on considérer que ces hypothèses sont

fondées ?

Ces problèmes sont complexes et ont engendré une vaste littérature. Les ambitions

de la biologie des systèmes rendent ces questions difficilement contournables, même si nous

ne pourrons que donner une analyse générale de ces problèmes et proposer certaines pistes de

réflexion.

6.5 Quelques problèmes posés par la comparaison entre systèmes naturels et artificiels : adaptationisme, optimalité, bricolage et contingence

6.5.1 Le problème général de l’artifact thinking Dans son livre intitulé Organisms And Artifacts521, Tim Lewens a analysé en détail

la nature ainsi que les limites des comparaisons faites entre organismes et systèmes artificiels

en biologie, ce qu’il appelle « the artifact model of evolution ». Lewens définit ce cadre de la

manière suivante : « l’approche du monde organique qui l’aborde comme s’il était conçu

(designed), en parlant de problèmes environnementaux, de solutions organismiques, du but

des traits, et du design des adaptations. »522 Autre formulation : « Le modèle de l’artéfact

préconise une investigation de la nature en utilisant la supposition que l’évolution suit un

processus de type design, qui peut être compris et prédit de la même manière dont nous

comprenons et prédisons les processus de conception intentionnelle. »523

Des auteurs comme Daniel Dennet ont vigoureusement défendu cette manière

d’aborder l’étude des organismes vivants. Dennet pense que cette méthodologie est non

seulement féconde, mais en réalité absolument nécessaire.524 Cette idée est ancienne,

puisqu’on peut la faire remonter en tout cas jusqu’à William Paley, qui, comme on le sait,

521 T. Lewens, Organisms And Artifacts, Design in Nature and Elsewhere, Cambridge (Massachusetts), The MIT Press, 2004. 522 Ibid., p. 39 523 Ibid., p. 42 524 D. Dennet, op. cit.

Page 298: Thèse version3.R

298

justifiait l’existence d’un créateur divin en soulignant la ressemblance entre les organismes et

les objets conçus et produits par l’homme.

Lewens distingue deux formes d’artifact thinking. La première est l’ingénierie

inverse, que nous avons déjà évoquée. Celle-ci consiste à inférer les problèmes posés par

l’environnement, ainsi que les contraintes portant sur les solutions possibles, à partir de

l’observation des traits de l’organisme considéré. La seconde est l’adaptive thinking, qui part

des problèmes adaptatifs auxquels l’organisme doit faire face, et s’efforce de prédire les

solutions qui seront adoptées. On peut ajouter les approches de modèles d’optimalité

(optimality models), qui étudient comment un certain trait est optimal par rapport à un

ensemble de contraintes et de pressions de sélection.

Cette manière de considérer les organismes et les stratégies de recherche qu’elle

favorise a donné lieu à différentes critiques. Nous allons aborder quelques-uns de ces

problèmes, qui nous aideront à mieux comprendre le projet de la biologie des systèmes, ainsi

que ses limites potentielles.

6.5.2. L’adaptationisme L’adaptationisme peut être défini comme la thèse selon laquelle les traits d’un

organisme sont dans leur majorité le résultat d’un processus de sélection naturelle, c’est-à-dire

qu’ils contribuent à la survie et au succès reproductif de ce dernier et sont présents pour cette

raison. Cette position donne donc une place prépondérante à la sélection naturelle dans

l’explication des formes de vie.

Cette manière de concevoir les organismes a subi depuis une trentaine d’années le

feu nourri de différentes critiques.525 Ce qu’on lui reproche très souvent, c’est d’être une sorte

de panglossisme (du nom du personnage du Candide de Voltaire), c’est-à-dire de présupposer

que tous les traits d’un organisme sont les meilleurs qu’il est possible d’imaginer.

Nous ne pourrons que survoler ces problèmes, qui risqueraient de nous entraîner

trop loin. Premièrement, il faut admettre qu’un trait peut être utile sans être une adaptation

(c’est-à-dire sans avoir été sélectionné). Deuxièmement, l’adaptationisme a tendance à ignorer

les contraintes évolutives que nous avons évoquées plus haut (certains des traits sont présents

simplement parce qu’ils étaient présents chez les ancêtres). Troisièmement, cette position

525 L’article fondateur de ce mouvement critique est le suivant : S. J. Gould and R. C. Lewontin, « The spandrels of San Marco and the Panglossian paradigm : A critique of the adaptationist programme », Proceedings of the Royal Society of London, B 205 (1978) : 581-598.

Page 299: Thèse version3.R

299

suppose que les traits sont indépendants et qu’il est par conséquent possible de proposer une

histoire évolutive pour chaque trait (ce deuxième point est lié au précédent). Cette supposition

est problématique. D’une part, certains traits ne peuvent changer parce qu’ils nécessiteraient

des modifications trop importantes dans l’ensemble de l’organisme. D’autre part, certains

traits peuvent évoluer sous l’effet d’une modification dans une autre partie de l’organisme. Le

dernier problème que nous mentionnerons est qu’il est difficile de falsifier ces scénarios

(Gould et Lewontin les appellent des « just so stories »).

Pour ces raisons, lorsque l’on considère n’importe quel trait d’un organisme, il ne

faudrait pas se demander quel problème environnemental a déterminé sa forme, mais

s’efforcer de démêler les différentes raisons (historiques, développementales, etc.) qui

pourraient contribuer à expliquer ses caractéristiques actuelles. Ghiselin défend une thèse de

cet ordre lorsqu’il affirme : « Le panglossisme est mauvais parce qu’il pose la mauvaise

question, c’est-à-dire, Qu’est-ce qui est bon ?... L’alternative est de rejeter complètement une

pareille téléologie. Plutôt que de se demander, Qu’est-ce qui est bon ?, nous nous demandons,

Que s’est-il passé ? »526

6.5.3. Les modèles d’optimalité La critique anti-adaptationiste a logiquement pris pour cible le développement de

modèles d’optimalité, qui est l’une des formes qu’a pris le raisonnement adaptatif. Le

problème est le même : on suppose que la meilleure solution à un problème a pu être trouvée.

Or, ce n’est pas toujours le cas, ni dans le domaine du vivant, ni dans celui de l’ingénierie.

Un des problèmes est qu’il y a sous-détermination. Si l’on veut expliquer un trait à

l’aide d’un modèle d’optimalité, plusieurs scénarios seront possibles. Comme le souligne

Lewens, ce n’est pas parce qu’on a pu formuler un scénario adaptatif compatible avec le trait

observé que ce scénario est vrai. Il faut adopter une vision évolutive du problème. Par

exemple, dans le cas classique de l’évolution du mélanisme des ailes de la phalène du bouleau

Biston betularia, en réponse à l’augmentation de la pollution et de l’assombrissement du tronc

des arbres, on admet que le problème adaptatif explique le trait (fonction de camouflage).

Mais Lewens rappelle que ce scénario, pour être validé, exige un certain nombre d’autres

preuves empiriques : notamment sur le système visuel des oiseaux (prédateurs) et le

comportement des phalènes. En effet, si les oiseaux ne font pas la différence entre les deux

526 Cité dans T. Lewens, op. cit., p. 41.

Page 300: Thèse version3.R

300

formes, l’explication ne sera pas valide. Il ne rejette pas cette stratégie, mais rappelle qu’elle

doit inciter à la prudence.

La deuxième forme de stratégie, l’adaptive thinking, c’est-à-dire lorsqu’on part

d’un problème à résoudre et que l’on infère la solution probable, doit également être menée

avec précaution. La critique qu’on peut faire à ce type de raisonnement est que, très souvent,

le problème fonctionnel est défini de manière large. Lewens pense que, « Si tout ce que nous

connaissons d’un artéfact ce sont les problèmes larges pour la solution desquels il fut conçu,

alors cela ne nous renseignera que très peu sur sa structure et son fonctionnement interne. »527

Il est donc nécessaire d’ajouter des informations sur le contexte. Lewens attaque

particulièrement la psychologie évolutionniste, qui s’efforce d’inférer la structure et le

fonctionnement de l’esprit à partir des problèmes que notre espèce a dû résoudre au cours de

son histoire. Dans ce cas, les hypothèses sur notre environnement au cours de notre évolution

sont difficiles à tester et souvent très vagues.

La conclusion de Lewens sur les inférences entre structures et fonctions est qu’elles

doivent être conduites avec la plus grande prudence. « Ce que le modèle de l’artéfact

recommande pour l’investigation des organismes et des artéfacts, c’est l’accumulation

d’autant de données que possible sur la structure et le comportement de l’objet à investiguer,

les pressions fines de sélection (le critère de choix) dans l’environnement dans lequel il a été

formé, et une compréhension du domaine de variants avec lequel il a dû être en

compétition. »528

Le problème de la légitimité d’une approche inspirée de l’ingénierie pour l’étude

des organismes vivants a également été soulevé par François Jacob, à travers sa métaphore du

bricolage évolutif. Un rappel de son analyse nous permettra de poursuivre l’exploration des

difficultés que pourrait rencontrer la démarche de la biologie des systèmes et des tensions

qu’elle pourrait engendrer avec des conceptions traditionnellement admises.

6.5.4. L’idée de bricolage évolutif (ou le baroque de la nature) Dans un article célèbre529, François Jacob a défendu la thèse selon laquelle

l’évolution ne procédait pas selon un processus d’optimisation, mais par une sorte de

bricolage.

527 T. Lewens, op. cit., p. 60. 528 Ibid., p. 63. 529 F. Jacob, « Evolution and tinkering », Science, 196 (1977) : 1161-1166.

Page 301: Thèse version3.R

301

Jacob part de l’idée que la sélection naturelle crée de la nouveauté à partir de la

réutilisation et de la recombinaison de vieux matériaux : on peut dire qu’elle fait du neuf avec

du vieux. Contrairement à ce qui est parfois dit, l’évolution ne procède donc pas à la manière

d’un ingénieur. Premièrement, l’ingénieur travaille en fonction d’un plan prédéfini ; il connaît

le résultat auquel il veut aboutir. Deuxièmement, il dispose de matériel et d’outils

spécialement conçus pour la tâche à réaliser. Troisièmement, et ce point est important, les

objets qu’il construit atteignent normalement une sorte de perfection (qui dépend évidemment

des possibilités technologiques du moment).

Jacob contraste cette manière de procéder avec ce qu’on observe au cours de

l’évolution. Celle-ci, nous dit-il, mène rarement à la perfection. Elle opère comme un

bricoleur, qui utilise tout ce qu’il trouve autour de lui pour produire un objet qui fonctionne,

souvent en donnant une fonction inattendue à des objets initialement conçus pour tout autre

chose. Elle fera une partie d’oreille à partir d’un morceau de mâchoire, comme le bricoleur

construira une roulette à partir d’une vieille roue de vélo. Cette manière de procéder explique

qu’au niveau moléculaire, on constate qu’entre différents organismes, il y a surtout des

variations sur des thèmes communs. Les différences viennent presque toujours de la manière

d’organiser les mêmes gènes ou les mêmes protéines. La variété se crée à partir de différences

de régulation plus que de structure. C’est un bon exemple de réutilisation de composants pour

remplir des fonctions différentes.

Une des particularités de cette manière de procéder est que l’objet auquel le

bricoleur va aboutir dépendra profondément de ce qu’il aura sous la main pendant la

construction. L’idée qui nous intéresse avant tout ici est que, contrairement à des ingénieurs,

des bricoleurs qui s’attaquent à un même problème vont sans doute parvenir à des solutions

différentes. Jacob prend l’exemple de la vision qui a évolué plusieurs fois selon des voies

complètement différentes. « Il est difficile de réaliser que le monde vivant tel que nous le

connaissons n’est qu’une parmi de nombreuses possibilités ; que sa structure actuelle résulte

de l’histoire de la terre. Pourtant, les organismes vivants sont des structures historiques :

littéralement des créations de l’histoire. Elles représentent, non pas un produit parfait de

l’ingénierie, mais un patchwork d’ensembles bizarres, assemblés quand et où les opportunités

se sont présentées. » 530

Cette dernière phrase suggère que les organismes sont des constructions baroques,

qui ne répondent pas à une logique simple. Cette idée a gagné en popularité à mesure que les

530 Ibid., p. 1166.

Page 302: Thèse version3.R

302

biologistes prenaient la mesure de la fabuleuse complexité des mécanismes moléculaires.

L’évolution de la biologie du développement au cours des cinquante dernières années en offre

une bonne illustration. L’idée de programme génétique proposée au début des années 60, à

partir de la découverte de la régulation de l’expression des gènes, suggérait que le

développement était encodé dans l’ADN d’une manière qui pouvait être décryptée et

comprise. On espérait ainsi découvrir quelques principes relativement simples, comme ce fut

le cas pour le code génétique. Cet espoir fut assez rapidement déçu, à mesure que des

nouveaux mécanismes de régulation étaient découverts. De manière tout à fait

symptomatique, dans un article écrit au début des années 80, Lewin se demandait pourquoi le

développement était aussi illogique (il rapportait en fait des réflexions de Sydney Brenner)531.

Sydney Brenner, qui avait tant contribué à l’étude systématique du vers C.elegans,

dans l’espoir de déchiffrer le programme génétique qui contrôlait son développement,

reconnaissait que la clé de ce mystère ne résidait sans doute pas dans quelque grand principe,

mais dans une somme formidable de détails moléculaires : « Gunther Stent avança il y a

longtemps l’idée que le développement était un problème trivial, parce qu’étant donné le

modèle de régulation des gènes de Jacob et Monod, l’ensemble du développement pouvait

être réduit à ce paradigme. C’était simplement une question d’allumer les bons gènes, au bon

endroit et au bon moment. Bien sûr, même si c’est absolument vrai, c’est aussi absolument

vide de sens. Le paradigme ne nous dit pas comment fabriquer une souris mais comment

actionner un commutateur. La vraie réponse doit sûrement résider dans les détails. »532

En faisant référence aux expériences de Christiane Nüsslein-Volhard et Eric

Wieschau sur la génétique du développement de la drosophile, Anderson et Walter font un

constat similaire : « Si le modèle de la double-hélice de la structure de l’ADN de Watson et

Crick a montré que l’imagination (avec un petit nombre de données) pouvait triompher de la

Nature, la mutagenèse à saturation de Nüsslein-Volhard et Wieschau révéla que l’évolution

pouvait produire des mécanismes biologiques d’une complexité tellement inimaginable, qu’il

serait inutile, si ce n’est risible, de tenter d’en avoir l’intuition a priori. L’imagination de la

Nature dépasse habituellement de beaucoup celle du cerveau humain...les mécanismes

biologiques baroques et contre-intuitifs que l’évolution a produit se moquent si souvent de

l’imagination humaine. »533

531 R. Lewin, « Why is development so illogical ? », Science, 224 (1984) : 1327-1329. 532 S. Brenner et al., « Genes and Development : molecular and logical themes », Genetics, 126 (1990) : 485. 533 D. Anderson and P. Walter, « Blobel’s Nobel », Cell, 99 (1999) : 557-558 ; cité dans Von Dassow et Meir, in Modularity in development and evolution, op. cit., p. 245.

Page 303: Thèse version3.R

303

Pour revenir à Jacob, la conclusion qu’il tire de ces réflexions est que les solutions

adoptées dans des cas similaires ont peu de chances d’être identiques. « Même si la vie dans

l’espace utilisait le même matériau que sur terre, même si l’environnement n’était pas si

différent du notre, même si la nature de la vie et de sa chimie limitent fortement la façon de

remplir certaines fonctions, la séquence des opportunités historiques là-bas ne pourrait pas

être la même qu’ici. » 534

Pour cette raison, Jacob pense que, si la vie existait ailleurs dans l’univers, la

probabilité que des organismes similaires à l’homme puissent exister serait quasiment nulle.

Cette idée nous conduit naturellement à aborder la thèse de la contingence évolutive.

6.5.5. La thèse de la contingence fondamentale des processus évolutifs Plusieurs auteurs ont défendu la thèse selon laquelle le déroulement de l’évolution

est faiblement contraint et dépend dans une large mesure de détails contingents. C’est ce

qu’on appelle l’evolutionary contingency thesis. Nous ne mentionnerons ici que deux

défenseurs d’une telle position, mais certainement les plus connus : Stephen Jay Gould et

John Beatty.

Gould a exprimé sa thèse sous la forme de la métaphore suivante : s’il était possible

de rembobiner le film de l’évolution jusqu’à son début et de le repasser, on aboutirait à une

fin chaque fois différente.535 Comme Jacob, Gould pense que, si dans l’histoire que nous

connaissons, l’évolution a produit l’espèce humaine, il est probable que nous serions absents

dans le prochaine « version ». Les lois de la nature contraignent l’évolution, mais seulement

de manière très lâche. Une petite différence à un instant donné peut faire bifurquer le

processus vers une voie très différente. Comme le disent Sterelny et Griffiths : « l’histoire

évolutive dépend parfois des détails fins de ses causes historiques particulières. »536

Alors que Gould souligne la contingence des détails, Beatty affirme la contingence

des généralités. Il énonce cette thèse de la manière suivante : « Toutes les généralisations

portant sur le monde vivant sont uniquement des généralisations mathématiques, physiques ou

chimiques [...] ou sont distinctivement biologiques, auquel cas elles décrivent les résultats

534 F. Jacob, op. cit., p. 1166. 535 On peut ajouter que cette métaphore est insatisfaisante à bien des égards, étant donné qu’un film possède une structure fixe. Le cas d’un match de football ou d’une partie d’échec semble plus approprié : en rejouant une partie dans des conditions autant que possible identiques, son déroulement et son issue ne seront pas les mêmes. 536 K. Sterleny and P. Griffiths, Sex and Death, op. cit., p. 309.

Page 304: Thèse version3.R

304

contingents de l’évolution. »537 Nous retrouvons ici la thèse dont nous avons parlé au

quatrième chapitre, selon laquelle, mis à part les lois de la physique, il n’y aurait pas de lois

autonomes qui gouvernent les systèmes biologiques.

Selon l’expression de Schaffner, le sens de la contingence chez ces auteurs est celui

d’une trajectory contingency.538 Cela renvoie aux différentes voies qu’aurait pu suivre

l’évolution sur notre planète.

Si l’idée de contingence est bien acceptée par beaucoup, il faut tout de même la

nuancer quelque peu. D’une part, certains auteurs rejettent l’importance des accidents

historiques. Par exemple, Richard Dawkins pense que les propriétés centrales du

développement et de la génétique sont universelles. Il suppose que le vivant ne peut évoluer

selon des mécanismes d’héritabilité des changements adaptatifs.

D’autre part, même chez ceux qui insistent sur l’importance de la contingence,

celle-ci semble dépendre des propriétés qui sont considérées. Par exemple, Gould admet que

l’augmentation de la complexité n’est pas contingente. Il considère également que des

propriétés fondamentales des organismes comme la symétrie bilatérale sont probables dans

tous les scénarios possibles. Cependant, en dehors de ces aspects globaux, la contingence doit

primer.

Ces nuances ayant été apportées, on peut toutefois considérer que la conception

« contingentiste » de l’évolution est dominante. La thèse défendue par certains biologistes des

systèmes, selon laquelle l’évolution « retrouverait » toujours les mêmes solutions semble donc

être en tension avec cette vision. En effet, si indépendamment des chemins suivis et donc des

détails historiques, les structures sont les mêmes, on ne peut parler de contingence. Cette

thèse soulève une autre question pour la biologie des systèmes. Beatty affirme que les

généralisations biologiques décrivent les produits contingents de l’évolution. Si ce n’est pas

contingent, est-ce bien biologique ? Cette question sera traitée dans la dernière section de ce

chapitre.

537 J. Beatty, « The Evolutionary Contingency Thesis » In G. Wolters and J. G. Lennox (eds.), Concepts, Theories, and Rationality in the Biological Sciences, The Second Pittsburgh-Konstanz Colloquium in the Philosophy of Science. Pittsburgh, University of Pittsburgh Press, 1995., pp. 46-47. 538 K. Schaffner, 1993, op. cit., p. 122.

Page 305: Thèse version3.R

305

6.6. L’étude des réseaux biologiques représente un cas particulier d’artifact thinking

Toutes les idées que nous venons de présenter nous ramènent toujours à cette

question centrale : les systèmes biologiques sont-ils l’oeuvre d’un bricoleur aux goûts

baroques ou d’un ingénieur à la recherche de solutions optimales ? Dans le premier cas, l’idée

d’appliquer des principes d’ingénierie n’est-elle pas infondée ?

La réponse que nous voulons apporter à ce problème est que ces deux conceptions

(c’est-à-dire le bricolage contingent et l’optimisation) sont en fait compatibles. En effet, la

biologie des systèmes s’intéresse à un niveau qui a traditionnellement été ignoré : celui de

l’organisation des réseaux moléculaires. Il s’agit d’un niveau plus abstrait, qui se superpose à

celui des mécanismes, et qui est en quelque sorte « en deçà » des traits phénotypiques

habituellement considérés par les biologistes de l’évolution.

Notre thèse est qu’il est possible de penser que, d’une part, au niveau des

composants (gènes, protéines), des mécanismes et des traits de l’organisme, la contingence

prédomine et que la construction est baroque, bricolée et qu’elle reflète l’histoire évolutive de

ces systèmes, tout en admettant, d’autre part, qu’au niveau de l’organisation des réseaux

moléculaires, certains principes doivent être respectés.

Il faut toutefois rappeler la distinction entre deux types d’explications discutés dans

le chapitre précédent. Dans des cas comme l’integral feedback control, il ne s’agit pas d’un

problème d’optimum, puisqu’on montre qu’étant donné un certain comportement ou une

certaine propriété fonctionnelle, il n’y a qu’une structure possible. En revanche, dans le cas

des motifs analysés par Alon, les contraintes sont moins fortes. On pense qu’étant donné un

certain environnement, certaines solutions sont meilleures. Dans ce cas, les questions

d’adaptation et d’optimum se posent. C’est donc surtout pour ce second type d’explications

que des problèmes se posent et doivent être examinés.

Avant de voir les différences introduites par l’étude des réseaux, commençons par

relativiser l’opposition qui semble exister entre ingénierie et bricolage. Il faut tout d’abord

remarquer qu’un ingénieur ne cherche pas toujours à atteindre l’optimalité fonctionnelle et

qu’il ne part pas non plus de zéro lorsqu’il construit un système. Jacob reconnaissait les

limites technologiques avec lesquelles l’ingénieur doit composer, mais il faut également

ajouter que très souvent, pour des raisons pratiques (notamment économiques), il doit repartir

des solutions déjà existantes, réutiliser des composants développés dans un autre contexte et

qui ne seront pas toujours les meilleures qu’il pourrait concevoir. Si on analyse l’architecture

Page 306: Thèse version3.R

306

d’un amplificateur audio, il est probable qu’il ne correspondra pas à un optimum en termes de

gain ou de bruit. Pour des raisons de coûts ou d’économie d’énergie, une architecture plus

simple pourra être préférée (il n’y a qu’à comparer un amplificateur bas de gamme avec un

appareil professionnel pour se convaincre des différences possibles). Néanmoins, certains

principes de contrôle devront être respectés pour réaliser l’amplification du signal.

D’autre part, dans la plupart des cas un bricoleur n’a pas beaucoup de solutions. Le

fait qu’il utilise quantité de matériaux hétéroclites, qui ont été formés pour d’autres fonctions

n’est pas toujours déterminant de ce point de vue. Un bricoleur qui veut construire un

véhicule qui roule pourra certainement se servir de n’importe quel objet cylindrique, mais pas

d’un objet carré. En outre, même s’il s’agit de réutiliser sans cesse les mêmes éléments dans

des contextes différents, on ne peut pas les combiner de n’importe quelle manière. On peut

donc considérer que le développement technologique et l’évolution biologique se ressemblent

plus qu’on pourrait le penser.

Plus spécifiquement, notre idée est que l’étude des réseaux possède des

particularités qui font que tous les problèmes liés à la comparaison entre machines et systèmes

naturels, et notamment les questions de l’adaptationisme et de la contingence, semblent se

poser différemment.

L’étude des réseaux introduit selon nous deux différences. Premièrement, il s’agit

d’un niveau (si on peut parler de niveau ; ça n’est pas un niveau d’agrégation) particulier,

différent des mécanismes et des traits phénotypiques. Deuxièmement, les approches de

biologie des systèmes permettent de caractériser leurs propriétés fonctionnelles et de les

comparer avec des variantes, d’une manière beaucoup plus complète qu’à d’autres niveaux.

Précisons ces deux points.

Il faut commencer par remarquer que les problèmes fonctionnels ne sont pas définis

de la même manière que dans les exemples habituellement discutés en biologie de

l’évolution (échapper à un prédateur, trouver une source de nourriture, etc). Ils sont à la fois

plus précis et plus généraux. Dans les quelques exemples classiques que nous avons

abordés (réaliser une adaptation, amplifier ou filtrer un signal, produire des oscillations, etc),

le problème est très clairement posé. Il faut également tenir compte de l’exigence de

robustesse, qui contribue, comme nous l’avons vu au chapitre précédent, à ajouter une

contrainte forte. Cette différence fondamentale avec les cas traités en biologie de l’évolution

apparaît également au niveau des solutions possibles. Un des problèmes de l’adaptationisme

est qu’il est en principe possible d’imaginer toutes sortes de solutions à un problème, mais

que la plupart sont absurdes : certains ont fait remarquer avec ironie que la meilleure solution

Page 307: Thèse version3.R

307

pour faire face à un prédateur était de développer une mitrailleuse. De manière plus réaliste, la

solution pour l’organisme est parfois de modifier son environnement. Dans ces conditions, il

est difficile de comparer les solutions et de déterminer laquelle est la meilleure. Ces critiques

montrent qu’il est délicat de poser un problème sans référence à l’organisme qui doit les

résoudre.539 On voit clairement qu’avec l’étude des réseaux, on est dans une situation très

différente : ici le domaine des solutions est contraint, puisque c’est un ensemble de

topologies. Il n’est pas possible d’inventer autre chose.

D’autre part, les problèmes fonctionnels en biologie des systèmes sont également

plus généraux, dans la mesure où il s’agit de propriétés fonctionnelles que l’on retrouve (sous

des variantes) dans l’ensemble du monde vivant. Il ne s’agit donc pas de résoudre un

problème adaptatif précis, par exemple déterminer si la forme d’un membre est optimale étant

donné les conditions environnementales.

Une deuxième remarque à faire est que l’hypothèse adaptationiste de

l’indépendance des traits pourrait être moins problématique au niveau des réseaux. Nous

avons montré que la biologie des systèmes avait adopté un cadre fondamentalement

modulaire. Cela lui permet de réfléchir en termes de design de modules. En effet, un module

peut être vu comme une transformation input-ouput, et la question qui se pose est alors :

quelle structure remplit le mieux cette fonction de transformation ? Un présupposé essentiel

(et qui semble en partie justifié) est qu’un module réalise une fonction de manière

relativement indépendante du contexte dans lequel il se trouve. Il faut également remarquer

que le risque d’ignorer les relations développementales entre traits ne se pose pas de la même

manière, car ces structures ne sont pas le produit d’un tel processus. Cela ne signifie pas que

des contraintes comme la pléiotropie sont ignorées. Il est important de souligner que les

explications en termes de design reconnaissent l’existence de telles contraintes. Il ne s’agit

pas de dire que la structure est optimale, mais qu’elle suit néanmoins certains principes. On le

voit bien dans la conclusion d’un article déjà cité : « Un autre résultat acquis grâce à notre

étude est que la topologie adoptée par la nature pourrait ne pas être nécessairement la plus

robuste en soi, mais pourrait néanmoins être optimisée à l’intérieur de certaines contraintes

biologiques. »540

Dans la mesure où il s’agit de modules, les problèmes fonctionnels ne dépendent

pas directement de l’environnement, mais de régulation et de contrôle interne. Bien

539 Cette position est décrite par le terme « externalisme ». 540 W. Ma et al., « Robustness and modular design of the Drosophila segment polarity network », Molecular Systems Biology, 2 (2006) : 7.

Page 308: Thèse version3.R

308

évidemment, en dernière analyse, ces processus de contrôle permettent d’interagir avec

l’environnement, mais l’important est que le problème à résoudre n’est pas formulé en termes

d’adaptation à un environnement. Par exemple, si l’on considère la capacité d’un réseau de

signalisation à amplifier et filtrer un signal extracellulaire, ce qui est en jeu, c’est de

comprendre quels principes de régulation et de contrôle permettent de réaliser ces fonctions

de manière robuste. D’une certaine manière, on peut négliger la nature du signal ou le

problème environnemental à résoudre. C’est pourquoi, même si, comme le soutiennent les

défenseurs d’une vision constructiviste de l’évolution, les organismes ne font pas que

s’adapter à un environnement qui serait fixé, mais contribuent à le transformer, il n’en

demeure pas moins vrai que des problèmes comme l’amplification d’un signal ou la

production d’oscillations, se poseront quelque soit le contexte. On peut donc accepter l’idée

selon laquelle il n’y a pas de problème lock and key au niveau de la relation entre l’organisme

et son environnement, mais qu’on trouve quelque chose de cet ordre au niveau des modules.

C’est en ce sens que nous disions que les problèmes fonctionnels sont extrêmement généraux.

Il est raisonnable d’imaginer qu’ils se posent de manière similaire dans tout système

biologique et ne se modifient pas avec l’environnement. Si l’on considère le métabolisme, une

bactérie anaérobie et une cellule eucaryote doivent résoudre des problèmes très différents.

Pourtant, il se pourrait bien que les modes de contrôle des flux ou les structures qui

permettent de lier entre elles différentes voies de telle sorte que l’ensemble soit robuste,

correspondent toujours aux mêmes schémas généraux.

Cette dernière particularité nous conduit à notre deuxième point, c’est-à-dire les

différences introduites par la modélisation. Rappelons que le passage à des représentations

sous la forme de réseaux permet d’une part, un recours plus aisé aux simulations

informatiques, et d’autre part, l’application des théories d’ingénierie. Nous avons déjà

plusieurs fois montré comment les premières permettent non seulement d’explorer le

comportement dynamique d’un réseau, mais aussi de comparer les propriétés fonctionnelles

de différentes topologies (ce qui est de la première importance dans ce cas). Il est en effet très

facile de modifier la structure du réseau et de refaire des simulations, en variant les conditions

initiales et les paramètres. Cette exploration a évidemment des limites, mais elle est plus

facile à conduire que lorsque l’on étudie la plupart des traits phénotypiques. Il faut en outre

rappeler que les progrès dans le domaine expérimental constituent un complément

extrêmement précieux dans ces analyses, en permettant d’étudier in vivo le comportement des

variantes et d’ainsi vérifier les prédictions théoriques.

Page 309: Thèse version3.R

309

Il faut à cet égard faire une remarque sur la nature de cette méthode. Si l’on reprend

la distinction de Lewens, on peut se demander s’il s’agit d’ingénierie inverse (qui part des

structures pour comprendre les problèmes à résoudre) ou de l’adaptive thinking (qui part des

problèmes environnementaux pour inférer la structure). En réalité, ce que fait la biologie des

systèmes relève des deux approches. En effet, elle se fonde sur l’observation des structures,

sur leurs comportements dynamiques, dans beaucoup de cas sur le type de fonction dans

lequel les réseaux sont impliqués et surtout, elle teste un grand nombre de variantes des

circuits. Cette exploration fonctionnelle est fondamentale et ne peut être réalisée que dans peu

de cas à d’autres niveaux (organes ou comportements). C’est pour cette raison que la biologie

des systèmes semble pouvoir répondre aux mises en garde méthodologiques de Lewens.

Il ne faudrait cependant pas mal nous comprendre : nous ne voulons pas suggérer

que les problèmes sont complètement différents dans le cas des réseaux, mais simplement

qu’ils sont beaucoup plus faciles à analyser. Nous reviendrons d’ailleurs un peu plus loin sur

certaines limites de ces analyses.

La citation suivante de Von Dassow et Meir nous paraît parfaitement résumer tout

ce qui vient d’être dit : « Les modèles nous permettent d’examiner si une topologie

particulière d’un processus épigénétique est simplement contingente, c’est-à-dire la nature

assemblant des mécanismes à partir du bric-à-brac de l’héritage génétique, ou si dans un cas

particulier, la nature a trouvé une manière vraiment bonne de résoudre un problème de design.

Nous pouvons nous demander : comment un réseau particulier produit-il une certaine

propriété systémique fonctionnellement importante, comme la robustesse contre les

perturbations, ou la modularité, et y a-t-il des thèmes mécanistes communs à ces propriétés ?

Rappelant à nouveau la complainte d’Anderson et de Walter [cités plus haut], ces mécanismes

sont-ils réellement aussi baroques. »541

6.7. Conséquences des principes généraux d’organisation des réseaux pour la conception de l’évolution et la nature des théories en biologie

Nous pouvons maintenant essayer de tirer quelques conséquences de ces premiers

éléments de réflexion et revenir au problème de la contingence. Notre thèse est que la biologie

des systèmes limite d’une certaine manière l’importance de la contingence évolutive, mais

elle ne remet pas fondamentalement en question les thèses défendues par des auteurs comme

541 G. von Dassow and E. Meir, « Exploring Modularity with Dynamical Models of Gene Networks », in G. Schlosser and G.P. Wagner (ed.), Modularity in development and evolution, op. cit., p. 246.

Page 310: Thèse version3.R

310

Gould, Beatty, ou encore Rosenberg. Elle ne s’oppose ni à la contingence des phénomènes à

large échelle (Gould), ni à celle des structures précises des mécanismes (Rosenberg).

Avant de préciser en quel sens ces positions sont compatibles, soulignons qu’il ne

faudrait, de toute manière, pas opposer de manière simpliste nécessité et contingence. Mieux

vaut parler de la probabilité ou de l’improbabilité d’une propriété.542 Nous avons vu que les

designs optimaux ne sont pas toujours réalisés. Il faut garder à l’esprit que les différents

principes peuvent avoir différentes probabilités d’être suivi. Le cas limite serait l’existence de

solutions uniques à un problème fonctionnel. Mais de manière générale, on pourrait dire que

dans tel type de réseau, tels motifs sont très favorisés, alors que d’autres sont très

improbables. Rappelons qu’Alon considère des motifs qui sont plus ou moins représentés.

Mais ce qui importe ici, c’est que les principes d’organisation ne sont pas des

accidents évolutifs. Nous rejoignons ici la position défendue par Kurata et al., qui notent :

« Comme résultat de notre analyse, nous proposons que l’utilisation de stratégies complexes

de régulation dans le système heat shock est probablement une solution spécifiquement

conçue en fonction de différents aspects et exigences de la réponse à la chaleur, plutôt que le

résultat d’accidents évolutifs qui ont donné naissance à des boucles de régulation

redondantes. »543

Si les principes de design ne sont pas en tension avec les thèses contingentistes,

c’est parce que les solutions universelles postulées par certaines biologistes des systèmes se

situent à un niveau plus abstrait, celui des structures de réseaux et des stratégies et modes de

contrôle. C’est d’ailleurs pour cette raison qu’ils sont restés invisibles jusqu’à peu. En effet,

ce niveau est moins concret que celui des mécanismes et plus difficile à observer. Nous avons

vu que seul le passage par des modèles mathématiques et des méthodes d’analyse

inhabituelles en biologie permettait de les identifier. Les outils et les concepts développés par

les biologistes moléculaires n’étaient tout simplement pas suffisants pour comprendre que

certains mécanismes en apparence différents représentaient des instanciations d’un même

principe de contrôle. C’est pourquoi on peut admettre que, si des mécanismes très divers ont

pu apparaître au cours de l’évolution, les modes de contrôle possibles sont bien plus limités.

Il est intéressant de citer à nouveau la thèse de Rosenberg concernant l’absence de

généralisation en biologie, pour comprendre la nouveauté introduite : « Etant donné que les

classes fonctionnelles sont produites par la sélection et que la sélection ne fait pas de

542 Dennet a défendu cette idée : D. Dennet, Op.cit. 543 H. Kurata et al., « Module-Based Analysis of Robustness Tradeoffs in the Heat Shock Response System », PLoS Comput Biol, 2 (2006), p. 0672.

Page 311: Thèse version3.R

311

distinction entre différentes structures qui sont également avantageuses eu égard au trait

sélectionné, les classes fonctionnelles sont ipso facto hétérogènes, et aucune autre

généralisation intéressante n’est vraie pour tous ses membres. »544

Si cette thèse semble vraie pour beaucoup d’aspects des systèmes biologiques,

Rosenberg n’a pas imaginé la possibilité qu’à un certain niveau d’organisation, les possibilités

structurales de produire certaines fonctions de manière robuste pourraient être très limitées.

Pour produire un comportement d’adaptation parfaite et robuste, il y a évidemment une

infinité de mécanismes différents, c’est-à-dire un ensemble de macromolécules ayant des

propriétés physico-chimiques variées, comme semblent le suggérer certaines études

récentes545, mais il n’y aurait, peut-être, qu’une seule structure de contrôle possible, l’integral

feedback control.

Pour bien comprendre la nature de ce changement, il faut rappeler que les

approches systémiques ont toujours cherché des principes communs au niveau de la

dynamique des systèmes, alors que la biologie moléculaire et la biochimie proposaient une

unification en termes matériels. En effet, la grande découverte de la biologie moléculaire,

c’est que tous les organismes vivants – de la bactérie à l’éléphant, comme le disait Monod –

possèdent un double brin d’ADN, qui code pour des protéines. Si certains composants de base

sont universels, l’unification est nettement plus limitée dès qu’on considère la plupart des

mécanismes. Au niveau des mécanismes, la contingence est à nouveau très présente.

En revanche, l’attention aux phénomènes fonctionnels qui impliquent des processus

dynamiques complexes permet de voir l’unité derrière la diversité. Robert Rosen a toujours

défendu cette idée : « L’analogie du système nous montre que les propriétés dynamiques ou

fonctionnelles peuvent être étudiées essentiellement de manière indépendante des

caractéristiques de la structure physico-chimique. »546 Ce qui lui permettait de dire : « Je veux

suggérer que l’on peut espérer atteindre l’unification en termes fonctionnels, tout en évitant

l’écueil réductionniste. »547

Il faut remarquer que les philosophes ont souvent ignoré cet aspect lorsqu’ils

réfléchissaient à la question de l’universalité des généralisations en biologie. Ce sont souvent

544 A. Rosenberg, Instrumental Biology or the Disunity of Science, op. cit., p. 34. 545 Rappelons que le mécanisme responsable de la chémotaxie varie beaucoup d’une espèce de bactérie à l’autre, mais que, du point de vue du mode de contrôle, la stratégie est toujours la même (C. V. Rao, et al., « Design and Diversity in Bacterial Chemotaxis: A Comparative Study in Escherichia coli and Bacillus subtilis », PLOS Biology, 2 (2004) : 0239-0252). 546 R. Rosen, « Some systems theoretical problems in biology », in E.Lazlo (Ed.), The relevance of general systems theory, George Braziller, 1972, p. 56. 547 Ibid.

Page 312: Thèse version3.R

312

des exemples comme le code génétique qui servent à fonder les arguments, alors que, depuis

très longtemps, certains théoriciens avaient compris que la véritable généralité se situait

ailleurs, à un niveau que les biologistes moléculaires et les biochimistes avaient du mal à voir.

Il est maintenant intéressant de revenir sur la position de Smart concernant la nature

des généralisations en biologie. Les analyses que nous avons proposées constituent une

réponse pour le moins ironique à sa thèse. En effet, rappelons que, pour souligner la

différence entre biologie et physique, et montrer que la première devait se contenter de

généralisations accidentelles et faibles, Smart comparait la biologie à l’ingénierie. Telle qu’il

la décrivait, l’ingénierie ne disposait d’aucune généralisation sérieuse. Il affirmait qu’il n’y a

ni première, ni seconde, ni troisième loi de l’électronique. Or, c’est précisément de

l’ingénierie que semblent pouvoir venir les principes les plus généraux auxquels la biologie

pourrait peut-être parvenir !

Voyons comment Smart concevait cette comparaison : « Considérons une certaine

marque de poste de radio. Peut-on espérer trouver des vérités universelles sur son

comportement ? De manière certaine, nous ne pouvons pas. En général, il peut être vrai que si

vous tournez le bouton gauche, vous obtiendrez un petit bruit aigu du haut-parleur et que si

vous tournez le bouton droit, vous obtiendrez un hurlement. Mais bien sûr, dans certains

postes, cela ne sera pas le cas. Un condensateur de blocage a pu se casser ou une connexion a

pu se défaire. Il se peut même que les câbles vers nos deux boutons aient pu être interchangés

par erreur dans la fabrique, si bien qu’avec certains postes, c’est le bouton gauche qui produit

un hurlement et le bouton droit qui produit un petit bruit aigu. »548

Il concluait par cette formule percutante : « alors que, grossièrement, l’ingénierie de

radio est de la physique plus les diagrammes de connexion, la biologie est de la physique et de

la chimie plus de l’histoire naturelle. »549

On trouve une critique de l’analogie proposée par Smart chez Schaffner, car elle

est, selon ce dernier, incorrecte. Il rappelait qu’il existe en ingénierie électrique des lois

importantes : la loi d’Ohm ou la loi de Kirschoff. Comme il le dit : « Ces lois sont

immensément utiles pour l’explication et la prédiction dans la théorie électrique ; elles sont

également considérées comme aussi universelles que la loi du mouvement de Newton. »550

La critique de Schaffner va dans le bon sens, mais elle reste à notre avis incomplète

(d’ailleurs, Schaffner pense qu’elle n’est pas importante pour sa propre position). L’ingénierie

548 J. C. C. Smart, op. cit., p. 56. 549 Ibid., p. 57. 550 K. Schaffner, op. cit., note 44 du chapitre 3, pp. 534-535.

Page 313: Thèse version3.R

313

a effectivement des lois, mais les plus intéressantes lorsqu’on veut établir des analogies avec

la biologie, ne sont pas les lois d’Ohm ou de Kirschoff. Il s’agit plutôt des principes généraux

portant sur les modes de contrôle des systèmes complexes dont nous avons parlé dans le

chapitre précédent. On peut donc reprocher à Smart son a priori négatif à l’égard de

l’ingénierie autant qu’à celui de la biologie. Si l’ingénierie est de la physique plus les

diagrammes de branchement, il faut reconnaître que ces diagrammes relèvent d’une véritable

science, qui a ses théories, ses principes généraux et ses démonstrations mathématiques, qui

ne sont pas directement réductibles à la physique. D’ailleurs, rappelons que ces principes ne

se limitent pas à un domaine comme l’électronique, mais s’appliquent à tout système qui doit

être régulé. La nature théorique de ces approches ne fait selon nous aucun doute. Alon

n’hésite pas à parler de lois de la nature à propos de ces principes : « La similarité entre les

créations du bricoleur et de l’ingénieur soulève également un défi scientifique fondamental :

comprendre les lois de la nature qui unissent les systèmes issus de l’évolution et ceux qui ont

été conçus. »551

Smart a donc clairement sous-estimé la capacité de l’ingénierie à proposer des

principes généraux. Mais au-delà de cet auteur, nous pensons que la plupart des biologistes et

des philosophes ayant réfléchi à ces questions n’ont pas pris au sérieux la possibilité qu’il y

ait eu suffisamment de convergence évolutive pour fonder des généralisations biologiques

extrêmement générales. Bien entendu, les travaux qui pourraient fonder une telle conception

sont très récents et restent controversés, mais nous pensons que ces questions méritent d’être

examinées de près.

6.8. La biologie des systèmes : une approche purement fonctionnelle ? La conception générale qui vient d’être analysée, c’est-à-dire l’idée qu’au-delà des

accidents historiques et des contraintes en tout genre, les systèmes biologiques

« retombaient » sans cesse sur les mêmes principes de design, semble avoir pour conséquence

la justification d’une vision purement fonctionnelle des systèmes biologiques et un désintérêt

pour les questions évolutives. Si l’on prend au sérieux la capacité de la biologie des systèmes

à mettre au jour ces contraintes fonctionnelles par une analyse purement synchronique, il peut

paraître superflu de s’intéresser de plus près aux processus évolutifs.

551 U. Alon, « Biological Networks : the tinkerer as an engineer », op. cit., nous soulignons.

Page 314: Thèse version3.R

314

On peut en effet constater (et regretter) que beaucoup de chercheurs engagés dans

cette voie ont tendance à adopter ce point de vue, comme le révèlent les deux citations

suivantes :

« La biologie de l’évolution étudie comment les systèmes vivants ont été produits,

alors que la biologie des systèmes étudie comment les systèmes vivants sont ; une biologie du

devenir contre une biologie de l’être. Cela est une différence profonde. »552

« Il est important de réaliser que la biologie des systèmes essaie de comprendre la

vie telle qu’elle est maintenant, et qu’elle ne s’intéresse (focus) pas à la biologie de

l’évolution. Elle peut recourir à des raisonnements dérivés de la biologie de l’évolution,

comme le raisonnement fondé sur les homologies, mais elle ne vise pas pour l’instant à

expliquer l’évolution des systèmes biologiques. Cette préférence reflète la conviction que la

vie devrait pouvoir être intelligible sans référence aux histoires de toutes les formes de

vie. »553

Les biologistes des systèmes rejetteraient-ils l’adage bien connu de Dobzhansky,

selon lequel en biologie, rien n’a de sens, si ce n’est à la lumière de l’évolution ?

Cette question nous pousse à poursuivre notre réflexion sur les rapports que

pourraient ou devraient entretenir la biologie des systèmes avec la biologie de l’évolution. La

thèse que nous voulons défendre est que la première à tout à gagner à établir des ponts étroits

avec la seconde. Car, si les principes d’organisation et de contrôle pourraient en principe être

étudiés de manière théorique et synchronique, il semble que, dans la pratique, les choses

risquent de se révéler être plus délicates. Sans remettre en question ce que nous avons dit plus

haut, il est toutefois nécessaire d’y apporter une nuance.

L’intérêt que l’on peut porter aux analyses s’inspirant de l’ingénierie ne doit pas

nous faire ignorer que la possibilité de prouver clairement qu’une certaine structure

correspond bien à un principe général de design n’est pas aussi évidente que certains

pourraient le penser (et que la présentation que nous en avons faite a pu le laisser croire). Si

l’on pouvait sans hésitation prouver qu’un design est le seul possible, il n’y aurait pas de

problème (comme on l’a vu dans le cas de l’integral feedback control). Mais est-ce toujours

aussi clair ? En effet, lorsque l’on observe certaines propriétés topologiques remarquables

dans les réseaux, comment déterminer s’il s’agit d’un effet sélectionné et d’occurrences de

principes généraux, ou simplement d’un hasard évolutif ?

552 F.C. Boogerd et al., « Towards philosophical foundations of Systems Biology : introduction », in F. C. Boogerd et al. (Eds), Systems Biology, Philosophical Foundations, op. cit., p. 9. 553 Ibid., p. 325.

Page 315: Thèse version3.R

315

Wagner reconnaît cette difficulté lorsqu’il remarque : « Il est beaucoup plus facile

de postuler que la sélection donne forme à une propriété de réseau que de le prouver. »554 Il

prend l’exemple de la propriété scale-free : comme on la trouve dans d’autres types de

réseaux, qui n’ont pas évolués par sélection naturelle, ce cas est problématique.555 Le

mécanisme de croissance et d’attachement préférentiel n’exige pas de processus sélectif, mais

il est possible de l’intégrer au niveau local (les liens individuels).

En revanche, Wagner pense que les motifs de réseaux sont de meilleurs candidats.

Plusieurs éléments concordent pour prouver qu’il s’agit bien d’un principe issu d’une

évolution convergente.556 Premièrement, la différence de topologie avec un réseau aléatoire

est très grande.557 Ensuite, il apparaît que, dans certains cas au moins, les circuits ne sont pas

dérivés d’un circuit ancestral par duplication. Pour exclure cette hypothèse, le groupe de

Wagner a montré que les circuits similaires ont été construits à partir de gènes qui n’ont pas

d’origine commune. Enfin, la modélisation permet d’analyser les propriétés fonctionnelles des

motifs, et cela a permis de confirmer de manière précise leur avantage sélectif. Notons que ce

dernier point rejoint l’analyse que nous avons proposée plus haut, c’est-à-dire que c’est la

capacité à mener une étude très complète et rigoureuse des propriétés des réseaux qui fonde

les conclusions sur l’existence de principes de design.

Cette hypothèse est toutefois controversée. Des travaux récents soutiennent que la

présence de motifs n’est pas le résultat de la sélection pour des circuits particuliers, mais

l’effet secondaire de processus d’évolution des génomes, notamment la duplication de

gènes.558 En effet, un modèle d’évolution du génome, fondé sur des mécanismes de

duplication de gènes, de délétion et de mutations de sites de liaison et de gènes, suffit à

reproduire l’apparition de circuits FFL.559 Ce qui amène les auteurs à conclure : « Le fait que

les circuits FFL apparaissent en « avalanche », comme un effet secondaire de la dynamique

mutationnelle, montre que la sélection de circuits individuels n’est pas nécessaire pour

expliquer leur abondance. »560

554 A. Wagner, « Does Selection Mold Molecular Networks? », Science, 202 (2003) : 2. 555 Voir A. Wagner, « How the global structure of protein interacion networks evolves », Proceedings of the Royal Society London B, 270 (2003) :457-466. 556 G. C. Conant and A. Wagner, « Convergent evolution in gene circuits », Nature Genetics, 34 (2003) : 264-266. 557 Rappelons que c’est un des moyens pour identifier des motifs dans un réseau. 558 Ces événements semblent se produire relativement fréquemment dans l’histoire évolutive : voir J. Zhang, « Evolution by gene duplication: an update », Trends in Ecology & Evolution, 18 (2003) : 292-298. 559 O. X. Cordero and P. Hogeweg, « Feed-Forward Loop Circuits as a Side Effect of Genome Evolution », Molecular Biology and Evoluition, 23 (2006) : 1931-1936. 560 Ibid., p. 1935.

Page 316: Thèse version3.R

316

En outre, si ces réseaux sont le résultat d’un processus sélectif, il faut pouvoir

déterminer à quel niveau cette sélection agit. L’hypothèse qui sous-tend les principes de

design est évidemment que ce sont des circuits ou des sous-réseaux qui ont été sélectionnés.

Mais ces structures ne sont peut-être que le résultat d’une sélection au niveau des gènes.

On voit donc que, malgré les progrès immenses que permet l’utilisation des

méthodes d’ingénierie dans l’analyse des circuits biologiques, le problème de

l’adaptationisme ne peut être complètement évité. En outre, on peut imaginer que la difficulté

à tirer des conclusions claires va s’accroître avec la complexité des structures considérées.

Pour lever ces doutes, il sera nécessaire de poursuivre l’étude détaillée des

mécanismes d’évolution du génome et de celle des réseaux. Plusieurs aspects devront être mis

en lumière pour renforcer ces hypothèses. Ces recherches devront être menées à plusieurs

niveaux.

Premièrement, il faut pouvoir estimer avec précision la capacité des liens de ces

réseaux à être modifiés par des mutations. Une critique générale des modèles d’optimisation

est que les variations génétiques peuvent être insuffisantes pour atteindre des optima. En effet,

la sélection naturelle ne peut optimiser que s’il existe une variance génétique suffisante. Dans

le cas des réseaux de régulation transcriptionnelle, il semble que les interactions peuvent se

modifier rapidement561, ce qui soutiendrait la possibilité d’une certaine optimisation. Cette

question devra cependant être examinée attentivement dans tous les cas.

Deuxièmement, il est nécessaire d’étudier de manière réaliste et dans le détail

beaucoup de réseaux biologiques et les comparer, pour comprendre comment des solutions

similaires ont été atteintes par différentes voies évolutives. L’importance de ce type de

comparaison est heureusement évidente pour beaucoup de biologistes, comme en témoigne la

citation suivante :

« L’architecture du réseau que nous avons étudiée dans la voie de biosynthèse de la

leucine est largement répétée dans la régulation de nombreuses autres voies biosynthétiques.

Nos observations expérimentales et notre modélisation théorique pourraient amener à une

nouvelle compréhension de la manière dont ces voies métaboliques sont régulées et des

principes qui ont évolué pour optimiser leur performance. À mesure que les structures de

systèmes de régulations seront élucidées, il sera possible de comparer l’architecture et la

dynamique quantitative entre différents systèmes et dans différentes espèces. Sans aucun

561 J. R. Stone and G. A. Wray, « Rapid Evolution of cis-Regulatory Sequences via Local Point Mutations », Molecular Biology and Evolution, 18 (2001) : 1764-1770.

Page 317: Thèse version3.R

317

doute, de telles études éclaireront les contraintes fonctionnelles et les principes généraux de

design des systèmes biologiques de régulation. »562

À un niveau plus théorique, l’étude de l’évolution des réseaux sera également très

précieuse pour comprendre comment les systèmes biologiques peuvent effectivement

atteindre ces solutions de design et se modifier sans rupture de l’organisation. Ici encore, les

travaux de Wagner nous offrent un exemple intéressant. Il a récemment montré que des

réseaux robustes étaient effectivement capables d’évoluer par un processus darwinien

graduel.563

Toutes ces remarques ne contredisent toutefois pas, selon nous, la thèse défendue

au début de ce chapitre, à savoir que la mise au jour de principes de design renvoyait à des

contraintes non causales et non historiques. Mais ce qu’il faut reconnaître, c’est que si l’étude

de ce type de contraintes nous semble légitime, elle constitue toutefois un exercice très

difficile. Dans quelle mesure les biologistes des systèmes parviendront-ils à identifier des

contraintes fortes entre des fonctions et des structures ? La recherche en théorie du contrôle a

pu prouver que l’adaptation parfaite nécessitait l’integral feedback control, mais on peut

douter que des résultats aussi généraux pourront être formulés pour tous les modes de contrôle

et de régulation. D’autre part, nous verrons dans la section suivante que les modèles de

l’ingénierie ne pourront pas forcément être appliqués directement au domaine biologique. Il

est raisonnable de penser que les systèmes biologiques ont certaines particularités, qu’il

conviendra d’analyser dans un cadre nouveau, qui reste à construire.

Tout cela montre clairement qu’on ne peut faire l’économie d’une approche

évolutive et comparative pour confirmer les hypothèses faites à propos des principes de

design. Si l’étude non historique des circuits (c’est-à-dire à la manière des ingénieurs) est

possible, il paraît probable que ces controverses ne pourront être résolues sans une

collaboration étroite entre études fonctionnelles et évolutives.

À l’inverse, on peut raisonnablement prédire que la biologie de l’évolution va

connaître des transformations profondes sous l’influence des recherches menées en biologie

des systèmes. Le néo-darwinisme s’est construit sur une conception du gène qui est dépassée

depuis longtemps, mais sans que des modèles alternatifs satisfaisants aient pu s’imposer. Ce 562 C. S. Chin et al., « Dynamics and Design Principles of a Basic Regulatory Architecture Controlling Metabolic Pathways », PLoS Biology, 6 (2008) : e146. 563 S. Ciliberti et al., « Robustness can evolve gradually in complex regulatory gene networks with varying topology », PLoS Comput Biol, 3 (2007) : e15. Sur ces questions, voir également les références suivantes : J. M. Cork et al., « The evolution of molecular genetic pathways and networks », BioEssays, 26 (2004) : 479-484 ; A. P. Quayle, and S. Bullock, « Modelling the evolution of genetic regulatory networks », Journal of Theoretical Biology, 238 (2006) : 737-753.

Page 318: Thèse version3.R

318

qu’apporte ce nouveau cadre, c’est la possibilité d’étudier le contexte dans lequel est intégré

chaque gène. On sait depuis longtemps que la fonction d’un gène n’a de sens que par rapport

aux autres gènes avec lequel il est en relation, mais on peut espérer que le passage à une

biologie des réseaux facilitera grandement ce type d’analyse. Comme le remarque Massimo

Pigliucci, la vision génocentriste de l’évolution ou sa définition comme changement de

fréquences géniques, sont certainement en train d’être bouleversées par le développement de

la génomique fonctionnelle.564

Toutes ces remarques nous montrent que la biologie des systèmes ne pourra

échapper à la nécessité, soulignée par Michel Morange, d’articuler différentes stratégies de

recherches et différents schèmes explicatifs.

Nous allons maintenant terminer notre examen des principes généraux de design en

revenant à une question déjà évoquée : la biologie des systèmes pourrait-elle, contrairement à

ce qu’affirmait Beatty, mettre au jour des principes à la fois universels et biologiques ? Le fait

que les principes dont il est question sont dérivés de l’étude des systèmes artificiels ne doit-il

pas nous conduire à penser qu’il ne s’agit pas de principes proprement biologiques ?

6.9. Des principes proprement biologiques ? Nous avons vu qu’une des conséquences de la thèse de Beatty, selon laquelle toutes

les généralisations proprement biologiques décrivent les résultats contingents des processus

évolutifs, est que les seules généralisations universelles en biologie sont des généralisations

physiques ou chimiques. « Plus nos généralisations se rapprochent de la description de

séquences de réactions chimiques, plus nous pouvons être certains que ce sont des lois, parce

que nous pouvons avoir davantage de certitudes qu’aucun produit de l’évolution ne peut les

contredire. Mais, dans le même temps, les généralisations deviennent de moins en moins

distinctivement biologiques. »565

Cette thèse a souvent été défendue. Nous avions discuté dans le quatrième chapitre

la position de Rosenberg et nous pouvons également citer ici Marcel Weber : « toutes les

véritables lois de la nature qui apparaissent dans la biologie expérimentale sont des lois

physicochimiques. Si elles décrivent le comportement d’une classe naturelle de système, alors

la classe naturelle en question est une classe physicochimique, par exemple, une espèce

moléculaire. Si elles ne portent pas sur de telles classes naturelles, alors les généralisations 564 M. Pigliucci, « Do we need an extended evolutionary synthesis? », Evolution, 61 (2007) : 2743-2749. 565 J. Beatty, op. cit., p. 62.

Page 319: Thèse version3.R

319

biologiques décrivent des résultats contingents de l’évolution et ne sont, par conséquent, pas

des véritables lois de la nature. »566

Le problème fondamental est qu’il n’y aurait pas de classes naturelles (natural

kinds) biologiques. Dès que l’on spécifie un système de manière structurale, on retombe sur

une espèce physique et non biologique.

La thèse selon laquelle il existerait des principes d’organisation qui ne dépendent

pas des contingences évolutives nous force à faire un choix entre deux réponses possibles à ce

problème. La première solution est de rejeter la thèse de Beatty et d’accepter que la biologie

peut formuler des principes universels. La seconde option est de nier le caractère proprement

biologique de ces principes. Voyons quels sont les arguments qui peuvent nous aider à faire

ce choix.

Nous avons suffisamment insisté sur l’importance des transferts de connaissance

entre ingénierie et biologie pour qu’on puisse penser qu’après tout, il ne s’agit que de

principes d’ingénierie, qui trouvent un nouveau domaine d’application en biologie. On serait

dans le même cas que lorsque les biologistes appliquent les lois de la physique et de la chimie

aux systèmes qu’ils étudient.

À première vue, cette réponse paraît effectivement s’imposer. S’il est vrai que les

principes considérés sont très étroitement liés à ce qui caractérise un système biologique (sa

robustesse, sa capacité d’adaptation, sa capacité à évoluer), et qu’ils ne s’appliquent pas à des

systèmes physiques, pour lesquels l’idée de design n’a pas de sens, ils débordent le cadre

biologique, puisqu’ils sont valables pour tous les systèmes complexes fonctionnels.

Lorsque nous avons évoqué la possibilité de développer une théorie générale de la

robustesse, nous avons vu que l’idée défendue par Kitano était que des principes valables

pour tout système complexe capable d’évoluer pourraient être mis au jour. Si l’on considère

que les systèmes artificiels sont destinés à évoluer, dans le sens où les ingénieurs qui les

conçoivent s’efforcent de faire en sorte que des améliorations successives pourront facilement

être apportées, sans devoir repartir de zéro, alors cette théorie unifiée de la robustesse ne sera

pas proprement biologique. Par ailleurs, il est clair que des phénomènes comme l’adaptation

parfaite ne sont pas propres à la biologie.

Ce constat induit une tension avec le projet de biologie théorique défini par

Waddington. Rappelons ce que dernier écrivait à ce sujet : « Il a toujours été clair que nous

n’étions pas tellement intéressés par la théorie d’un quelconque phénomène biologique

566 M. Weber, op. cit., pp. 34-35.

Page 320: Thèse version3.R

320

particulier pour elle-même, mais principalement dans la mesure où elle contribue à une

meilleure compréhension du caractère général des processus qui se déroulent dans les

systèmes vivants, par contraste avec les systèmes non-vivants. »567 Ailleurs, il disait que le but

de la biologie théorique devait être le suivant : « découvrir et formuler des concepts généraux

et des relations logiques caractéristiques du vivant par contraste avec les systèmes

inorganiques »568

Selon ces définitions, la biologie théorique devrait donc caractériser ce qui fait la

particularité des systèmes vivants et c’est effectivement le but poursuivi par un certain

nombre de théoriciens. Il faut donc reconnaître que les approches de biologie des systèmes

que nous avons présentées ne peuvent être rattachées à ce courant. Ainsi, s’il s’agit dans tous

les cas d’approches systémiques, les concepts de propriétés systémiques ne sont pas toujours

les mêmes. Pour les théories générales de la vie, le but est de caractériser les propriétés d’un

système qui font qu’il est vivant. La biologie des systèmes s’intéresse à des propriétés de

sous-systèmes qui ne sont pas eux-mêmes vivants, mais qui permettent d’expliquer certains

phénomènes biologiques (adaptation, régulation, robustesse, etc.). C’est pourquoi nous avions

déjà souligné que les principes généraux cherchés par la biologie des systèmes sont moins

ambitieux que ceux des autres approches théoriques.

On peut donc dire que la biologie des systèmes est générale, dans le sens où ses

principes sont plus que des théories de phénomènes particuliers (une fonction comme

l’adaptation parfaite et robuste peut être définie à différents niveaux et exister dans beaucoup

de systèmes biologiques), mais elle n’atteindrait pas le but fixé par Waddington.

Il faut souligner qu’un certain nombre de scientifiques ont critiqué cette faiblesse.

Des auteurs comme Cornish-Bowden569 ou Mesarovic570 pensent que la biologie des systèmes

actuelle ne s’attaque pas aux vraies questions systémiques et ne va pas beaucoup plus loin que

la biologie moléculaire.

L’idée que la biologie des systèmes devait se fixer le but de comprendre ce qui fait

qu’un organisme vivant est vivant, et donc poursuivre la quête des anciennes approches

systémiques, a été souvent défendue, comme dans cette citation de Hofmeyr : « La biologie

567 C. H. Waddington (Ed.), Towards a Theoretical Biology, Volume 3, op. cit. 568 C. H. Waddington (Ed.), Towards a Theoretical Biology, Volume 1. Prolegomena, preface ; nous soulignons. 569 A. Cornish-Bowden and M. L. Cardenas, « Systems biology may work when we learn to understand the parts in terms of the whole », Biochemical Society Transactions, 33 (2005) : 516-519. 570 M. Mesarovic and S. N. Sreenath, « Beyond the Flat Earth Perspective in Systems Biology », Biological Theory, 1 (2006) : 33–34.

Page 321: Thèse version3.R

321

des systèmes devrait chercher à fournir un moyen de réfléchir aux organismes vivants qui

nous permettrait de les comprendre en tant qu’entités autonomes. »571

La biologie des systèmes devra donc certainement trouver son autonomie par

rapport à l’ingénierie pour analyser certaines des propriétés les plus essentielles du vivant.

Cette nécessité apparaît dans les limites que connaissent les concepts d’ingénierie pour décrire

les systèmes biologiques. Si la biologie des systèmes s’inspire avec profit des immenses

progrès qu’a réalisés l’ingénierie au cours des dernières décennies, et cela en soulignant les

ressemblances entre systèmes biologiques et systèmes complexes artificiels, il paraît malgré

tout raisonnable de penser que les systèmes biologiques possèdent certaines particularités qui

vont bien au-delà de ce que l’homme est capable de produire, en tout cas pour l’instant.

Wolkenhauer et Mesarovic ont ainsi défendu l’idée que la biologie des systèmes

n’est pas l’application des principes d’ingénierie à la biologie mais la rencontre entre les

théories de contrôle et des théories systémiques, d’une part, et de la biologie moléculaire et

cellulaire d’autre part.572 Roger Brent souligne également que le transfert de connaissance doit

se faire avec discernement : « Il n’y a actuellement aucun ensemble de concepts

universellement applicable provenant des systèmes comportementaux, mécaniques ou

électriques que les biologistes peuvent utiliser pour améliorer la compréhension des cellules et

des organismes qu’ils étudient. Les cellules et les organismes devront être compris dans leurs

propres termes. »573

Ce serait donc une erreur de vouloir appliquer à la biologie les connaissances

acquises dans le domaine des systèmes artificiels, de manière précipitée et sans une réflexion

profonde. Nous rejoignons les mises en garde de Fox Keller sur les difficultés d’une véritable

interdisciplinarité.

Parmi les propriétés propres au vivant qui débordent clairement le domaine des

sciences de l’ingénieur, les plus évidentes sont évidemment la capacité à s’auto-entretenir,

ainsi qu’à se reproduire. Les scientifiques sont sans doute encore loin de bien comprendre ce

qui permet à un système de jouir de telles propriétés, mais certains progrès ont été accomplis.

Si des principes architecturaux nécessaires rendant compte de l’émergence de ces

propriétés étaient mis au jour, alors on aurait des généralisations universelles proprement

biologiques (ce qui, rappelons-le, est le but de diverses approches théoriques).

571 J. H. S. Hofmeyr, in Systems Biology Philosophical Foundations, op. cit., p. 218. 572 O. Wolkenhauer and M. Mesarovic, « Feedback dynamics and cell function: Why systems biology is called Systems Biology », Molecular Biosystems, 1 (2005) : 14-16. 573 R. Brent, « A partnership between biology and engineering », Nature Biotechnology, 22 (2004) : 1214.

Page 322: Thèse version3.R

322

Les approches d’ingénierie que nous avons présentées ne sont, par conséquent, pas

systémiques au sens fort et ne s’attaquent pas directement à la notion de système autonome.

En revanche, nous pensons que les principes qu’elles pourraient dégager constitueront une

base solide sur laquelle construire des théories véritablement systémiques et biologiques. Les

progrès auxquels on assiste en ce moment pourraient être les premiers pas vers ces théories.

Pour que la biologie des systèmes puisse aider la biologie théorique à éviter de se

développer de manière trop indépendante, en perdant le contact avec « la réalité », il sera sans

doute nécessaire qu’elle prolonge la collaboration étroite qu’elle a établie avec l’ingénierie.

On peut imaginer une sorte d’évolution parallèle entre ces deux domaines, dans laquelle les

transferts de connaissance iront dans les deux sens. Nous avons vu comment la biologie

synthétique permettait depuis peu de tester des principes théoriques en reconstruisant des

modules in vivo. Il est raisonnable de penser qu’à moyen ou à long terme, elle fera des

progrès décisifs vers la reconstruction de systèmes possédant toutes les propriétés du vivant.

Ces réalisations représenteraient indiscutablement des opportunités uniques de faire

progresser nos théories sur le vivant en leur donnant une base expérimentale solide, mais elles

offriraient également à l’ingénierie des occasions de développement immenses. Ainsi, il est

possible qu’à mesure que l’architecture et le fonctionnement des systèmes biologiques seront

mieux connus, des principes inconnus en ingénierie seront découverts.574

Cette collaboration entre les deux domaines va certainement mener à un effacement

progressif de la frontière entre systèmes artificiels et naturels. Si l’on parvenait à construire

des machines ayant ces propriétés, il semblerait légitime de considérer que ces systèmes sont

vivants et que les principes ayant permis leur développement sont bien des principes

biologiques.

Sans vouloir poursuivre ces spéculations, nous voulons conclure provisoirement en

reconnaissant que les principes énoncés par la biologie des systèmes ne sont sans doute pas

encore proprement biologiques, mais qu’ils pourraient nous mener rapidement à découvrir des

propriétés universelles qui font qu’un système est vivant. On rejoindrait alors le vieux rêve

d’une biologie universelle, mais qui serait construite sur des bases empiriques nettement plus

solides.

574 Voir E. D. Sontag, “Some new directions in control theory inspired by systems biology,” Systems Biology, 1 (2004) : 9–18 ; E. D. Sontag, “Molecular systems biology & control”, European Journal of Control, 11 (2005) : 396–435.

Page 323: Thèse version3.R

323

Conclusion Nous avions posé la question des conséquences que pourraient avoir la découverte

de principes généraux d’organisation des systèmes biologiques pour notre conception du

vivant et de la nature des théories en biologie. Au terme de ce chapitre, quelle conclusion

pouvons-nous tirer ?

Tout d’abord, il paraît évident que les principes d’organisation ne vont en aucune

manière se substituer aux explications mécanistes particulières. La majorité des modèles en

biologie des systèmes poursuivront le projet de la biologie moléculaire, qui est de construire

des modèles mécanistes destinés à expliquer des processus de généralité variable. A ces

modèles viendront toutefois s’ajouter des principes de design, qui éclaireront le

fonctionnement des systèmes étudiés. La biologie des systèmes contribuera à enrichir

l’arsenal explicatif dont les biologistes disposent pour expliquer le vivant.

L’universalité de ces principes reste une question à laquelle il est difficile de

répondre. Les théories en ingénierie semblent avoir réussi à établir quelques résultats

réellement universels. Pour le reste, il est raisonnable de penser que ces principes resteront

exprimés en termes de probabilité. Cependant, le fait que ces probabilités pourraient être

élevées nous paraît suffisant pour penser que les modèles généraux d’organisation des réseaux

biologiques introduisent une rupture avec les conceptions généralement admises.

La thèse de la contingence des processus évolutifs ne paraît pas devoir être

fondamentalement remise en question par la découverte de ces principes généraux. On peut

toutefois s’attendre à ce que la biologie des systèmes augmente de manière significative le

nombre de propriétés du vivant qui ne sont pas contingentes. Elle va ainsi resserrer les limites

à l’intérieur desquelles le vivant peut évoluer. Gould et Beatty pensaient que les lois de la

nature ne contraignent que de manière extrêmement lâche les produits de l’évolution ; l’étude

de l’organisation des systèmes biologiques nous révèle que ces contraintes sont beaucoup plus

fortes que la plupart des biologistes ne l’imaginaient.

Page 324: Thèse version3.R

324

Conclusion générale

Nous avons ouvert ce travail par une série de questions au sujet de la biologie des

systèmes. Au terme de cette recherche, qu’avons-nous appris ? Quelles conclusions pouvons-

nous tirer ? Rappelons les interrogations principales qui constituaient notre point de départ.

La biologie des systèmes constitue-t-elle réellement, comme certains le prétendent,

une forme radicalement nouvelle de recherche en biologie et un rejet des approches

réductionnistes qui ont dominé la seconde moitié du vingtième siècle ? Dans quelle mesure

peut-on parler de révolution scientifique ? Doit-on y voir le retour aux anciennes approches

systémiques qui fleurissaient dans les années soixante et soixante-dix ? Comment doit-on

interpréter les ambitions théoriques d’une partie de la biologie des systèmes ? Dans quelle

mesure ces progrès scientifiques pourraient-ils conduire les philosophes des sciences à

repenser des problématiques comme le réductionnisme, la nature des explications, le

problème des lois ou encore celui de la contingence du vivant ?

L’examen de différents travaux de recherche qui, s’ils ne couvrent de toute

évidence pas l’ensemble de ce qui relève de biologie des systèmes, peuvent néanmoins être

considérés comme significatifs, nous a conduit à défendre un certain nombre de thèses sur ces

différentes questions.

Contrairement à ce que pourraient laisser penser les affirmations fortes de certains

chercheurs, la biologie des systèmes ne nous paraît pas justifier une position anti-

réductionniste forte. Si elle permet effectivement de dépasser certaines limites des

méthodologies réductionnistes de la biologie moléculaire, elle poursuit néanmoins son projet

explicatif de fond, c’est-à-dire expliquer les phénomènes vivants à partir des molécules et de

leurs interactions. Mais, pour poursuivre et mener à bien ce projet, elle reconnaît que les

modèles qui permettent d’établir les liens explicatifs entre niveaux doivent être

considérablement enrichis et améliorés par rapport au cadre développé par la biologie

moléculaire. Elle s’efforce d’autre part d’articuler et d’intégrer autant que possible les

différents niveaux explicatifs, de la molécule à l’organisme et au-delà. Nous avons rappelé

que l’importance de ces niveaux et des phénomènes émergents n’est toutefois pas nouvelle et

Page 325: Thèse version3.R

325

que la biologie moléculaire les reconnaissait en partie. La biologie des systèmes opère donc

un déplacement d’emphase plutôt qu’une rupture avec les approches moléculaires classiques.

Reconnaître cela ne nous semble cependant pas affaiblir son intérêt, ni son originalité,

puisque nous avons dans le même temps souligné le fait que les modèles moléculaires, en

devenant formels et informatiques, expliquaient l’émergence de phénomènes fonctionnels

d’une manière résolument nouvelle et infiniment plus riche.

Nous avons également soutenu que, pour comprendre le projet de la biologie des

systèmes et la manière dont il poursuit le projet réductionniste de la biologie moléculaire en

transformant radicalement la forme de modèles réductifs, il était nécessaire d’adopter un cadre

d’analyse capable de rendre compte des aspects pragmatiques de l’explication et de la

recherche. En restant attaché à une conception abstraite et formelle de l’explication et de la

réduction, on court le risque de ne pas voir les véritables enjeux de ces nouvelles approches,

d’exagérer les changements ou au contraire de les minimiser.

L’un des aspects qui a le plus retenu notre attention est l’ambition qu’affiche un

certain nombre de chercheurs dans ce domaine de construire une véritable biologie théorique.

En gardant à l’esprit ce qu’a été la biologie théorique au cours du vingtième siècle, nous

avons défendu l’idée que la biologie des systèmes offrait des opportunités nouvelles de

surmonter les problèmes qui ont toujours condamné ces efforts à la marginalité. Nous avons

montré comment elle avait commencé à dégager des principes d’organisation des systèmes

biologiques extrêmement généraux, par une approche qui combine la modélisation et

l’analyse théoriques d’un côté et, de l’autre l’étude minutieuse des mécanismes moléculaires.

Cette combinaison, qui n’a été rendue possible que très récemment, grâce aux progrès réalisés

d’une part dans les techniques expérimentales en biologie moléculaire et, d’autre part, dans la

modélisation des systèmes complexes, semble pouvoir ouvrir des voies d’investigation que

certains entrevoyaient depuis un certain temps déjà, mais qui ne pouvaient être explorées

sérieusement.

Nous avons donc montré que la biologie des systèmes ne pouvait être assimilée aux

anciennes approches systémiques qui cherchaient l’unification de la biologie et des lois

générales à travers un rejet du réductionnisme de la biologie moléculaire. Si ce mouvement a

eu le mérite d’attirer l’attention des scientifiques sur des aspects essentiels des systèmes

biologiques qui restaient invisibles dans le cadre réductionniste, les excès anti-réductionnistes

ont malheureusement desservi cette cause. C’est le grand succès de la biologie contemporaine

des systèmes d’avoir réussi à intégrer pleinement les outils, les connaissances et les modèles

Page 326: Thèse version3.R

326

de la biologie moléculaire dans un cadre qui permet de représenter également les aspects

dynamiques complexes des systèmes biologiques.

Une des thèses principales défendues dans ce travail est que les principes

d’organisation mis au jour en biologie des systèmes correspondent à un type d’explication

tout à fait inhabituel en biologie, que nous avons appelé explication en termes de design.

Nous avons montré que l’objectif est de déterminer comment les fonctions contraignent les

structures des systèmes biologiques. Ces explications sont en ce sens non-causales et

débordent le cadre mécaniste de la biologie moléculaire.

La confiance grandissante dans l’hypothèse selon laquelle il existe des principes de

ce type a évidemment des conséquences pour notre vision générale du monde vivant et pour

le statut de la biologie en tant que science. Là encore, nous avons voulu éviter de nous laisser

entraîner vers des thèses radicales, qui conduiraient à donner une image peu fidèle de la

recherche dans ce domaine. Cette prudence n’empêche toutefois pas de reconnaître qu’un

certain nombre de conceptions en biologie et en philosophie devront sans doute être en partie

revues. La mise au jour de principes généraux de design ne remet certainement pas en

question la thèse de la contingence des processus évolutifs sous sa forme générale, mais elle

transforme néanmoins notre appréciation des contraintes qui pèsent sur l’évolution du vivant.

On connaissait bien sûr différentes classes de contraintes physiques qui déterminent dans une

certaine mesure les voies que peut suivre l’évolution des formes de vies. Mais avec l’étude

des modes d’organisation des systèmes biologiques, c’est tout un pan du vivant qui devient

enfin visible et qui nous révèle qu’à ce niveau, les contraintes semblent être très fortes.

En ce qui concerne le statut de la biologie et la nature des buts qu’elle pourrait ou

devrait se fixer, on doit reconnaître que la biologie des systèmes est certainement en passe de

modifier les idées reçues. La question de savoir si les biologistes devraient avoir pour objectif

de dégager des lois du vivant ou s’ils devraient se limiter plus raisonnablement à étudier des

mécanismes plus ou moins généraux a toujours été délicate et a reçu des réponses variées

suivant l’état des connaissances scientifiques. Ainsi, à son heure de gloire, la biologie

moléculaire semblait pouvoir nous révéler les principes fondamentaux de la vie. La

découverte, à partir des années soixante-dix, de la complexité, de la diversité et de

l’exubérance des mécanismes moléculaires, a sans doute contribué à rendre les biologistes

plus prudents. Ceux-ci commencèrent à penser que le secret du vivant était finalement affaire

de détails et la généralité devint plus suspecte. Depuis quelques années, la découverte de

mécanismes très conservés dans tout le règne du vivant est peut-être en train de ramener la

biologie vers la recherche de modèle généraux. Pourtant, même lorsqu’ils supposent

Page 327: Thèse version3.R

327

l’existence de principes généraux, les biologistes disposent rarement d’arguments théoriques

forts pour fonder cette généralité, mis à part l’existence d’accidents historiques gelés. En

revanche, les biologistes des systèmes affirment qu’on a des bonnes raisons de penser que des

principes généraux existent en biologie et que ceux-ci ne dépendent pas (ou très peu) de ces

accidents. Le recours à un cadre d’analyse théorique qui permet d’étudier de manière précise

et générale les rapports entre structure et fonction représente donc une rupture importante

pour la biologie, en rapport à cette recherche de généralité.

Le développement rapide de la biologie des systèmes fait émerger encore bien

d’autres questions. Il faut s’attendre à ce qu’elle continue de progresser à un rythme effréné,

surtout depuis que des efforts massifs ont été décidés dans beaucoup de pays. Ces

développements scientifiques promettent d’être passionnants. Sans pouvoir prédire les

résultats auxquels vont mener ces recherches, il ne fait, selon nous, pas de doute que les

conséquences sur le plan scientifique aussi bien que philosophique seront tout aussi

importantes.

Il faudra analyser la manière dont la biologie des systèmes pourrait remodeler le

paysage des sciences de la vie. Il sera intéressant notamment de voir quels rapports elle va

entretenir avec la biologie de l’évolution. Nous n’avons fait qu’effleurer cette question

capitale pour la biologie, mais nous pensons que c’est un niveau où elle pourrait contribuer à

bouleverser l’étude du vivant. La grande synthèse entre l’évolution et le développement, que

nombre de biologistes et de philosophes appellent de leurs voeux, reste à construire. Les

progrès immenses qu’est en train d’accomplir la biologie des systèmes dans notre

connaissance des mécanismes qui permettent à des systèmes complexes de fonctionner dans

des environnements instables et changeants, de se reproduire et d’évoluer, pourrait donner une

impulsion majeure au domaine de l’evo-devo.

Jusqu’à maintenant, relativement peu de philosophes se sont penchés sérieusement

sur ce domaine, ce qui est au fond normal, étant donné la nouveauté de ces recherches. Nous

espérons pourtant que l’intérêt de ces recherches scientifiques, qui nous paraît incontestable,

amènera un nombre croissant de philosophes à réfléchir aux enjeux scientifiques et

philosophiques qu’ils soulèvent. Nous espérons que ce travail aura au moins réussi à

convaincre les philosophes que la biologie des systèmes représente un champ d’investigation

immense et encore trop peu exploré.

Page 328: Thèse version3.R

328

Bibliographie

ADAMS, M.D., et al., « The Genome Sequence of Drosophila melanogaster », Science,

287 (2000) : 2185-95. ALBERGHINA, L. and WESTERHOFF, H. (eds.), Systems Biology, definitions and

perspectives, Berlin, Springer, 2007. ALBERT, R., « Boolean Modeling of Genetic Regulatory Networks », Lectures Notes in

Physics, 650 (2004), p.479-480. ALBERT, R., JEONG, H. and BARABÁSI, A.-L., « Diameter of the World Wide Web »,

Nature, 401 (1999) : 130-131. ALDANA, M. and CLUZEL, P., « A natural class of robust networks », Proceedings of

the National Academy of Sciences, 100 (2003) : 8710-8714. ALLEN, C., BEKOFF, M. and LAUDER, G. (eds.), Nature’s Purposes, MIT Press, 1998. ALON, U., « Biological Networks : the tinkerer as an engineer », Science, 301 (2003) :

1866-1867. ALON, U., An Introduction to Systems Biology: Design Principles of Biological Circuits,

Boca Raton, Chapman & Hall, 2006. ANDERSON, D. and WALTER, P., « Blobel’s Nobel », Cell, 99 (1999) : 557-558. ANDERSON, S. et al., « Sequence and organization of the human mitochondrial

genome », Nature, 290 (1981) : 457-465. ANGELI, D. et al., « Detection of multistability, bifurcations, and hysteresis in a large

class of biological positive-feedback systems », Proceedings of the National Academy of Sciences, 101 (2004) : 1822-1827.

ARBEITMAN, M. N. et al., « Gene expression during the life cycle of Drosophila melanogaster », Science, 297 (2002) : 2270-2275.

ARKIN, A. P., ROSS, J. and MCADAMS, H. H., « Stochastic kinetic analysis of developmental pathway bifurcation in phage lambda-infected Escherichia coli cells », Genetics, 149 (1998) : 1633–1648.

ASHBY, W. R., An introduction to cybernetics, London, Chapman & Hall, 1958. BABU, C. V. S. et al., « Modeling and simulation in signal transduction pathways: a

systems biology approach », Biochimie, 88 (2006) : 277–283. BADER, G. D. et al., « Functional genomics and proteomics: charting a multidimensional

map of the yeast cell », Trends in Cell Biology, 13 (2003) : 344-356. BAILEY, J. E., « Complex biology with no parameters », Nature Biotechnology, 19

(2001) : 503-504. BAINS, W., « The parts list of life », Nature Biotechnology, 19 (2001) : 401-402. BARABÁSI, A.-L. and ALBERT, R., « Emergence of scaling in random networks »,

Science, 286 (1999) : 509–512. BARABÁSI, A.-L. and OLTVAI, Z. N., « Network biology: understanding the cell's

functional organization », Nature Reviews Genetics, 5 (2004) : 101-113. BASSINGTHWAIGHTE, J. B., « Strategies for the Physiome Project » Annals of

Biomedical Engineering, 28 (2000) : 1043–1058. BEATTY, J., « The Evolutionary Contingency Thesis » In G. Wolters and J. G. Lennox (eds.), Concepts, Theories, and Rationality in the Biological Sciences, The Second

Page 329: Thèse version3.R

329

Pittsburgh-Konstanz Colloquium in the Philosophy of Science. Pittsburgh, University of Pittsburgh Press, 1995.

BECHTEL, W., « Biochemical mechanisms : organized to maintain autonomy », in F. Boogerd, F. J. Bruggeman, J.-H. F. Hofmeyr, H. V. Westerhoff (eds.), Systems Biology, Philosophical Foundations, Amsterdam, Elsevier, 2007.

BECHTEL, W., and RICHARDSON, R. C., Discovering Complexity: Decomposition and Localization as Strategies in Scientific Research, Princeton, Princeton University Press, 1993.

BEDAU, M. A., "Weak emergence", Philosophical Perspectives, 11 (1997) : 375-399. BEN-TABOU DE-LEON, S. and DAVIDSON, E. H., « Gene Regulation: Gene Control

Network in Development », Annual Review of Biophysics and Biomolecular Structure, 36 (2007) : 191-212.

BERTALANFFY, L. von, Das Gefüge des Lebens, Leipzig, Teubner, 1937. BERTALANFFY, L. von, General System theory: Foundations, Development,

Applications, New York, George Braziller, 1968. BERTALANFFY, L. von, Théorie générale des systèmes, Paris, Dunod, 1993 [1968]. BHALLA, U. S. and IYENGAR, R., « Emergent properties of networks of biological

signaling », Science, 283 (1999) : 381-387. BHALLA, U. S., « Understanding complex signaling networks through models and

metaphors », Progress in Biophysics and Molecular Biology, 81 (2003): 45-65. BICKLE, J., « Understanding neural complexity », Minds ans Machines, 11 (2001) : 467-

481. BODNAR, J. W., « Programming the Drosophila embryo », Journal of Theoretical

Biology, 188 (1997) : 391-445. BOGUSKI, M., « Biosequence Exegesis », Science, 286 (1999) : 454. BOLOURI, H. et al., « Modeling transcriptional regulatory networks », BioEssays, 24

(2002) : 1118-1129. BOOGERD, F. C. et al., « Towards philosophical foundations of Systems Biology :

introduction », in F. Boogerd, F. J. Bruggeman, J.-H. F. Hofmeyr, H. V. Westerhoff (eds.), Systems Biology, Philosophical Foundations, Amsterdam, Elsevier, 2007.

BOOGERD, F., BRUGGEMAN, F., HOFMEYR, J. H. S., WESTERHOFF, H. V. (eds.), Systems Biology, Philosophical Foundations, Amsterdam, Elsevier, 2007.

BOOGERD, F., BRUGGEMAN, F., RICHARDSON, R., STEPHAN, A., WESTERHOFF, H. V., « Emergence and Its Place in Nature: A Case Study of Biochemical Networks », Synthese, 145 (2005) : 131-164.

BRAILLARD, P. A., « Que peut expliquer un modèle complexe et peut-on le comprendre ? », in J. J. Kupiec et al., (dir.), Matière première n°3, Paris, Editions Syllepse, 2008.

BRAY, D., « Molecular networks : the top-down view », Science, 301 (2003) : 1864-1865. BRENNER, S. « Genes and Development : molecular and logical themes », Genetics, 126

(1990) : 479-486. BRENNER, S., “Biological computation”, in G. R. Bock and J. A. Goode (eds.), The limits

of reductionism in biology, Wiley, Chichester, Novartis Foundation Symposium 213, 1998.

BRENT, R., « Genomic Biology », Cell, 100 (2000) : 169–183. BRENT, R. « A partnership between biology and engineering », Nature Biotechnology, 22

(2004) : 1211-1214. BRENT, R. and LOK, L., « A fishing buddy for hypothesis generators », Science, 308

(2005) : 504-506.

Page 330: Thèse version3.R

330

BRINGMANN, P. et al., Systems Biology: Applications And Perspectives, Berlin, Springer-Verlag, 2006.

BROUZES, E. and FARGE, E., “Interplay of mechanical deformation and patterned gene expression in developing embryos”, Current Opinion in Genetics & Development, 14 (2004) : 367-374.

BURNS, J. A, et al., « Control analysis of metabolic systems », Trends in Biochemical Sciences, 10 (1985) : 16.

C. elegans Sequencing Consortium, « Genome sequence of the nematode C. elegans: a platform for investigating biology », Science, 282 (1998) : 2012-2018.

CALLEBAUT, W. and RASSKIN-GUTMAN, D. (eds.), Modularity : Understanding the Development and Evolution of Natural Complex Systems, The MIT Press, 2005.

CALLEBAUT, W., « Réduction et explication mécaniste en biologie », Revue philosophique de Louvain, 93 : 33-66.

CASSMAN, M. et al., Systems Biology: International Research and Development, Berlin, Springer-Verlag, 2007.

CESTE, M. E. and DOYLE, J. C., « Reverse Engineering of Biological Complexity », Science, 295 (2002) : 1664-1669.

CHANDONIA, J. M. et al., « The Impact of Structural Genomics: Expectations and Outcomes », Science, 311 (2006) : 347-351.

CHIN, C. S. et al., « Dynamics and Design Principles of a Basic Regulatory Architecture Controlling Metabolic Pathways », PLoS Biology, 6 (2008) : e146.

CHO, R. J. et al., « A genome wide transcriptional analysis of the mitotic cell cycle », Molecular Cell, 2 (1998) : 65-73.

CHU, S. et al., « The transcriptional program of sporulation in budding yeast », Science, 282 (1998) : 699–705.

CILIBERTI, S. et al., « Robustness can evolve gradually in complex regulatory gene networks with varying topology », PLoS Computational Biology, 3 (2007) : e15.

CILIBERTO, A., NOVAK, B. and TYSON, J. J., « Steady States and Oscillations in the p53/Mdm2 Network », Cell Cycle, 4 (2005) : 488-493.

CINQUIN, O., « Is the somitogenesis clock really cell-autonomous ? A coupled-oscillator model of segmentation », Journal of Theoretical Biology, 224 (2003) : 459-468.

CINQUIN, O., and DEMONGEOT, J., « Positive and negative feedback: striking a balance between necessary antagonists », Journal of Theoretical Biology, 216 (2002) : 229-241.

COLLINS, F. S. et al., « New Goals for the U.S. Human Genome Project: 1998-2003 », Science, 282 (1998) : 682-689.

COLLINS, F. S. et al., « The Human Genome Project: Lessons from Large-Scale Biology », Science, 300 (2003) : 286-290.

CONANT, G. C. and WAGNER, A., « Convergent evolution in gene circuits », Nature Genetics, 34 (2003) : 264-266.

CORDERO, O. X. and HOGEWEG, P., « Feed-Forward Loop Circuits as a Side Effect of Genome Evolution », Molecular Biology and Evolution, 23 (2006) : 1931-1936.

CORK, J. M. et al., « The evolution of molecular genetic pathways and networks », BioEssays, 26 (2004) : 479-484.

CORNISH-BOWDEN, A. and CARDENAS, M. L., « Systems biology may work when we learn to understand the parts in terms of the whole », Biochemical Society Transactions, 33 (2005) : 516-519.

COVERT et al., « Integrating high-throughput and computational data elucidates bacterial networks », Nature, 429 (2004) : 92-96.

COX, J. and MANN, M., « Is Proteomics the New Genomics? », Cell, 130 (2007) : 395-398.

Page 331: Thèse version3.R

331

CRAVER, C., "Role Functions, Mechanisms, and Hierarchy", Philosophy of Science, 68 (2001) : 53-74.

CRAVER, C., "When Mechanistic Models Explain", Synthese, 153 (2006) : 355-376. CRAVER, C., “Beyond Reduction: Mechanisms, Multifield Integration, and the Unity of

Neuroscience”, in C. F. Craver and L. Darden (eds.), Special Issue: “Mechanisms in Biology” Studies in History and Philosophy of Biological and Biomedical Sciences, 36 (2005) : 373-397.

CRICK, F. H. C., Of molecules and man, Seattle, University of Washington Press, 1966. CRICK, F. H. C., « The origin of the genetic code », Journal of Molecular Biology, 38

(1968) : 367. DARDEN, L., "Relations Among Fields: Mendelian, Cytological and Molecular

Mechanisms," Studies in History and Philosophy of Biological and Biomedical Sciences, 36 (2005) : 357-371.

DARDEN, L., "Strategies for Discovering Mechanisms: Schema Instantiation, Modular Subassembly, Forward/Backward Chaining", Philosophy of Science (Supplement ) 69 (2002) : S354-S365.

DARDEN, L., and MAULL, N.,"Interfield Theories", Philosophy of Science, 44 (1977) : 43-64.

DASSOW, G. von and MEIR, E., « Exploring modularity with dynamical models of gene networks », In G. Schlosser and G. P. Wagner (eds.), Modularity in Development and Evolution, Chicago, University of Chicago Press, 2003.

DAVIDSON, E. H. et al., « A genomic regulatory network for development », Science, 295 (2002) : 1669-1678.

DAWKINS, R., The selfish gene, Oxford, Oxford University Press, 1976. DE JONG, H. and ROPPERS, D., “Strategies for dealing with incomplete information in

the modeling of molecular interaction networks », Briefings in Bioinformatics, 7 (2006) : 354-363.

DE JONG, H., « Modeling and simulation of genetic regulatory systems : a litterature review », Journal of computational biology, 9 (2002) : 67-103.

DE REGT, H. W. and DIEKS, D., « A contextual approach to scientific understanding », Synthese, 144 (2005) : 137-170.

DELEHANTY, M. « Emergent properties and the context objection to reduction », Biology and Philosophy, 20 (2005) : 715-734.

DERISI, J. L., IYER, V. R. et BROWN, P. O., « Exploring the metabolic and genetic control of gene expression on a genomic scale », Science, 278 (1997) : 680-686.

DOYLE, J. et al., « Motifs, control, and stability », PLoS Biology, 3 (2005) : 1868-1872. DUARTE, N. C. et al., « Global reconstruction of the human metabolic network based on

genomic and bibliomic data », Proceedings of the National Academy of Sciences, 104 (2007) : 1777–1782.

EDWARDS, J. S. et al., « The Escherichia coli MG1655 in silico metabolic genotype: its definition, characteristics, and capabilities », Proceedings of the National Academy of Sciences, 97 (2000) : 5528-5533.

EDWARDS, J. S., COVERT, M. and PALSSON, B. O., « Metabolic modelling of microbes: The flux-balance approach », Environmental Microbiology, 4 (2002) : 133-133.

EILBECK, K. et al., « The Sequence Ontology: a tool for the unification of genome annotations », Genome Biology, 6 (2005) : R44.

EISEN et al., « Cluster analysis and display of genome-wide expression patterns », Proceedings of the National Academy of Sciences, 95 (1998) : 14863-14868.

EISENBACH, M., Chemotaxis, London, Imperial College Press, 2004.

Page 332: Thèse version3.R

332

ELLIS, R. J., MINTON, A. P., « Cell biology: join the crowd », Nature, 425 (2003) : 27-28.

ELOWITZ, M. B. et al., « Protein Mobility in the Cytoplasm of Escherichia coli », Journal of Bacteriology, 181 (1999) : 197-203.

ELOWITZ, M. B. and LEIBLER, S., « A synthetic oscillatory network of transcriptional regulators », Nature, 403 (2000) : 335-338.

EL-SAMAD, H. et al., « Surviving heat shock: Control strategies for robustness and performance », Proceedings of the National Academy of Sciences, 102 (2005) : 2736-2741.

EMMECHE, C., « Defining life, explaining emergence », 1997. ENDY, D., « Foundations for engineering biology », Nature, 438 (2005) : 449-53. ESFELD, M. et SACHSE, C., "La biologie entre autonomie et réduction", in B. Fantini

(ed.), Hommages à Jean Jacques Dreifuss, Genève, Presse d’histoire suisse, 2007. EUNGDAMRONG, N. J. and IYENGAR, R., « Modeling Cell Signaling Networks »,

Biology of the Cell, 96 (2004) : 355-362. EUNGDAMRONG, N. J. et al., « Computational approaches for modeling regulatory

cellular networks », Trends in Cell Biology, 14 (2004) : 661-669. FELTZ, B. « Le réductionnisme en biologie », Revue philosophique de Louvain, 93

(1995) : 9-32. FERRELL, J. E., « Self-perpetuating states in signal transduction: positive feedback,

double-negative feedback and bistability », Current Opinion in Cell Biology, 14 (2002) : 140-148.

FERRELL, J. E., MACHLEDER, E. M., « The biochemical basis of an all-or-none cell fate switch in Xenopus oocytes », Science, 280 (1998) : 895-898.

FICARRO, S. B. et al., « Phosphoproteome analysis by mass spectrometry and its application to Saccharomyces cerevisiae », Nature Biotechnology, 20 (2002) : 301-305.

FIEHN, O., « Combining genomics, metabolome analysis, and biochemical modelling to understand metabolic networks », Comparative and Functional Genomics, 2 (2001) : 155-168.

FIELDS, S. and SONG, O., "A novel genetic system to detect protein-protein interactions", Nature, 340 (1989) : 245-6.

FIELDS, S., « Proteomics : Proteomics in genomeland », Science, 291 (2001) : 1221-1224. FIERS, W et al., « Complete nucleotide-sequence of bacteriophage MS2-RNA - primary

and secondary structure of replicase gene », Nature, 260 (1976) : 500-507. FISHER, R., The genetical theory of natural selection, Clarendon, 1930. FLEISCHMANN, R. D. et al., « Whole-genome random sequencing and assembly of

Haemophilus influenzae Rd », Science, 269 (1995) : 496-512. FOX KELLER, E., « Revisiting « scale-free » networks », BioEssays, 27 (2005) : 1060-

1068. FOX KELLER, E., Expliquer la vie, Paris, Gallimard, 2005. FRASER, H. B., WALL, D. P. and HIRSH, A. E., « A simple dependence between protein

evolution rate and the number of protein-protein interactions », BMC Evolutionary Biology, 3 (2003) : 11.

FRASER, S. E., and HARLAND, R. M., « The molecular metamorphosis of experimental embryology », Cell, 100 (2000) : 41–55.

FRIEDMAN, M., « Explanation and scientific understanding », The Journal of Philosophy, 71 (1974) : 5-19.

FROST-ARNOLD, G., "How to be an Anti-reductionist about Developmental Biology", Biology and Philosophy 19 (2004) : 75-91.

GANTI, T., The Principles of Life, Oxford, Oxford University Press, 2003.

Page 333: Thèse version3.R

333

GARDNER, T. S., CANTOR, C. R., COLLINS, J. J., « Construction of a genetic toggle switch in Escherichia coli », Nature, 403 (2000) : 339–342.

GAUDILLERE, J. P. and RHEINBERGER, H. J. (eds.), From molecular genetics to genomics, The mapping cultures of twentieth-century genetics, New York, Routledge, 2004.

GAVIN, A. C. et al., « Functional organization of the yeast proteome by systematic analysis of protein complexes », Nature, 415 (2002) : 141-147.

GE, H. et al., « Correlation between transcriptome and interactome mapping data from Saccharomyces cerevisiae », Nature Genetics, 29 (2001) : 482-486.

GERSHENSON, C., « Classification of random Boolean networks », In R.K. Standish et al. (eds.), Artificial Life VIII : Proceedings of the Eight International Conference on Artificial Life, MIT Press, 2002.

GIAEVER, G. et al., « Functional profiling of the Saccharomyces cerevisiae genome », Nature, 418 (2002) : 387-391.

GIBSON, G. et MUSE, S. V., Précis de génomique, Bruxelles, De Boeck, 2004. GIERER, A. and MEINHARDT, H., « A theory of biological pattern formation »,

Kybernetik, 12 (1972) : 30-39. GILBERT, S. F., « Mechanisms for the environmental regulation of gene expression:

Ecological aspects of animal development. », Journal of Biosciences, 30 (2005) : 101-110.

GILBERT, S. F. and SARKAR, S., « Embracing Complexity: Organicism for the 21st Century », Developmental dynamics, 219 (2000) : 1-9.

GILBERT, W., « Toward a paradigm shift in biology », Nature, 349 (1992) : 99. GILLESPIE, D. T. J., « A general method for numerically simulating the stochastic time

evolution of coupled chemical reactions », Journal of Computational Physics, 22 (1976) : 403–434.

GLENNAN, S., "Mechanisms and The Nature of Causation," Erkenntnis, 44 (1996) : 49-71.

GLENNAN, S., "Rethinking Mechanistic Explanation", Philosophy of Science (Supplement), 69 (2002) : S342-S353.

GLENNAN, S., “Modeling Mechanisms”, in C. F. Craver and L. Darden (eds.), Special Issue: “Mechanisms in Biology,” Studies in History and Philosophy of Biological and Biomedical Sciences, 36 (2005) : 443-464.

GOFF, S. A. et al., « A draft sequence of the rice genome (Oryza sativa L. ssp. japonica) », Science, 296 (2002) : 92-100.

GOFFEAU, A. et al., « Life with 6000 genes », Science, 274 (1996) : 546-567. GOLBETER, A., « Computational approaches to cellular rhythms », Nature, 420 (2002) :

238-245. GOODACRE, R. et al., « Metabolomics by numbers: acquiring and understanding global

metabolite data », Trends in Biotechnology, 22 (2004) : 245-252. GOODFELLOW, P., « A celebration and a farewell », Nature Genetics, 16 (1997) : 209-

210. GOODWIN, B. and SAUNDERS, P. (eds.), Theoretical Biology: Epigenetic and

Evolutionary Order from Complex Systems, Edinburgh, Edinburgh University Press, 1989.

GOODWIN, B., How The Leopard Changed Its Spots : The Evolution of Complexity, Charles Scribner and Sons, 1994.

GOULD, S. J. and LEWONTIN, R. C., « The spandrels of San Marco and the Panglossian paradigm : A critique of the adaptationist programme », Proceedings of the Royal Society of London, B 205 (1978) : 581-598.

Page 334: Thèse version3.R

334

GRIESEMER, J. R., « The philosophical significance of Ganti’s work », in T. Ganti, The Principles of Life, Oxford, Oxford University Press, 2003.

GRODINS, F. S., Control Theory and Biological Systems, New York, Columbia University Press, 1963.

HAEFNER, J. W., Modeling Biological Systems, Boca Raton, Chapman and Hall, 1996. HAGEN, J. B., « The origins of bioinformatics », Nature Review Genetics, 1 (2000) : 231-

236. HALFON, M. S. et al., « Exploring genetic regulatory networks in metazoan

development : methods and models », Physiological Genomics, 10 (2002) : 131-143. HARDY, J. D., Physiological Controls and Regulations, W. S. Yamamoto and J. R. (eds.),

Philadelphia, Brobeck Saunders, 1965. HARTWELL, L. H et al., « From molecular to modular cell biology », Nature, 402 (1999)

: C47-C52. HASTY, J. et al., « Computational studies of gene regulatory networks: in numero

molecular biology », Nature Reviews Genetics, 2 (2001) : 268-279. HASTY, J. et al., « Engineering gene circuits », Nature, 420 (2002) : 224-230. HEINRICH, R. and RAPOPORT, T. A., « A linear steady-state treatment of enzymatic

chains. General properties, control and effector strength », European Journal of Biochemistry, 42 (1974) : 89-95.

HEMPEL, C. G., Aspects of Scientific Explanation and other Essays in the Philosophy of Science, New York, Free Press, 1965.

HERRGARD, M. J. et al., « Reconstruction of microbial transcriptional regulatory networks », Current Opinion in Biotechnology, 15 (2004) : 70-77.

HIETER P. and BOGUSKI, M., « Functional Genomics: It’s All How You Read It », Science, 278 (1997) : 601-602.

HO, Y. et al., « Systematic identification of protein complexes in Saccharomyces cerevisiae by mass spectrometry », Nature, 415 (2002) : 180-183.

HODGKIN, A. L., HUXLEY, A. F., « A quantitative description of membrane current and its application to conduction and excitation in nerve », Journal of Physiology, 117 (1952), 500-544.

HODGKINSON, M. J. et WEBB, P. A., « A system for success: BMC Systems Biology, a new open access journal », BMC Systems Biology, 1 (2007) : 41.

HOFMEYR, J. H. S., in Systems Biology Philosophical Foudantions HOGEWEG, P., « Computing an organism: on the interface between informatic and

dynamic processes », BioSystems, 64 (2002) : 97-109. HOLLAND, J. H., Emergence: From Chaos to Order, Redwood City, California,

Addison-Wesley, 1998. HOLLYWOOD, K. et al., « Metabolomics: Current technologies and future trends »,

Proteomics, 6 (2006) : 4716-4723. HONORE, B. et al., « Functional genomics studied by proteomics », BioEssays, 26

(2004) : 901-915. HOOD, L., « Systems biology: New opportunities arising from genomics, proteomics and

beyond », Experimental Hematology, 26 (1998) : 681-681. HORAK, C. E. and SNYDER, M., « ChIP-chip: a genomic approach for identifying

transcription factor binding sites », Methods in Enzymology, 350 (2002) : 469-483. HUANG, S., « Back to the biology in systems biology : what can we learn from

biomolecular networks ? », Briefings in functional genomics and proteomics, 2 (2004) : 279-297.

HUGHES, T. R. et al., « Functional discovery via a compendium of expression profiles », Cell, 102 (2000) : 109-126.

Page 335: Thèse version3.R

335

HUH, W. K. et al., « Global analysis of protein localization in budding yeast », Nature, 425 (2003) : 686–691.

HULL, D. L., Philosophy of Biological Science, Englewood Cliffs, Prentice-Hall, 1974. HUMPHREYS, P., Extending Ourselves, Oxford, Oxford University Press, 2004. IDEKER, T. et al., « A new approach to decoding life : Systems Biology », Annual Review

of Genomics and Human Genetics, 2 (2001) : 343–72. IDEKER, T. et al., « Integrated genomic and proeteomic analyses of a systematically

perturbed metabolic network », Science, 292 (2001) : 929-934. INGBER, D. E., « Mechanical control of tissue growth : function follows form »,

Proceedings of the National Academy of Sciences, 102 (2005) : 11571-11572. INGBER, D.E., « Tensegrity I », Journal of Cell Science, 116 (2003) : 1157-1173. INGBER, D.E., « Tensegrity II », Journal of Cell Science, 116 (2003) : 1397-1408. International Human Genome Sequencing Consortium, "Initial sequencing and analysis of

the human genome", Nature, 409 (2001) : 860-921. ISAACS, F. J. et al., « Prediction and measurement of an autoregulatory genetic module »,

Proceedings of the National Academy of Sciences, 100 (2003) : 7714-7719. ISHII, N. et al., « Toward large-scale modeling of the microbial cell for computer

simulation », Journal of Biotechnology, 113 (2004) : 281-294. ISLAN, M. et al., « Engineering gene networks to emulate Drosophila embryonic pattern

formation », PLoS Biology, 3 (2005) : 0488-0496. ITO, T. et al., « A comprehensive two-hybrid analysis to explore the yeast protein

interactome », Proceedings of the National Academy of Sciences, 98 (2001) : 4569-4574.

IZAGUIRRE, J. A. et al., « COMPUCELL, a multi-model framework for simulation of morphogenesis », Bioinformatics, 20 (2004) : 1129–1137.

JACOB, F., « Evolution and tinkering », Science, 196 (1977) : 1161-1166 JACOB, F., La logique du vivant, Paris, Gallimard, 1970. JANSEN, R. et al., « Relating whole-genome expression data with protein – protein

interactions », Genome Research, 12 (2002) : 37-46. JEONG, H. et al., « The large-scale organization of metabolic networks », Nature, 407

(2000) 651–654. JONES, R. B. et al., "A quantitative protein interaction network for the ErbB receptors

using protein microarrays", Nature, 439 (2006) : 168-174. JORDAN, I. K., WOLF, Y. I. and KOONIN, E. V., « No simple dependence between

protein evolution rate and the number of protein-protein interactions: Only the most prolific interactors tend to evolve slowly », BMC Evolutionary Biology, 3 (2003) : 1.

JOYCE, A.R. et al., « The model organism as a system : integrating ‘omics’ data sets », Nature Review Molecular Cell Biology, 7 (2006) : 198-210.

KACSER, H. and BURNS, J.A., « The control of flux », Symposia of the Society for Experimental Biology, 27 (1973) : 65-104.

KAMATH, R. S. et al., « Systematic functional analysis of the Caenorhabditis elegans genome using RNAi », Nature, 421 (2003) : 231-237.

KANEHISA, M. et al., « Bioinformatics in the post-sequence era », Nature Genetics Supplement, 33 (2003) : 305-310.

KANEHISA, M., Post-Genome Informatics, Oxford, Oxford University Press, 2000. KANT, E., Critique de la faculté de juger, Paris, Librairie Philosophique J. Vrin, 1993. KAUFFMAN, S., Inverstigation, New-York, Oxford University Press, 2000. KAUFFMAN, S., The origins of order, New-York, Oxford University Press, 1993.

Page 336: Thèse version3.R

336

KAUFFMAN, S. A., « Articulation of parts explanation in biology and the rational search for them », in R. C. Buck and R. S. Cohen (eds.), PSA 1970, pp. 257–272, Dordrecht, Reidel, 1970.

KAUFFMAN, S. A., « Gene regulation networks: A theory for their global structure and behavior », Current Topics in Developmental Biology, 6 (1971) : 145.

KAUFFMAN, S. A., « Metabolic stability and epigenesist in randomly connected nets », Journal of Theoretical Biology, 22 (1969) : 437-467.

KAY, L., Who wrote the book of life ?, Stanford, Stanford University Press, 2000. KELL, D. B. and OLIVER, S. G., « Here is the evidence, now what is the hypothesis? The

complementary roles of inductive and hypothesis-driven science in the post-genomic era », Bioessays, 26 (2004) : 99-105.

KEMMEREN, P. et al., « Protein Interaction Verification and Functional Annotation by Integrated Analysis of Genome-Scale Data », Molecular Cell, 9 (2002) : 1133–1143.

KHOLODENKO, B. N., « Cell-signalling dynamics in time and space », Nature Reviews Molecular Cell Biology, 7 (2006) : 165-176.

KHOLODENKO, B. N., « Negative feedback and ultrasensitivity can bring about oscillations in the mitogen-activated protein kinase cascades », European Journal of Biochemistry, 267 (2000) : 1583-1588.

KITANO, H. (ed.), Foundations of Systems Biology, MIT Press, 2001. KITANO, H., « Biological robustness », Nature Reviews Genetics, 5 (2004) : 826-837. KITANO, H., « Looking beyond the details: a rise in system-oriented approaches in

genetics and molecular biology », Current genetics, 41 (2002) : 1-10. KITANO, H., « Systems biology : a brief overview », Science, 295 (2002) : 1662-1664. KITANO, H., « Towards an theory of biological robustness », Molecular Systems Biology,

3 (2007) : 137. KITCHER, P. « 1953 and All That: A Tale of Two Sciences », Philosophical Review, 43

(1984) : 335–71. KITCHER, P., « The Hegemony of Molecular Biology », Biology and Philosophy, 14

(1999) : 195-210. KOLCH, W. et al., « When kinases meet mathematics: the systems biology of MAPK

signalling », FEBS Letters, 579 (2005) : 1891-1895. KUMAR, A. et al., « Subcellular localization of the yeast proteome », Genes and

Development, 16 (2002) : 707-719. KURATA, H. et al., « Module-Based Analysis of Robustness Tradeoffs in the Heat Shock

Response System », PLoS Comput Biol, 2 (2006) : e59. LANDER, E. S., « The new genomics: global view of biology », Science, 274 (1996) :

536–539. LASHKARI, D. A. et al., "Yeast microarrays for genome wide parallel genetic and gene

expression analysis", Proceedings of the National Academy of Sciences, 94 (1997) : 13057-13062.

LAU, K., GANGULI, S. and TANG, C., « Function constrains network architecture and dynamics : A case study on the yeast cell cycle Boolean network », Physical Review E, 75 (2007) : 051907.

LAUBICHLER, M. D. and WAGNER, G. P., « How Molecular is Molecular Developmental Biology? A Reply to Alex Rosenberg's Reductionism Redux: Computing the Embryo », Biology and Philosophy, 16 (2001) : 53-68.

LAUFFENBURGER, D. A., « Cell signaling pathways as control modules : complexity for simplicity ? », Proceedings of the National Academy of Sciences, 97 (2000) : 5031-5033.

Page 337: Thèse version3.R

337

LAURENT, M., KELLERSHOHN, N., « Multistability: a major means of differentiation and evolution in biological systems », Trends in Biochemical Sciences, 24 (1999) : 418-422.

LEE, C. K. et al., « Gene expression profile of aging and its retardation by caloric restriction », Science, 285 (1999) : 1390–93.

LEE, I. et al., « An Improved, Bias-Reduced Probabilistic Functional Gene Network of Baker’s Yeast, Saccharomyces cerevisiae », PLoS ONE, 2 (2007) : e988.

LEE, T. I. et al., « Transcriptional Regulatory Networks in Saccharomyces cerevisiae », Science, 298 (2002) : 799-804.

LEGGEWIE, G. et al., « Overexpression of the sucrose transporter SoSUT1 in potato results in alterations in leaf carbon partitioning but has little impact on tuber morphology », Planta, 217 (2003) : 158-167.

LELOUP, J. C. and GOLDBETER, A., « Modeling the molecular regulatory mechanism of circadian rhythms in Drosophila », Bioessays, 22 (2000) : 84-93.

LEV BAR-OR, R. et al., « Generation of oscillations by the p53–Mdm2 feedback loop: a theoretical and experimental study », Proceedings of the National Academy of Sciences, 97 (2000) : 11250–11255.

LEWENS, T., Organisms And Artifacts, Design in Nature and Elsewhere, Cambridge, Massachusetts, The MIT Press, 2004.

LEWIN, R., « Why is development so illogical ? », Science, 224 (1984) : 1327-1329. LIPSHUTZ, R. J. et al., « High density synthetic oligonucleotide arrays, Nature Genetics

supplement, 21 (1999) : 20-24. LOCKHART, D.J. et al., « Expression monitoring by hybridization to high-density

oligonucleotide arrays », Nature Biotechnology, 14 (1996) : 1675–1680. LONGO, D. et al., « Multicellular computer simulation of morphogenesis : blastocoel roof

thinning and matrix assembly in Xenopus laevis », Developmental Biology, 271 (2004) : 210-222.

LOOIJEN, C., Holism and reductionism in biology and ecology, Groningen, 2000. M�ESAROVIC, M. � D. � (ed.)��, � �S�y�s�t �e�m�s� �t �h�e�o�r�y� �a�n�d� �b�i �o�l �o�g�y�, N�ew-York,� �S �p�r �i �n�g�e�r�V�e�r �l �a�g, �1�9�6�8.

MA, H. et al., « The Edinburgh human metabolic network reconstruction and its functional analysis », Molecular Systems Biology, 3 (2007) : 135.

MA, W. et al., “Robustness and modular design of the Drosophila segment polarity network” Molecular Systems Biology, 2 (2006) : 70.

MACBEATH, G. and SCHREIBER, S. L., "Printing Proteins as Microarrays for High-Throughput Function Determination", Science, 289 (2000) : 1760-1763.

MACHAMER, P. DARDEN, L. et CRAVER, C., "Thinking About Mechanisms", Philosophy of Science, 67 (2000) : 1-25.

MAHADEVAN, R. and PALSSON, B. O., « Properties of metabolic networks : structure versus function », Biophysical Journal, 88 (2005) : L07-L09.

MANGAN, S. et al., « The coherent feed-forward loop serves as a sign-sensitive delay element in transcription networks », Journal of Molecular Biology, 334 (2003) : 197-204.

MANN, M. et al., « Analysis of protein phosphorylation using mass spectrometry: deciphering the phosphoproteome », Trends in Biotechnology, 20 (2002) : 261-268.

MARSHALL, C. J., « Specificity of receptor tyrosine kinase signaling: transient versus sustained extracellular signal-regulated kinase activation », Cell, 80 (1995) : 179-185.

MASLOV, S. and SNEPPEN, K., « Specificity and Stability in Topology of Protein Networks », Science, 296 (2002) : 910-913.

Page 338: Thèse version3.R

338

MAXAM, A. M., et al., « A new method for sequencing DNA », Proceedings of the National Academy of Sciences, 74 (1977) : 1258-1262.

MAYR, E. Toward A New Philosophy of Biology. Observations of an Evolutionist, Harvard University Press, 1988.

MAYR, E., The Growth of Biological Thought, The Belknap Press of Harvard University Press, 1982

MCADAMS, H. H. et al., « A bacterial cell-cycle regulatory network operating in time and space », Science, 301 (2003) : 1874–1877.

MCADAMS, H. H. and ARKIN, A. P., « Stochastic mechanisms in gene expression », Proceedings of the National Academy of Sciences, 94 (1997) : 814–819.

MCKUSICK, V. A. and RUDDLE, F. H., « A new discipline, a new name, a new journal », Genomics, 1 (1987) : 1-2.

MCKUSICK, V. A., « Genomics: Structural and Functional Studies of Genomes », Genomics, 45 (1997) : 244-249.

MEINHARDT, H., Models of biological pattern formation, London, Academic Press, 1982.

MEINHARDT, H., The algorithmic Beauty of Sea Shels, Springer, 1995. MESAROVIC, M. and SREENATH, S. N., « Beyond the Flat Earth Perspective in

Systems Biology », Biological Theory, 1(2006) : 33–34 MILO, R. et al., « Network motifs : simple building blocks of complex networks »,

Science 298 (2002) : 824-827. MILO, R., et al., « Superfamilies of evolved and designed networks », Science, 303 (2004)

: 1538–1542. MIN JOU, W. et al., « Nucleotide sequence of the gene coding for the bacteriophage MS2

coat protein », Nature, 237 (1972) : 82-8. MINTON, A. P., « How can biochemical reactions within cells differ from those in test

tubes? », Journal of Cell Sciences, 119 (2006) : 2863-2869. MONTALTA-HE et al., « Impressive expressions: developing a systematic database of

gene-expression patterns in Drosophila embryogenesis », Genome Biology, 4 (2003) : 205.

MONTAVON, T. et al., « Modeling Hox gene regulation in digits: reverse collinearity and the molecular origin of thumbness », Genes and Development, 22 (2008) : 346-359.

MORANGE, M., La vie expliquée ?50 ans après la double-hélice, Paris, Odile Jacob, 2003.

MORANGE, M., Les secrets du vivant, Paris, Editions La Découverte, 2005. MOSS, L., “Deconstructing the gene”, in S. Oyama, P. Griffith, R. Gray (eds.), Cycles of

contingency, The MIT Press, 2003. MURRAY, A. W., « Wither genomics ? », Genome Biology, 1 (2000) : 1-6. MYERS, C. L. et al., « Discovery of biological networks from diverse functional genomic

data », Genome Biology, 6 (2005) : R114. NAGEL, E., The Structure of Science, Routledge & Kegan Paul, 1961. NEVES, S. R. et al., « Modeling of signaling networks », BioEssays, 12 : 1110-1117. NEWMAN, M. E. J., « The structure of scientific collaboration networks », Proceedings of

the National Academy of Sciences, 98 (2001) : 404–409. NI, T. C. et al., « Application of biochemical systems theory to metabolism in human red

blood cells. Signal propagation and accuracy of representation », Journal of Biological Chemistry, 271 (1996) : 7927-7941.

NOBLE, D., « Systems biology and the heart », BioSystems, 83 (2006) : 75–80. NOVAK, B. et al., « Irreversible cell-cycle transitions are due to systems-level feedback »,

Nature Cell Biology, 9 (2007) : 724-728.

Page 339: Thèse version3.R

339

NOVAK, B. et al., « Quantitative analysis of a molecular model of mitotic control in fission yeast », Journal of Theoretical Biology, 173 (1995) : 283-305.

NOVICK, A. and WEINER, M., « Enzyme induction as an all-or-none phenomenon », Proceedings of the National Academy of Sciences, 43 (1957) : 553–566.

NOWAK, R., « Entering the Postgenome Era », Science, 270 (1995) : 368-369. NURSE, P., « A long twentieth century of the cell cycle and beyond », Cell, 100 (2000) :

71-78. NURSE, P., “Reductionism and explanation in cell biology”, in G. R. Bock and J. Goode,

The limits of reductionism in biology, Novartis Foundation Symposium, Londres. O’MALLEY, M.A. and DUPRE, J., « Fundamental issues in systems biology »,

BioEssays, 27 (2005) : 1270-1276. OKASHA, S., Evolution and the Levels of Selection, Oxford University Press, 2007. Overview of the Alliance for Cellular Signaling, Nature, 420 (2002) : 703-706. PALSSON, B. O., « In silico biology through ‘omics’ », Nature Biotechnology, 20 (2002) :

649-650. PALSSON, B. O., Systems Biology: Properties of Reconstructed Networks, Cambridge,

Cambridge University Press, 2006. PAPIN, J. A. et al., « Reconstruction of cellular signalling networks and analysis of their

properties », Nature Reviews Molecular Cell Biology, 6 (2005) : 99-111. PAPIN, J.A. et al., « Metabolic pathways in the post-genome era », Trends in Biochemical

Sciences, 28 (2003) : 250-258. PATTERSON, S. D. et al., “Proteomics: the first decade and beyond », Nature Genetics,

33 (2003) : 313-323. PIGLIUCCI, M. « Do we need an extended evolutionary synthesis? », Evolution, 61

(2007) : 2743-2749. PLASTERK, R., “Questions and answers”, Current Biology, 15 (2005): R861-R862. POMERENING, J. R., SONTAG, E. D., FERRELL, J. E., « Building a cell cycle

oscillator: hysteresis and bistability in the activation of Cdc2 », Nature Cell Biology, 5 (2003) : 346–351.

POURQUIE, O. et al., « Segmentation clock :insights from computational models », Current Biology, 13 (2003) : R632-R634.

PRIGOGINE, I., Introduction à la thermodynamique des processus irréversibles, Paris, Dunod, 1968.

PRILL, R. et al., « Dynamic Properties of Network Motifs Contribute to Biological Network Organization », PLoS Biology, 3 (2005) : 1881-1892.

PRUSINKIEWICZ, P., « Modeling plant growth and development », Current Opinion in Plant Biology, 7 (2004) : 79-83.

PTASHNE, M., A Genetic Switch: Phage and Higher Organisms, Oxford, Blackwell, 1992.

PUTNAM, H., Mind, Language, and Reality, New-York, Cambridge University Press, 1975.

QUAYLE, A. P. and BULLOCK, S., « Modelling the evolution of genetic regulatory networks », Journal of Theoretical Biology, 238 (2006) : 737-753.

RAFF, R., The Shape of Life : Genes, Development and the Evolution of Animal Form, Chicago, University of Chicago Press, 1996.

RAFTOPOULOU, M. and HALL, A., « Cell migration: Rho GTPases lead the way », Developmental Biology, 265 (2004) : 23-32.

RAMILLON, V., Les deux Génomiques. Mobiliser, Organiser, Produire : du séquençage à la mesure de l'expression des gènes, Thèse de Doctorat, 2007.

Page 340: Thèse version3.R

340

RAO, C. V., KIRBY, J. R. and ARKIN, A. P., « Design and Diversity in Bacterial Chemotaxis: A Comparative Study in Escherichia coli and Bacillus subtilis », PLOS Biology, 2 (2004) : 0239-0252.

RASHEVSKY, N., « Topology and life: In search of general mathematical principles in biology and sociology ». Bulletin of Mathematical Biophysics, 16 (1954) : 317-348.

RAVASZ, E. et al., « Hierarchical organization of modularity in metabolic networks », Science, 297 (2002) : 1551–1555.

RAY, T. S., « An approach to the synthesis of life », in M. Boden, (ed.), The Philosophy of Artificial Life, Oxford, Oxford University Press, 1996.

RIVES, A. W. et al., « Modular organization of cellular networks », Proceedings of the National Academy of Sciences, 100 (2003) : 1128 –1133.

ROBERTS, L. et al., « A History of the Human Genome Project », Science, 291 (2001) : 1195.

ROLLO, C. D., Phenotypes, Boca Raton, Chapman and Hall, 1995. ROSEN, R., « Some systems theoretical problems in biology », in E. Lazlo (Ed.) The

relevance of general systems theory, George Braziller, 1972. ROSEN, R., Dynamical systems theory in biology. New-York, Wiley Interscience Biology,

1970. ROSEN, R., Life itself, New-York, Columbia University Press, 1991. ROSENBERG, A., Instrumental Biology or the Disunity of Science, Chicago, The

University of Chicago Press, 1994. ROSENBERG, A., « Reductionism redux : computing the embryo », Biology and

Philosophy, 12 (1997) : 445-470. ROSENBERG, A., Darwinian Reductionism, Chicago, The University of Chicago Press,

2006. RUSE, M. « Reduction, replacement, and molecular biology », Dialectica, 25 (1971) : 39-

72. RUSE, M., « Two biological revolutions », Dialectica, 25 (1971) : 17-38. SALMON, W., Scientific explanation ant the causal structure of the world, Princeton

University Press, 1984. SANCHEZ, L. et al., « Segmenting the fly embryo : a logical analysis of the pair-rule

cross-regulatory module », Journal of Theoretical Biology, 224 (2003) : 517-537. SANGER, F. « Sequences, sequences, and sequences », Annual Review of Biochemistry,

57 (1988), 1-28. SANGER, F. and COULSON, A. R., « A rapid method for determining sequences in DNA

by primed synthesis with DNA polymerase », Journal of Molecular Biology, 94 (1975) : 441-448.

SANGER, F. et al., « Nucleotide sequence of bacteriophage phi X174 DNA », Nature, 265 (1977) : 687-95.

SANGER, F., et al., « DNA sequencing with chain-terminating inhibitors », Proceedings of the National Academy of Sciences, 74 (1977) : 5463-5467.

SARKAR, S., Genetics and reductionism, Cambridge University Press, 1998. SARKAR, S., Molecular models of life, MIT Press, 2007. SAVAGEAU, M. A., « Are there rules governing patterns of gene regulation ? », in B.

Goodwin, and P. Saunders (eds.), Theoretical Biology, Edinburgh, Edinburgh University Press, 1989.

SCHAFFNER, K., « Approaches to reduction », Philosophy of Science, 34 (1967) : 137-147.

SCHAFFNER, K., « The Watson-Crick model and reductionism », British Journal for the Philosophy of Science, 20 (1969) : 325-348.

Page 341: Thèse version3.R

341

SCHAFFNER, K. F., Discovery and Explanation in Biology and Medicine, Chicago, The University of Chicago Press, 1993.

SCHANK, J. C. and WIMSATT, W. C., « Generative entrenchment and evolution », In PSA, vol. 2 : 33—60, 1988.

SCHENA, M. et al., « Quantitative monitoring of gene expression patterns with a complementary DNA microarray », Science, 270 (1995) : 467-470.

SCHLOSSER, G. and WAGNER, G. P. (eds.), Modularity in Development and Evolution, Chicago, University of Chicago Press, 2004.

SHA, W. et al., « Hysteresis drives cell-cycle transitions in Xenopus laevis egg extracts », Proceedings of the National Academy of Sciences, 100 (2003) : 975–980.

SHAW, L. B. et al., « Integration of proteomic, genechips, and DNA sequence data », in J. S. Albala and I. Humphery-Smith (eds.), Protein Arrays, Biochips, and Proteomics, New-York, Marcel Dekker Inc., 2003.

SHELTON, D.N. et al., « Microarray analysis of replicative senescence », Current Biology, 9 (1999) : 939–45.

SHEN-ORR, S. S. et al., « Network motifs in the transcriptional regulation network of Escherichia coli », Nature Genetics, 31 (2002) : 64-68.

SHIMIZU, T. S. et BRAY, D., « Computational Cell Biology – The stochastic approach », in H. Kitano (ed.), Foundations of Systems Biology, MIT Press, 2001.

SHOEMAKER, D. D. et al., « Experimental annotation of the human genome using microarray technology », Nature, 409 (2001) : 922–927.

SKIPPER, R. A. and MILLSTEIN, R. L., “Thinking about Evolutionary Mechanisms: Natural Selection,” in C. F. Craver and L. Darden (eda.), Special Issue: “Mechanisms in Biology,” Studies in History and Philosophy of Biological and Biomedical Sciences, 36 (2005) : 327-347.

SLACK, J. M. W., From Egg to Embryo: Determinative Events in Early Development, New York, Cambridge University Press, 1983.

SMART, J. C. C., Philosophy and Scientific Realism, London, Routledge and Kegan Paul, 1962.

SMITH, M. et al., “Developmental constraints and evolution”, Quarterly Review of Biology, 60 (1985) : 265-287.

SMOLEN, P. et al., « Modeling circadian oscillations with interlocking positive and negative feedback loops », Journal of Neuroscience, 21 (2001) : 6644-6656.

SOBER, E., « Equilibrium Explanation », Philosophical Studies, 43 (1983) : 201-210. SOBER, E., « The multiple realizability argument against reductionism », Philosophy of

Science, 66 (1999) : 542-64. SOLE, R. V. and MONTOYA, J. M., « Complexity and fragility in ecological networks »,

Proceedings of the Royal Society London B, 268 (2001) : 2039-2045. SONTAG, E. D., « Molecular systems biology & control », European Journal of Control,

11 (2005) : 396-435. SONTAG, E. D., « Some new directions in control theory inspired by systems biology »,

Systems Biology, 1 (2004) : 9-18. SPELLMAN, P.T. et al., « Comprehensive identification of cell cycle-regulated genes of

the yeast Saccharomyces cerevisiae by microarray hybridization », Molecular Biology of the Cell, 9 (1998) : 3273-3297.

SPRINZAK, D. et al., « Reconstruction of genetic circuits », Nature, 438 (2005) : 443-448.

STELLING, J. et al., « Robustness of cellular functions », Cell, 118 (2004) : 675-685. STEPHAN, A., « Varieties of emergentism », Evolution and Cognition, 5 (1999) : 49-59.

Page 342: Thèse version3.R

342

STERELNY, K. et GRIFFITHS, P. E., Sex and Death : an Introduction to Philosophy of Biology, Chicago, The University of Chicago Press, 1999.

STEVENS, R. C. et al., « Global efforts in structural genomics », Science, 294 (2001) : 89-92.

STONE, J. R. and WRAY, G. A., « Rapid Evolution of cis-Regulatory Sequences via Local Point Mutations », Molecular Biology and Evolution, 18 (2001) : 1764-1770.

STROGATZ, S. H., « Exploring complex networks », Nature, 410 (2001) : 268-276. STUART, J. M. et al., « A gene-coexpression network for global discovery of conserved

genetic modules », Science, 302 (2003) : 249-255. SWIERS, G. et al., « Genetic regulatory networks programming hematopoietic stem cells

and erythroid lineage specification », Developmental Biology, 294 (2006) : 525-540. TABERY, J. G., « Synthesizing Activities and Interactions in the Concept of a

Mechanism », Philosophy of Science, 71 (2004) : 1-15. TAVAZOIE, S. et al., « Systematic determination of genetic network architecture »,

Nature Genetics, 22 (1999) : 281–285. The Arabidopsis Genome Initiative, « Analysis of the genome sequence of the flowering

plant Arabidopsis thaliana », Nature, 408 (2000) : 796-815. THIEFFRY, D. et al., « Dynamical modelling of pattern formation during embryonic

development », Current Opinion in Genetics and Development, 13 (2003) : 326-330. THOM, R., Stabilité structurelle et morphogenèse, Paris, Ediscience, 1972. THOMAS, R., « On the relation between the logical structure of systems and their ability

to generate multiple steady states or sustained oscillations », Springer Series in Synergetics, 9 (1981) : 180-193.

THOMPSON, D’Arcy, On Growth and Form, Cambridge, Cambridge University Press, 1917.

THORNTON, J. M. et al., « From structure to function: approaches and limitations », Nature Structural Biology, 7 (2000) : 991–994.

TOMITA, M., “Whole-cell simulation : a grand challenge for the 21st century”, Trends in Biotechnology, 19 (2001) : 205-210.

TOMLIN, C. J. and AXELROD, J. D., : « Understanding biology by reverse engineering the control », Proceedings of the National Academy of Sciences, 102 (2005) : 4219-4220.

TROUT, J. D., « Scientific explanation and the sense of understanding », Philosophy of Science, 69 (2002) : 212-233.

TSUI, C. C., Robust Control System Design, Marcel Dekker, 2003. TURING, A., « The Chemical Basis of Morphogenesis », Philosophical transactions of the

Royal Society B, 237 (1952) : 37-72. TURING, A. M. et WARDLAW, C. W., « A diffusion reaction theory of morphogenesis in

plants », in P.T. Saunders (ed.), Collected works of A.M.Turing, North-Holland, 1992. TWEEDDALE, H. et al., « Effect of Slow Growth on Metabolism of Escherichia coli, as

Revealed by Global Metabolite Pool ("Metabolome") Analysis », Journal of Bacteriology, 180 (1998) : 5109-5116.

TYERS, M. et al., « From genomics to proteomics », Nature, 422 (2003) : 193-197. TYSON, J. J. et al., « Chemical kinetic theory : understanding cell-cycle regulation »,

Trends in Biochemical Science, 21 (1996) : 89-96. TYSON, J. J. et al., « Sniffers, buzzers, toggles and blinkers: dynamics of regulatory and

signaling pathways in the cell », Current Opinion in Cell Biology, 15 (2003) : 221-231. UETZ, P. et al., « A comprehensive analysis of protein-protein interactions in

Saccharomyces cerevisiae », Nature, 403 (2000) : 623-627.

Page 343: Thèse version3.R

343

VELCULESCU, V. E. et al., « Characterization of the yeast transcriptome », Cell, 88 (1997) : 243-51.

VELCULESCU, V. E. et al., « Serial analysis of gene expression », Science, 270 (1995) : 484–487.

VENTER, J. C. et al., "The sequence of the human genome", Science, 291 (2001) : 1304-1351.

VILAR, J. et al., « Modeling network dynamics: the lac operon, a case study », Journal of Cell Biology, 161 (2003) : 471-476.

VON DASSOW, G. and MEIR, E., « Exploring modularity with dynamical models of gene networks », in G. Schlosser and G. P. Wagner (eds.), Modularity in Development and Evolution, Chicago, University of Chicago Press, 2004.

VON DASSOW, G et al., « The segment polarity network is a robust developmental module », Nature, 406 (2000) : 188-92.

VON DASSOW, G. and ODELL, G.M., « Design and constraints of the Drosophila segment polarity module: robust spatial patterning emerges from intertwined cell state switches », Journal of Experimental Zoology, 294 (2002) : 179-215.

VON MERING, C. et al., « Comparative assessment of large-scale data sets of protein-protein interactions », Nature, 417 (2002) : 399-403.

WADDINGTON, C. H. (ed.), Towards a theoretical Biology, Edinburgh, Edinburgh University Press, 4 volumes : 1968, 1969, 1970, 1972.

WAGNER, A., « Does Selection Mold Molecular Networks? », Science, 202 (2003) : 41-43.

WAGNER, A., « How the global structure of protein interacion networks evolves », Proceedings of the Royal Society London B, 270 (2003) : 457-466.

WAGNER, A., Robustness and Evolvability in Living Systems, Princeton University Press, 2005.

WANG, K. et al., « Monitoring gene expression profile changes in ovarian carcinomas using a cDNA microarray », Gene, 229 (1999) : 101–8.

WASINGER, V. C. et al., « Progress with gene-product mapping of the Mollicutes: Mycoplasma genitalium », Electrophoresis, 16 (1995) : 1090-4.

WATERS, K. « Why the antireductionist consensus won’t survive the case of classical genetics », in PSA 1990, 1 : 125-39.

WATERSTON, R. H. et al., « Initial sequencing and comparative analysis of the mouse genome », Nature, 420 (2002) : 520-62.

WATSON, J. D., « The Human Genome Project, past, present, and future », Science, 248 (1990) : 44-49.

WEBER, B. H. and DEPEW, D. J., « Darwinism, design, and complex systems dynamics », in W. A. Dembski and M. Ruse (eds.), Debating Design, Cambridge, Cambridge University Press, 2004.

WEBER, M., The philosophy of experimental biology, Cambridge, Cambridge University Press, 2005.

WEBER, M., « Causes without Mechanisms: Experimental Regularities, Physical Laws, and Neuroscientific Explanation », Philosophy of Science (à paraître).

WEINSTEIN, J. N., « Fishing expeditions », Science, 282 (1998) : 687. WEINSTOCK, G. M., « ENCODE: More genomic empowerment », Genome Research, 17

(2007) : 667-668. WEISBERG, M., « Forty Years of ‘The Strategy’ : Levins on Model Building and

Idealization », Biology and Philosophy, 21 (2006) : 623-645.

Page 344: Thèse version3.R

344

WEITZKE, E. L. et al., « Simulating cellular dynamics through a coupled transcription, translation, metabolic model », Computational Biology and Chemistry, 27 (2003) : 469–480.

WEN, X. et al., « Large-scale temporal gene expression mapping of central nervous system development », Proceedings of the National Academy of Sciences, 95 (1998) : 334-339.

WENG, G. et al., « Complexity in biological signaling systems », Science, 284 (1999) : 92-96.

WESTERHOFF, H. V. and KELL, D. B., « The methodologies of systems biology », in F. Boogerd et al. (eds), Systems Biology, Philosophical Foundations, Amsterdam, Elsevier, 2007.

WESTERHOFF, H. V., “Mathematical and theoretical biology for systems biology, and then ...vice versa”, Journal of Mathematical Biology, 54 (2007): 147-150.

WESTERHOFF, H. V. and PALSSON, B. O., « The evolution of molecular biology into systems biology », Nature Biotechnology, 22 (2004) : 1249-1252.

WHEELAN, S. J. et al., « Late-night thoughts on the sequence annotation problem », Genome Research, 8 (1998) : 168-169.

WIENER, N., Cybernetics Or Control and Communication in the Animal and the Machine, Cambridge, The MIT Press, 1948.

WILKINS, M. R. et al., « From proteins to proteomes: large scale protein identification by two- dimensional electrophoresis and amino acid analysis », Biotechnology, 14 (1996) : 61–65.

WIMSATT, W. C. and SCHANK, J. C., « Two constraints on the evolution of complex adaptations and the means of their avoidance », in M.H. Nitecki (ed.), Evolutionary Progress, Chicago, University of Chicago Press, 1988.

WIMSATT, W. C., « Reductive Explanation: A Functional Account », in R. S. Cohen et al. (eds.), PSA 1976, vol. 2, 671–710, Dordrecht, Reidel.

WIMSATT, W. C., « Emergence as Non-Aggregativity and the Biases of Reductionisms », Foundations of Science, 5 (2000) : 269-297.

WIMSATT, W.C., « False models as means to truer theories », In M.H. Nitecki and A. Hoffman (eds.), Neutral Models in Biology, London, Oxford University Press, 1987.

WINZELER, E. A. et al., « Functional characterization of the S. cerevisiae genome by gene deletion and parallel analysis », Science, 285 (1999) : 901–906.

WOLKENHAUER, O. and MESAROVIC, M., « Feedback dynamics and cell function: Why systems biology is called Systems Biology », Molecular Biosystems, 1 (2005) : 14-16.

WOLKENHAUER, O., « Mathematical modelling in the post-genome era: understanding genome expression and regulation — a system theoretic approach », Biosystems, 65 (2002) : 1-18.

WOLPERT, L., « Positional information and pattern formation », in C. H. Waddington (ed.), Towards a Theoretical Biology, 2.Essays, pp. 83-94, 1969.

WOLPERT, L., « Positional information and the spatial pattern of cellular differentiation », Journal of Theoretical Biology, 25 (1969) : 1-47.

WOUTERS, A., « Design Explanation: determining the constraints on what can be alive », Erkenntnis, 67 (2007) : 65-80.

WOUTERS, A., « The Function Debate in Philosophy », Acta Biotheoretica, 53 (2005) : 123-151.

WU, S. M. et al., « Analysis of mouse germ-cell transcriptome at different stages of spermatogenesis by SAGE: Biological significance », Genomics, 84 (2004) : 971-981.

Page 345: Thèse version3.R

345

WU, L. F. et al., « Large-scale prediction of Saccharomyces cerevisiae gene function using overlapping transcriptional clusters », Nature Genetics, 31 (2002) : 255-265.

WUENSCHE, A., « Basins of Attraction in Network Dynamics: A Conceptual Framework for Biomolecular Networks », in G. Schlosser and G. P. Wagner (eds.), Modularity in Development and Evolution, Chicago, Chicago University Press, 2004.

WYNNE-EDWARDS, V. C., Animal Dispersion in Relation to Social Behaviour, Edinburgh, Oliver & Boyd, 1962.

YI, T.-M. et al., « Robust perfect adaptation in bacterial chemotaxis through integral feedback control », Proceedings of the National Academy of Sciences, 97 (2000) : 4649-4653.

YOOK, S. H. et al., « Functional and topological characterization of protein interaction networks », Proteomics, 4 (2004) : 928-942.

YU, H. et al., « Genomic analysis of essentiality within protein networks », Trends in Genetics, 20 (2004) : 227-231.

YU, J. et al., « A draft sequence of the rice genome (Oryza sativa L. ssp. indica) », Science, 296 (2002) : 79-92.

ZAMAN, M. H. et al., « Computational model for cell migration in three-dimensional matrices », Biophysical Journal, 89 (2005) : 1389-1397.

ZHANG, J., « Evolution by gene duplication: an update », Trends in Ecology and Evolution, 18 (2003) : 292-298.

Page 346: Thèse version3.R

Enjeux philosophiques de la biologie des systèmes

Résumé : La biologie des systèmes est souvent décrite comme une transformation profonde de la biologie et un rejet des approches réductionnistes de la biologie moléculaire. Cette thèse clarifie la nature de ces changements en revenant sur certaines questions centrales de la philosophie des sciences à la lumière de ces travaux scientifiques. Il apparaît que la biologie des systèmes ne justifie pas une position anti-réductionniste forte. Toutefois, si elle poursuit le projet de la biologie moléculaire d’expliquer le vivant au niveau moléculaire, elle reconnaît la nécessité de recourir à des modèles formels pour rendre compte de l’émergence des phénomènes fonctionnels complexes et s’efforce de mieux intégrer les différents niveaux explicatifs. La manière dont ces nouveaux modèles complètent et étendent les explications mécanistes classiques est analysée. Une conception pragmatique de l’explication et de la réduction, seule capable de saisir la nature de ces progrès, est défendue. Ce travail montre que la biologie des systèmes, en mettant au jour des principes généraux d’organisation, a l’ambition de développer une biologie théorique qui évite en partie les problèmes qu’ont toujours connus les tentatives passées. Ces approches conduisent à de nouveaux modèles explicatifs qui enrichissent notre connaissance des contraintes pesant sur l’évolution des systèmes biologiques et permettent de trouver des principes communs derrière l’immense diversité des mécanismes moléculaires.

Philosophical issues in systems biology

Summary: Systems biology is often described as a deep transformation of biology and a rejection of molecular biology’s reductionist approaches. This thesis analyzes the nature of these changes by looking at some central issues of the philosophy of science in the light of these scientific works. It is shown that systems biology does not vindicate a strong anti-reductionist position. But, if it continues molecular biology’s project to explain life at the molecular level, it acknowledges the necessity to develop formal models to account for the emergence of complex functional phenomena and it better integrates different explanatory levels. The way these new models extend classical mechanistic explanations is analyzed. A pragmatic conception of explanation and reduction able to capture the nature of these progresses is defended. This work shows that systems biology, by uncovering general design principles, tries to build a theoretical biology that avoids in part the problems of past attempts. These approaches lead to new explanatory models that enhance our knowledge of constraints that bear on biological systems and allow finding common principles behind the vast diversity of molecular mechanisms. Discipline : Philosophie

Mots clés : Biologie des systèmes, Biologie théorique, Explication, Modélisation, Philosophie de la biologie, Philosophie des sciences, Réductionnisme.

École doctorale : École Doctorale de Philosophie, Université Paris 1 - Panthéon Sorbonne, 17 rue de la Sorbonne, 75005 Paris.

Équipe d'accueil : Institut d'Histoire et de Philosophie des Sciences et des Techniques (UMR 8590), 13 rue du Four, 75006 Paris.