l’analyse biologique de demain: vers une médecine

11
p CLEFS CEA - N° 54 - AUTOMNE 2006 88 La mesure du très complexe D epuis qu’il essaie de comprendre le monde du vivant, l’homme a cherché à analyser la composition des objets qui le constituent. Maintenant qu’il est claire- ment établi que la vie résulte de l’agencement et du fonctionnement coordonné d’un grand nombre de molécules, dont certaines sont l’apanage du vivant, l’analyse biologique est devenue moléculaire. L’objet de cette analyse est extrêmement varié, puisqu’il va de molécules inorganiques (métaux, ions) aux macro- molécules biologiques (protéines, acides nucléiques, sucres complexes), en passant par les molécules orga- niques de petite taille (sucres, lipides, hormones, vita- mines, neurotransmetteurs (1) , métabolites naturels, médicaments…). Une petite partie de ces cibles est mesurée à l’aide de techniques issues de l’analyse chi- mique (métaux, ions, sucres, protéines totales), mais la grande majorité relève de méthodes plus récentes spécifiquement adaptées aux molécules biologiques. Un enchaînement de briques de base Une des particularités les plus surprenantes du monde du vivant est sa capacité à générer une multitude de structures, et donc d’activités distinctes, à partir de (1) Neurotransmetteur : petite molécule sécrétée par une cellule nerveuse et qui assure le transfert de l’influx nerveux vers une autre cellule nerveuse (transmission chimique, par opposition à la transmission électrique qui propage l’influx nerveux le long des nerfs). Les neurotransmetteurs agissent le plus souvent au niveau des synapses (structures extracellulaires spécialisées mettant en contact deux cellules nerveuses). En raison de leurs performances et de leur facilité de mise en œuvre, les dosages immunologiques ont envahi tous les secteurs de l’analyse biologique. Les analyses biologiques de demain quitteront le domaine du laboratoire spécialisé. L. Godart/CEA L’ analyse biologique de demain : vers une médecine personnalisée L’analyse biologique de demain va quitter le domaine du laboratoire spécialisé pour entrer de plain-pied dans le cabinet du médecin et dans la vie courante. Il sera nécessaire d’effectuer des analyses plus rapides et en plus grand nombre sur des échantillons de taille toujours plus réduite. L’homme n’évoluera plus dans un univers où, face à une pathologie donnée, un seul médicament sera valable pour tous les patients du monde. Au contraire, le médecin se trouvera dans la situation où il devra ou pourra choisir, au sein d’un véritable arsenal thérapeutique varié, la molécule la mieux appropriée aux caractéristiques de son patient. Cela laisse ainsi espérer une véritable adaptation thérapeutique individuelle.

Upload: others

Post on 17-Jun-2022

1 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: L’analyse biologique de demain: vers une médecine

p

CLEFS CEA - N° 54 - AUTOMNE 200688

La mesure du très complexe

Depuis qu’il essaie de comprendre le monde du vivant,l’homme a cherché à analyser la composition des

objets qui le constituent. Maintenant qu’il est claire-ment établi que la vie résulte de l’agencement et dufonctionnement coordonné d’un grand nombre demolécules, dont certaines sont l’apanage du vivant,l’analyse biologique est devenue moléculaire. L’objetde cette analyse est extrêmement varié, puisqu’il va demolécules inorganiques (métaux, ions) aux macro-molécules biologiques (protéines, acides nucléiques,sucres complexes), en passant par les molécules orga-niques de petite taille (sucres, lipides,hormones,vita-mines, neurotransmetteurs (1), métabolites naturels,médicaments…). Une petite partie de ces cibles estmesurée à l’aide de techniques issues de l’analyse chi-

mique (métaux, ions, sucres, protéines totales), maisla grande majorité relève de méthodes plus récentesspécifiquement adaptées aux molécules biologiques.

Un enchaînement de briques de base

Une des particularités les plus surprenantes du mondedu vivant est sa capacité à générer une multitude destructures, et donc d’activités distinctes, à partir de

(1) Neurotransmetteur : petite molécule sécrétée par une cellulenerveuse et qui assure le transfert de l’influx nerveux vers uneautre cellule nerveuse (transmission chimique, par opposition à la transmission électrique qui propage l’influx nerveux le longdes nerfs). Les neurotransmetteurs agissent le plus souvent au niveau des synapses (structures extracellulaires spécialiséesmettant en contact deux cellules nerveuses).

En raison de leursperformances et de leur

facilité de mise en œuvre,les dosages

immunologiques ontenvahi tous les secteursde l’analyse biologique.

Les analyses biologiquesde demain quitteront

le domaine du laboratoirespécialisé.

L. G

odar

t/C

EA

L’analyse biologique dedemain : vers une médecinepersonnaliséeL’analyse biologique de demain va quitter le domaine du laboratoire spécialisé pourentrer de plain-pied dans le cabinet du médecin et dans la vie courante. Il sera nécessaired’effectuer des analyses plus rapides et en plus grand nombre sur des échantillons de tailletoujours plus réduite. L’homme n’évoluera plus dans un univers où, face à une pathologiedonnée, un seul médicament sera valable pour tous les patients du monde. Au contraire, le médecin se trouvera dans la situation où il devra ou pourra choisir, au sein d’un véritablearsenal thérapeutique varié, la molécule la mieux appropriée aux caractéristiques de son patient. Cela laisse ainsi espérer une véritable adaptation thérapeutique individuelle.

Page 2: L’analyse biologique de demain: vers une médecine

CLEFS CEA - N° 54 - AUTOMNE 2006 89

(2) Cytokine : protéine ou peptide (molécule de type protéique formée d’un petit nombre d’acides aminés) de signalisation extracellulaire qui agit comme médiateur local de la communication entre les cellules.

(3) La constante de dissociation est égale à : ([concentration de l’antigène] � [concentration de l’anticorps])/[concentrationdu complexe antigène-anticorps].

(4) Immunohistochimie et immunocytochimie : méthodes de détection d’antigènes tissulaires (immunohistochimie) oucellulaires (immunocytochimie) par des anticorps spécifiquesmarqués, soit par des fluorochromes, qui sont des moléculesabsorbant la lumière à une longueur d’onde et répondant en émettant de la lumière à une longueur d’onde supérieure,soit par des enzymes.

(5) Western blot : technique par laquelle les protéines sontséparées par électrophorèse et immobilisées sur un supportsynthétique, puis analysées au moyen d’un anticorps marqué.

Dépôt d’échantillons dans les puits d’une plaque de microtitration pour laréalisation d’une grande sériede dosages immunologiques.Ces dosages s’appuient sur l’interaction entre un antigène et un anticorps.

L. G

odar

t/C

EA

quelques composants de base. Ainsi, toutes les pro-téines existant à la surface du globe, dont le nombrepeut être estimé à plusieurs millions ou milliards selonla prise en compte ou non des protéines comprenantdes séquences provenant d’agencements combinatoi-res comme les anticorps, résultent de l’assemblagelinéaire de vingt acides aminés différents. De façonencore plus spectaculaire, le nombre équivalent degènes et d’acides nucléiques découle de l’assemblagelinéaire de quatre nucléotides de base. Ainsi, les pro-priétés fondamentales de ces molécules biologiques nesont pas liées à leur composition chimique élémen-taire, qui est quasiment la même pour toutes les pro-téines ou acides nucléiques, mais bien à l’enchaîne-ment des briques de base (acides aminés, nucléotides)qui va conditionner la fonction de la macromolécule.Dans le cas des protéines, l’influence de la séquenceprimaire va être essentiellement de dicter la structuretridimensionnelle dont dépendra l’activité biologique.

Les outils d’aujourd’hui pour étudier le monde du vivant

Pour explorer ce monde particulier, il fallait des outilsadaptés, différents de ceux développés pour et par lachimie. Après plus de 50 ans d’analyse biologiquemoderne, il n’est pas surprenant de constater que cesoutils ont été essentiellement fournis par le mondedu vivant lui-même.Ainsi, pour analyser des protéi-nes, les biologistes utilisent aujourd’hui principale-ment des anticorps, c’est-à-dire d’autres protéines.Regroupées au sein des méthodes de l’immunoanalyse,les méthodes fondées sur l’utilisation d’anticorps cou-vrent une grande partie des analyses biologiques moder-nes. De la même façon, les acides nucléiques sont, leplus souvent,détectés à l’aide d’autres acides nucléiques.Dans toutes ces techniques,des molécules biologiquessont employées comme des “sondes”, qui vont per-mettre la détection et la quantification d’autres molé-cules biologiques avec lesquelles elles vont former descomplexes spécifiques.

Les méthodes de l’immunoanalyseCes méthodes reposent en grande partie sur les pro-priétés remarquables des anticorps et sur l’utilisationconjointe de molécules marquées. Les anticorps sontdes protéines produites par le système immunitairedes vertébrés supérieurs, en réponse à l’introductiondans un organisme d’un “antigène” perçu comme“étranger” par l’organisme. Le système immunitaireest capable de fabriquer des milliards d’anticorps dif-férents pour lutter contre les agents toxiques ou infec-tieux (bactéries, virus, toxines). C’est ce fantastiquerépertoire qui va être exploité par les biologistes pourréaliser des “dosages immunologiques”pour à peu prèsn’importe quel type de molécule biologique (hormo-nes,virus,bactéries,neurotransmetteurs,cytokines(2),médicaments…).Ces dosages sont fondés sur l’interaction “antigène-anticorps” caractérisée par une grande spécificité etpar une haute affinité. La spécificité des anticorps,c’est-à-dire leur aptitude à ne former de complexequ’avec le seul antigène contre lequel ils ont été sélec-tionnés, est une qualité essentielle. C’est elle qui per-met d’utiliser les anticorps comme de véritables son-des capables d’aller reconnaître dans un milieu

biologique, souvent très complexe, les molécules d’in-térêt et elles seules. L’affinité d’un anticorps vis-à-visd’un antigène donné est aussi un paramètre fonda-mental, parce qu’il va conditionner la sensibilité de lamesure effectuée.En effet,quelle que soit la techniqueemployée, un dosage immunologique ne détecteraune substance que s’il y a production d’un complexeantigène-anticorps. Or, la création de ces complexesobéit aux lois de la thermodynamique, qui prévoientque ceux-ci ne se formeront, de façon significative,qu’à la condition que la constante de dissociation (3)

de ces complexes (KD) l’autorise (en pratique le KD

doit être inférieur à 10-9 M).Depuis plus de 50 ans que les chercheurs ont apprisà utiliser les anticorps à des fins analytiques, un nom-bre considérable de techniques a été décrit. Il n’estpas question d’en dresser ici un inventaire détaillé.Certaines de ces méthodes permettent une détectionlocalisée d’un antigène, dans le but d’acquérir desinformations structurales à l’échelle cellulaire, sub-cellulaire ou moléculaire (immunohistochimie,immunocytochimie(4),western blot(5)).Elles sont lar-gement employées en recherche. Cependant, le plussouvent, les dosages immunologiques visent à réaliserune mesure quantitative de la concentration d’un anti-gène ou d’un anticorps dans un milieu biologique donné.Dans cette situation, la mesure est obtenue grâce à l’uti-lisation conjointe d’une “molécule marquée”, appeléeaussi traceur,qui permet de quantifier la formation descomplexes antigène-anticorps.Ces molécules marquéessont constituées par des molécules d’anticorps ou d’anti-gène sur lesquelles a été fixé un marqueur délivrant unsignal facilement mesurable à l’aide d’une méthode

Page 3: L’analyse biologique de demain: vers une médecine

p

CLEFS CEA - N° 54 - AUTOMNE 200690

La mesure du très complexe

physico-chimique sensible (radioactivité, fluores-cence, luminescence, activité enzymatique). Dansla plupart des cas (dosages hétérogènes), l’usage deces marqueurs impose une étape de séparation, defaçon à différencier les molécules marquées engagéesdans les complexes antigène-anticorps de celles quisont libres en solution. Le principe d’un dosage ditsandwich est présenté, à titre d’exemple, à la figure 1.Apparus il y a plus de 50 ans, les dosages immunolo-giques ont, depuis, envahi tous les domaines de l’ana-lyse biologique (recherche, diagnostic, agroalimen-taire),en raison de leurs performances et de leur facilitéde mise en œuvre. Ils se retrouvent aussi bien dans desautomates d’analyse très sophistiqués, qui effectuentplus de 400 analyses par heure avec une durée d’ana-lyse inférieure à 30 minutes et un seuil de détectionproche de l’attomole, que dans des tests rapides ouhome tests utilisables par toute personne sans forma-tion préalable (test de grossesse, par exemple).

Les dosages par hybridation moléculaireAvec les développements spectaculaires de la biologiemoléculaire à partir des années 70, d’autres méthodesd’analyse spécifiquement dédiées aux acides nucléiquessont apparues. Pour une bonne partie, elles sont cal-quées sur les méthodes de l’immunoanalyse et repo-sent sur les propriétés d’hybridation de deux brinsd’acides nucléiques complémentaires. Cette réactiond’hybridation va être exploitée de la même façon que

l’interaction antigène-anticorps pour détecter et quan-tifier des séquences spécifiques d’acides nucléiques(ADN ou ARN), le plus souvent grâce à l’utilisationconjointe de molécules marquées. Les domaines d’ap-plications de ces techniques,souvent complémentairesde ceux de l’immunoanalyse,seront essentiellement lessecteurs de l’analyse génétique et de la détection desagents infectieux (virus ou bactéries). Les dosages parhybridation moléculaire ont l’avantage d’être en géné-ral plus faciles à développer que les dosages immuno-logiques. En effet, il est infiniment plus facile de syn-thétiser une sonde nucléique que de sélectionner etproduire un bon anticorps. De plus, elles bénéficientd’un atout considérable avec l’avènement des techniquesd’amplification des acides nucléiques, et notammentde la PCR.Dans ce cas, il est possible de procéder à uneamplification considérable de la cible, courammentd’un facteur 109 (un milliard), ce qui, bien entendu,facilite considérablement l’analyse,en réduisant de façonspectaculaire les contraintes en termes de sensibilité.Par ailleurs, dans les domaines de l’analyse du génomeet du transcriptome, l’hybridation moléculaire a mon-tré qu’elle était particulièrement bien adaptée à la miseen place d’analyses massivement parallèles (puces àADN),avec parfois plus de cent mille analyses réaliséessimultanément sur quelques cm2.

L’émergence de la spectrométrie de masseAu cours des dernières années, les techniques de laspectrométrie de masse ont connu un essor considé-rable et pris une place importante en analyse biolo-gique. Initialement développées pour l’analyse isoto-pique ou l’analyse des molécules organiques de petitetaille, en particulier les médicaments, elles sont main-tenant de plus en plus adaptées à l’analyse d’un nom-bre croissant de molécules d’intérêt biologique,notam-ment les protéines. Ces progrès sont essentiellementliés à l’amélioration des techniques d’ionisation (ESI,MALDI) mais aussi au couplage avec la chromato-graphie liquide à haute performance (HPLC) et à uneamélioration des performances électroniques des appa-reillages.Dans les domaines des analyses protéomiqueset métabolomiques, ce sont maintenant des outilsincontournables. Si elles sont encore souvent limitéesen termes de sensibilité par rapport aux méthodes del’immunoanalyse, elles présentent, en revanche, unecapacité d’adaptation et une spécificité supérieures.

Aller du laboratoire au pied du lit du patient

Les évolutions exposées précédemment préfigurent clai-rement les tendances de l’analyse biologique de demain.D’une part, l’analyse biologique va sortir du laboratoirespécialisé pour aller dans le cabinet du médecin ou aupied du lit du patient. D’autre part, il sera exigé qu’elleatteigne les limites envisageables de son art, en per-mettant une analyse massivement parallèle d’un nom-bre impressionnant de paramètres,tout en rendant pos-sible une réduction notable de la taille des échantillonsbiologiques, qu’ils soient tissulaires ou sanguins.

Des analyses plus rapidesNotre expérience personnelle nous montre que biensouvent le diagnostic d’une pathologie et la décisionthérapeutique qui en découle n’ont pas lieu lors de lapremière consultation avec un médecin mais bien sou-

Figure 1.Principe d’un dosage

immunométrique à deuxsites (dosage sandwich).Les mains représentent

les sites de liaison desanticorps, le bonhomme

vert, la molécule à doser,et la lumière, un

marqueur (enzyme,fluorophore) fixé sur un

des deux anticorpsimpliqués dans le

dosage. Dans ce type dedosage, la molécule cible

est liée simultanémentpar deux anticorps

reconnaissant deux sitesde liaison compatibles

sur cette molécule. Un des anticorps, appeléanticorps de capture, est

accroché à un supportsolide (tube, bille,

plaque). L’autre, nomméanticorps traceur, est

marqué et va permettrela détection des

complexes immobilisés.Après élimination,

par lavage, des anticorpsmarqués non fixés, la

mesure du signal associéau support solide

permettra d’atteindre la mesure de

la concentration de lamolécule cible.

P. S

trop

pa/C

EAC

EA

Ce dispositif, développé dans

le cadre d’un contratSTMicroelectronics/CEA,

est dédié au diagnosticgénétique. Il intègre

la préparation de l’échantillon d’ADNpar voie enzymatique(PCR) et son analyse

par hybridation sur unepuce à ADN.

Page 4: L’analyse biologique de demain: vers une médecine

CLEFS CEA - N° 54 - AUTOMNE 2006 91

vent après une période plus ou moins longue renduenécessaire pour faire pratiquer un ou des prélèvementsbiologiques (sanguins, urinaires, tissulaires parfois)puis une analyse spécifique par un laboratoire spécia-lisé. Il existe un exemple intéressant où ce délai estréduit. En effet, les médecins ont d’ores et déjà à leurdisposition un test diagnostic rapide de l’angine à strep-tocoques, qui est effectué en quelques minutes dans lecabinet même du praticien. Ce test permet ainsi deréserver la prescription d’antibiotiques uniquementdans les cas rares mais graves d’infections bactériennes,et par conséquent d’épargner un traitement antibio-tique inutile dans les infections plus nombreuses etmoins graves d’angines exclusivement d’origine virale.Il est raisonnable d’imaginer que de nombreuses épreu-ves diagnostiques,reposant sur une analyse ultra-rapidedans le cabinet du médecin ou au pied du lit du patient,seront réalisables dans un avenir proche pour d’autrespathologies.Cette tendance se justifie entre autres dansun environnement économique très contraint desdépenses de santé. Dans cette application, il serademandé que les analyses biologiques puissent se faireextrêmement rapidement,et en tout cas dans un tempscompatible avec la durée d’une consultation.Le corollaire de cette évolution sera la possibilité quele patient pratique lui-même à domicile un nombreaccru de mesures biologiques. Cela contribuera ainsià une prise en charge directe par le patient de sapathologie, toujours facteur de progrès dans l’évo-lution des maladies.

Des marqueurs plus nombreux et plus sensiblesDepuis que l’analyse biologique est devenue l’un despiliers de l’acte médical, les biologistes ont cherché àfaire reposer le diagnostic sur des marqueurs spéci-fiques et sensibles, et si possible ayant une vertu pro-nostique solide. Dans l’avenir, il est plus que probableque le nombre de marqueurs disponibles ira croissant,grâce à l’amélioration des connaissances des méca-nismes moléculaires sous-jacents aux pathologies etde la biologie de la cellule.Il est fortement vraisemblable que la prochaine géné-ration de marqueurs sera présente dans les échantillons

biologiques à des concentrations encore plus faiblesque les précédents.Si les marqueurs historiques étaientdes métabolites circulant à des concentrations impor-tantes, par exemple le glucose dont la concentrationdans le sang est de l’ordre du g/L, aujourd’hui il estnécessaire de pouvoir quantifier des hormones ou desprotéines à des concentrations proches de la dizainede ng/L (10-8 g/L). Sans aucun doute, un facteur 1000sera encore à gagner pour les prochains marqueurs.

Des analyses en grand nombre sur des échantillons de taille toujours plus réduiteLes relations multiples et complexes entre les proces-sus biologiques au sein d’une cellule commencent àêtre mieux comprises et décrites. Il devient évidentqu’une pathologie ou un dysfonctionnement de cel-lules ou d’organes ne peuvent se résumer à faire varierqualitativement ou quantitativement une seule molé-cule (une protéine, un acide nucléique, un métabo-lite…). Pour parvenir à une action biologique, la cel-lule peut non pas emprunter une voie unique et nonambiguë, mais, au contraire, mettre à contribution denombreuses voies qui agissent simultanément ou suc-cessivement.La cellule est un système biologique com-plexe. Il est donc compréhensible que faire reposer lediagnostic ou la thérapeutique de toutes les patholo-gies complexes sur la mesure unique d’un seul mar-queur ne sera plus la seule approche à explorer.

P. A

vavi

an/C

EA

Spectromètre de masse de protéines ESI-Q-TOFcouplé à un chromatographeliquide à haute performanceet associé à un passeurautomatique d’échantillons.Cet instrument présente une grande sensibilité ainsiqu’une excellente résolution et une bonneprécision en masse.

L. G

odar

t/C

EAPurification parchromatographieliquide-solidede traceurs fluorescents.Les marqueurs de la prochaine générationseront encore plusnombreux et serontprésents dans leséchantillons biologiquesà des concentrationsencore plus faibles.

Page 5: L’analyse biologique de demain: vers une médecine

p

CLEFS CEA - N° 54 - AUTOMNE 200692

La mesure du très complexe

L’analyse biologique de demain va demander de pou-voir analyser un grand nombre de molécules simulta-nément sur un échantillon unique.Dans ce cas,au lieude parler de valeur haute ou basse d’un marqueur bio-logique, comme par exemple une glycémie élevée encas de diabète, le biologiste se reposera sur l’analysed’un profil qui résumera la présence et la valeur d’unemultitude de molécules (peut-être 10 ou 100). Seulela connaissance de cet ensemble de molécules per-mettra un diagnostic fiable, une bonne décision thé-rapeutique et un pronostic précis.Ces analyses en grandnombre seront effectuées sur des échantillons de tailletoujours plus réduite, car il ne peut être question pouranalyser 100 ou 1000 molécules de requérir des échan-tillons de plus de quelques microgrammes.L’apport de l’analyse biologique ne se limite pas au seuldiagnostic. Dans l’avenir, elle jouera également un rôleclé dans le choix des médicaments à administrer aumalade. Le patient et sa maladie constituent en théorieun couple unique.Chacun d’entre nous réagit de façondifférente vis-à-vis d’un médicament. Par exemple, les

capacités d’élimination d’un médicament peuvent varierselon les individus, sur des bases parfois conditionnéesgénétiquement. Connaître par des tests appropriés lesréactions à l’égard d’un médicament (effets secon-daires indésirables, capacités d’élimination…) dirige-rait le traitement vers tel ou tel médicament.

Vers une analyse autonome portativeUne dernière tendance forte et émergente est le besoinde pratiquer des analyses in situ de façon portable etcontinue. Dans différentes pathologies chroniquesnotamment ou diverses situations thérapeutiques(services de réanimation ou de médecine d’urgence),le thérapeute peut souhaiter bénéficier de renseigne-ments en temps réel et de façon continue. Il faut donc“instrumenter” le patient, c’est-à-dire implanter desdispositifs capables de mesurer un paramètre biolo-gique pertinent et de transmettre cette informationvers un dispositif de traitement ou de stockage del’information.Ces biocapteurs se doivent bien entendud’être le moins invasifs possible et le plus biocompa-tibles, afin d’être tolérés sur des périodes longues,voire des années.

L’apport de la physique et des micro et nanotechnologiesCe programme ne pourra se réaliser que grâce à laconvergence de plusieurs sciences et technologies.Historiquement, les physiciens ont souvent donné auxbiologistes des outils innovants pour sonder la matièrevivante.Les physiciens ont su les premiers comprendreet utiliser les interactions entre la lumière, les rayonne-ments ou les particules et la matière, et ont fourni desméthodes spectroscopiques aux biologistes.Il faut éga-lement citer l’usage des ultrasons en échographie médi-cale. Il est indispensable de continuer dans cette voiepour disposer de nouvelles méthodes de mesures sansmarquage chimique,sans prélèvement,voire à distance,de façon non invasive. Les laboratoires de physiqueexpérimentent aujourd’hui les principes sur lesquels sefonderont les analyses biologiques de demain.En outre, il est évident que les micro et nanotechnolo-gies vont prendre une part notable dans cette révolu-tion.La réduction des volumes réactionnels fera gagnerbien entendu sur la taille de l’échantillon. Un échan-tillon peut être fractionné pour réaliser un nombre mul-tiple de mesures.Par ailleurs, la réduction de taille peutconduire à un gain appréciable de temps d’analyse. Eneffet, la vitesse d’une réaction biologique varie avec lecarré de la distance que les partenaires de la réactiondoivent parcourir en moyenne avant d’interagir. Parexemple, si une réaction biologique entre deux protéi-nes met 24 heures à se réaliser dans un tube à essai de1 cm de diamètre, elle ne mettra plus que quelquessecondes dans un microtube de 10 µm de diamètre(6).L’avenir de l’analyse biologique résidera donc danssa capacité à intégrer les progrès de la physique et àuser des micro et nanotechnologies mises en placedans le cadre des technologies de l’information, pourles mettre au service de notre santé.

> Jacques GrassiDirection des sciences du vivant

> Jean-Marc GrognetDirection de la recherche technologique

CEA Centre de Saclay

L. G

odar

t/C

EAP.

Cha

gnon

/BSI

P-C

EA

Échantillons sanguins.Les analyses biologiques

de demain permettrontd’analyser un grand

nombre de moléculessimultanément sur

un échantillon unique et de taille toujours

plus réduite.

Capteur Multi-Patch miniaturisé au format biopuce permettant d’enregistrer, de façon complètement automatisée, de très faibles courants ioniques sur un grandnombre de cellules en parallèle. Il a été conçu en combinant les performances des microtechnologies, de la microélectronique et de la microfluidique. L’analysebiologique de demain devra largement s’appuyer sur les micro et nanotechnologies.

(6) À ce sujet, voir Clefs CEA, n° 52, été 2005, p. 107-110.

Page 6: L’analyse biologique de demain: vers une médecine

Spectroscopie et spectrométrie D

Les méthodes spectrométriques sedécomposent globalement en deux

grandes catégories, la spectrométrie desrayonnements – qui elle-même regroupela spectrométrie d'absorption, la spectro-métrie d'émission, la spectrométrie dediffusion Raman et la spectrométrie derésonance magnétique nucléaire – et laspectrométrie de masse. La spectroscopie et la spectrométrie (1)

des rayonnements regroupent un ensem-ble de méthodes d'analyse permettant d'ac-céder à la composition et à la structure dela matière fondées sur l'étude des spec-tres fournis par l'interaction des atomeset des molécules avec divers rayonne-ments électromagnétiques qu'ils émet-tent, absorbent ou diffusent.Selon leur énergie, les photons inter-agissent sélectivement avec les différentsniveaux électroniques qui composent lastructure électronique atomique ou molé-culaire. Ce sont les électrons de cœur(proches du noyau atomique) pour lesrayons X (2), les électrons périphériques(éloignés des noyaux et impliqués dans lesliaisons chimiques) pour la lumière absor-bée ou émise dans le proche ultravioletet dans le visible. Dans le domaine desrayonnements infrarouge, c'est le sautentre niveaux de vibration moléculaire quiintervient, le saut entre niveau de rotationdes molécules pour les micro-ondes et lespin du noyau atomique pour la RMN.

Spectrométrie d’absorptionCelles des méthodes de spectroscopie quisont fondées sur l’absorption utilisent la loide Beer-Lambert, indiquant la proportion-nalité entre l’intensité lumineuse absorbéeet la quantité de matière absorbante :

A = log (I0 / I) = ε l Coù A est l'absorbance du milieu traversépar le rayonnement, I0 l'intensité lumineuseincidente, I l'intensité lumineuse transmise,ε le coefficient d'extinction molaire carac-téristique de la substance étudiée à unelongueur d'onde donnée en L mol-1 cm-1,l l'épaisseur traversée en cm et C la concen-tration en mole par litre.

En mesurant l’absorbance du milieu à unelongueur d’onde donnée, il est donc pos-sible de déterminer la concentration d’unesubstance dans un échantillon.Dans un spectre d’absorption enregistréau moyen d’un spectromètre, les picsd'absorption correspondent aux longueursd’onde que le milieu peut absorber. Demême que le spectre de la lumière solaireest obtenu en la faisant passer par unprisme qui la décompose, les spectro-mètres analysent la répartition spectralede l'ensemble des rayonnements électro-magnétiques en les séparant par longueurd'onde au moyen d'un réseau de diffrac-tion par réflexion. Les spectres font appa-raître des pics correspondant chacun à unelongueur d'onde particulière. Selon le type d’échantillon à analyser etle niveau de performances recherché, onutilise en laboratoire la spectrométried’absorption soit sur molécules en phaseliquide ou gazeuse, soit sur vapeur atomiqueobtenue en décomposant thermiquementles échantillons liquides ou solides.La spectroscopie d’absorption moléculairedans le domaine UV-visible est simpled’emploi mais ne s’applique qu’à deséchantillons peu complexes car, du fait dela largeur des bandes d’absorption molé-culaires, les spectres d’absorption ne per-mettent généralement pas de distinguerspécifiquement tous les composants d’unmélange complexe. En spectrométrie infrarouge (IR), l'absorp-tion résulte des phénomènes de vibrationet rotation des molécules. Les spectresd’absorption infrarouge permettent doncde déterminer la nature des liaisons chi-miques composant une molécule enaccédant à la constante de rappel(comme un ressort remonte un poids) dela liaison et donc de confirmer des hypo-thèses structurales.Lorsque le nombre d'atomes croît, le spec-tre devient rapidement complexe et l'inter-prétation devient très délicate, en particu-lier, pour les composés organiques. La spectrométrie d’absorption atomiqueest de ce point de vue plus performantecar les atomes absorbent avec des raiesd’absorption très fines. Des mesures pré-cises sont donc réalisables même lorsquel’échantillon est constitué d’un assem-blage complexe d’éléments chimiques.L’absorption atomique est une technique deréférence pour l’analyse des éléments àl’état de traces dans une très grande variétéd’échantillons, notamment biologiques.

Spectrométrie d’émissionLes atomes ou molécules portés dans unétat excité peuvent se désexciter en émet-tant un rayonnement appelé rayonnementd’émission. Lorsque l’excitation résulte del’absorption sélective, par les atomes oules molécules à analyser, d’un rayonne-ment électromagnétique, il s'agit d’émis-sion de fluorescence (ou de phosphores-cence selon l’état d’excitation électroniquemis en jeu).Comme pour l’absorption, la fluorescencepeut être appliquée dans le domaine desrayonnements UV-visible aux moléculesou aux atomes. La spectrométrie de fluo-rescence X désigne quant à elle le rayon-nement X émis par les atomes, excités parabsorption d’un rayonnement X. Les tech-niques de fluorescence sont plus complexesà mettre en œuvre que les techniquesd’absorption car elles nécessitent que laparticule à analyser soit excitée sélective-ment par un rayonnement monochroma-tique. En revanche, comme le rayonnementémis est également spécifique de la par-ticule, la spectrométrie de fluorescenceprésente une double sélectivité qui luiconfère un très faible bruit de fond et la rendainsi particulièrement bien adaptée à lamesure des très faibles concentrations.L’émission de rayonnement peut égale-ment apparaître lorsque des atomes sontexcités thermiquement dans un milieuporté à haute température. La spectro-scopie d’émission est fondée sur le faitque les atomes ou les molécules excités àde hauts niveaux d’énergie se désexcitentvers des niveaux plus bas en émettant desradiations (émission ou luminescence). Ellese distingue de la spectrométrie de fluo-rescence par le fait que l’excitation n’estpas apportée de manière sélective, maisau contraire concerne indistinctement tou-tes les particules qui composent le milieu.Les raies d'émission correspondent doncà des rayonnements émis directement parun corps porté à haute température et lespectre d'émission permet de déceler etde quantifier tous les atomes ou les molé-cules présents dans la source d’émission.

Spectrométrie de diffusion RamanLes interactions entre la matière et lesradiations électromagnétiques conduisentégalement à des phénomènes de diffusioncomme la diffusion élastique et la diffu-sion inélastique. La diffusion peut avoirlieu à la rencontre d'une interface entredeux milieux ou à la traversée d'un milieu.

(1) Le terme de spectrométrie, initialementréservé à l'enregistrement et à la mesure,tend à devenir synonyme de spectroscopie,l'œil étant remplacé dans l'observation par d'autres récepteurs et instruments,et le domaine visible ne constituant qu'undomaine particulier d'analyse.

(2) À noter par ailleurs que la cristallographie à rayons X n'est pas considérée comme uneméthode spectroscopique à proprement parler.

Page 7: L’analyse biologique de demain: vers une médecine

(suite)D

Ce processus est le plus souvent “élastique”,c'est-à-dire qu'il a lieu sans changementde fréquence des rayonnements composantle faisceau. La diffusion élastique du rayon-nement solaire par l’atmosphère est, parexemple, responsable de la couleur bleuedu ciel qui apparaît lorsque le regard n’estpas dirigé vers le soleil (effet Tyndall).L’intensité diffusée est, en effet, d’autantplus forte que la longueur d’onde du rayon-nement est courte ce qui, dans le spectresolaire, correspond au bleu.En spectrométrie, la principale utilisationde la diffusion concerne la spectrométrieRaman. Il s’agit de la diffusion inélastiqued’un rayonnement incident par les molécu-les qui composent l’échantillon. L’écart entrela fréquence du rayonnement diffusé et lafréquence du rayonnement incident permetd’identifier les liaisons chimiques mises enjeu. La spectrométrie Raman est une tech-nique très utilisée pour l’analyse structuraleen complément de la spectrométrie infra-rouge et de la spectrométrie de masse.

Spectrométrie de résonancemagnétique nucléaireLe principe de la résonance magnétiquenucléaire (RMN) est basé sur le fait qu’unatome possède un moment magnétique,comme une charge qui tourne et agit commeun petit aimant, gouverné par la mécaniquequantique, qui s'aligne dans un champmagnétique comme une boussole dans lechamp terrestre. Le principe de la RMNconsiste à induire et détecter la transitionentre le moment magnétique nucléaire duniveau de plus basse énergie à celui de plusgrande énergie par absorption d'un rayon-nement électromagnétique dont la longueurd’onde se situe dans le domaine des radio-fréquences : lorsque l'énergie du photoncorrespond exactement à la différenced’énergie entre les deux niveaux, il y aabsorption. Les noyaux dont le nombre deneutrons et de protons sont tous les deuxpairs possèdent un spin nul. Les atomes decarbone 12 et d'oxygène 16 qui sont trèsrépandus dans la nature ont ainsi un spinnucléaire nul. Par contre, l'hydrogène nepossède qu’un seul proton et son momentmagnétique nucléaire est égal à 1/2 : il adonc deux états énergétiques possibles cor-respondant aux deux orientations possiblesdu spin par rapport au champ magnétique.La mesure de la fréquence de résonance duchamp électromagnétique qui permet le pas-sage de l’un à l'autre des états d’énergiepermet de faire l'analyse des molécules.

Cette fréquence est fixe mais les différentsnoyaux d’une molécule ne résonnent pastous à la même fréquence car leur envi-ronnement magnétique est modifié par leurenvironnement chimique (électronique). De nombreux spectres contiennent plusde pics que la molécule ne contient deprotons en raison des interactions de ceux-ci avec leurs voisins. Deux noyaux peuventinteragir au travers de la molécule, éloi-gnés de plusieurs liaisons chimiques, c’estce qu’on appelle le couplage entre atomes.Cette interaction donne une structure fineau spectre RMN.

Spectrométrie de masse La spectrométrie de masse est une tech-nique de détection et d'identification extrê-mement sensible qui permet de déterminerles structures moléculaires et donc la com-position de l’échantillon. Il ne s’agit pas d’unespectroscopie stricto sensu, car elle ne faitpas appel à des niveaux d'énergie discrets.Son principe ? Un composé introduit dansl'appareil est vaporisé puis ionisé parune source de bombardement électronique(à 70 eV). L'ion ainsi obtenu, appelé ionmoléculaire, permet la détermination de lamasse molaire du composé. Des rupturesdes liaisons chimiques peuvent y formerdes ions fragments caractéristiques. Ceux-ci sont ensuite triés en fonction de leur rap-port masse/charge dans un analyseur par

l'application d'un champ magnétique et/ouélectrique, puis collectés par un détecteurqui amplifie le signal associé aux ions quiarrivent en des temps différents. Un sys-tème de traitement des données transformeles informations du détecteur en un spec-tre de masse dont la lecture, par comparai-son avec des spectres références, permetd’établir la carte d’identité de la molécule.En utilisant un spectromètre de masse hauterésolution, il est possible de déterminer lamasse exacte du composé et les pourcen-tages isotopiques de chaque atome.Le choix de la méthode d’ionisation estdirectement lié à la nature de l’échantillonet au type d’analyse. Si la spectrométrie demasse s'est progressivement adaptée auxexigences croissantes des chimistes et desbiologistes (séparation de mélanges de plusen plus complexes et de forte polarité etdétermination de masses moléculaires deplus en plus élevées sur des échantillons deplus en plus limités), c'est essentiellementgrâce aux progrès des techniques d'ionisa-tion dont l'émission ionique secondaire sursurface (SIMS), l'ionisation chimique, lethermospray et la source à bombardementd'atomes rapides (FAB), jusqu'à, dans lesannées 80, la désorption laser assistée parmatrice (MALDI, pour Matrix Assisted LaserDesorption Ionisation) et l'électrospray (ESI,pour ElectroSpray Ionisation), ainsi qu'à ceuxdes techniques de détection, de la mesure dutemps de vol (TOF) à la “trappe ionique” (IT)en passant par les quadrupôles (MS ou Q).En protéomique, par exemple, seules laMALDI, l’ESI et la SELDI (Surface EnhancedLaser Desorption/Ionisation) sont utilisées. La spectrométrie de mobilité ionique IMS(ion mobility spectrometry) est une techniqued'analyse chimique en phase gazeuse quiconsiste à soumettre un gaz à un champélectrique. Les molécules ionisées acquiè-rent une vitesse caractéristique de l'ion cardépendant de la masse et de la charge.L'arrivée des ions sur une des plaques pro-duisant le champ provoque un courant quiest enregistré. Il est possible de relier letemps au bout duquel un pic se produit avecla nature de l'ion l’ayant provoqué.Les scientifiques font souvent appel au cou-plage d'appareils appartenant aux deuxgrandes familles de techniques d'analyse(encadré E, Qu'est-ce que la chromatogra-phie ?), par exemple, d’un chromatographeet d’un spectromètre de masse (ou d’undétecteur à capture d'électrons ECD), notam-ment pour étudier des mélanges complexesà l'état de traces.

C. D

upon

t/C

EA

Spectromètre de masse d'ions secondairesutilisé au CEA pour réaliser des mesuresisotopiques rapides sur un échantillon par exemple prélevé sur une installation aux activités nucléaires suspectes.

Page 8: L’analyse biologique de demain: vers une médecine

Interactions fondamentales et particulesélémentaires

B

Le modèle standard de la physiquedes particules est le cadre théorique

de référence qui décrit toutes les parti-cules élémentaires connues (tableau 1)et les interactions fondamentalesauxquelles ces particules participent(tableau 2). Les constituants élémentai-res de la matière, appelés fermions, separtagent en deux grandes catégoriesdéterminées par leur participation auxinteractions ou forces fondamentales(gravitationnelle, électromagnétique,faible et forte) par l’intermédiaire debosons vecteurs, particules fonda-mentales qui assurent la transmissiondes forces de la nature (1) (tableau 2).L’appartenance d’une particule à la caté-gorie des fermions ou à celle des bosonsest liée à son spin (moment angulaireou moment de rotation interne intrin-sèque), suivant qu’il est de valeur demi-entière (fermion) ou entière (boson). À chaque constituant de la matière estpar ailleurs associée son antiparticule,une particule de même masse mais decharge opposée. Le positon est ainsi l’an-tiparticule de charge positive de l’élec-tron, dont la charge est négative.

Leptons et quarksLes fermions comportent, d’une part lesleptons, qui peuvent se déplacer libre-ment et ne participent pas à l’interactionforte qui assure la cohésion des noyauxatomiques (elle est pour cette raisonqualifiée de nucléaire), et d’autre part lesquarks, qui participent à toutes les inter-actions mais ne sont pas observés indi-viduellement, imbriqués qu’ils sont ausein des hadrons, les particules sensi-bles à l’interaction forte dont ils sont lesconstituants(2).Dans la catégorie des leptons, les lep-tons chargés participent à l’interactionélectromagnétique (qui assure la cohé-sion des atomes et des molécules) et àl’interaction faible (à la base de phéno-mènes de désintégration et en particu-lier de la radioactivité �). Les leptonsneutres ou neutrinos, pour leur part, neparticipent qu’à l’interaction faible. Demasse très réduite, il en existe un typepour chaque type de lepton chargé.Indépendamment de leur participationaux interactions, les constituants élé-mentaires de la matière sont classés entrois générations ou familles de particu-

les. D’une famille à l’autre, les quarks etles leptons de mêmes charges ne diffè-rent que par leurs masses, chaque familleétant plus lourde que la précédente.L’électron, le quark haut (u pour up) et lequark bas (d pour down), qui appartien-nent à la première génération, sont lesparticules massives les plus légères etsont stables. Ce sont les constituantsexclusifs de la matière ordinaire, ditebaryonique (un baryonest un assemblagede quarks) faite de protonset de neutronsqui ne représente pourtant qu’environ 4%du contenu énergétique de l’Univers!Les particules des deux autres famillessont plus lourdes et instables, à l’excep-tion des neutrinos, qui ont cependant unemasse non nulle mais qui sont stables.Elles ne peuvent être observées ou détec-tées que dans les états finals des colli-sions produites dans les accélérateursou dans le rayonnement cosmique et sedésintègrent rapidement en particulesstables de première génération. C’est laraison pour laquelle toute la matière sta-ble de l’Univers est faite des constituantsde la première famille.D’après la mécanique quantique, pourqu’il y ait une interaction entre parti-cules de matière ordinaire, il faut qu’aumoins une particule élémentaire (unboson) soit émise, absorbée ou échan-gée. Le photon est le boson intermé-diaire (ou vecteur) de l’interactionélectromagnétique, les W+, W- et Z sontles bosons intermédiaires de l’interac-tion faible, et les gluons sont ceux del’interaction forte au niveau des quarks. Quant au graviton, vecteur supposé del’interaction gravitationnelle, il n’a pasété découvert expérimentalement. Laforce gravitationnelle, qui s’exerce surtous les fermions proportionnellementà leur masse, n’est pas incluse dans lemodèle standard, d’autant que la théo-rie des champs quantiques appliquée àla gravitation n’est pas viable en l’état.Si les effets gravitationnels sont négli-geables dans les mesures de physiquedes particules, ils deviennent dominantsaux échelles astronomiques.

La portée des interactionsLes quarks et les leptons chargés échan-gent des photons. Le photon ayant unecharge électrique nulle, ces particulesconservent leur charge électrique après

l’échange. Comme la masse du photonest nulle, la portée de l’interactionélectromagnétique est infinie. Dépourvusde charge électrique, les neutrinos sontles seuls fermions élémentaires à nepas être sensibles à l’interaction électro-magnétique.Dans la théorie électrofaible (unificationdes interactions faible et électromagné-tique), l’interaction faible présente deuxaspects: l’interaction faible par courantschargés, où les vecteurs de l’interactionsont W+ et W-, et l’interaction faiblepar courant neutre où le médiateur del’interaction est Z0. Ces deux formes del’interaction faible agissent entre tous lesfermions élémentaires (quarks, leptonschargés et neutrinos). La masse de cesbosons étant très élevée (environ80 GeV/c2 pour W± et 91 GeV/c2 pour Z0),la portée de l’interaction faible est doncinfime, de l’ordre de 10-18 m. Les bosonsW± possédant une charge électrique nonnulle, les fermions qui les échangentchangent de charge électrique et égale-ment de nature (saveur). En revanche, leboson Z0 étant dépourvu de charge élec-trique, les fermions ne changeront pasde nature. En fait, l’interaction faible parcourant neutre est assez similaire àl’échange d’un photon. En règle générale,si deux fermions peuvent échanger unphoton, ils sont capables aussi d’échan-ger un Z0. De son côté, un neutrino a lafaculté d’échanger un Z0 avec une autreparticule, mais pas un photon.Seuls les quarks qui possèdent unecharge de couleur (1) échangent desgluons, lesquels portent eux-mêmes

(1) La participation des constituantsélémentaires aux interactions fondamentalesest conditionnée par leurs chargesd’interaction (charge électrique, charge decouleur) ou “nombres quantiques conservés”.La charge de couleur, nombre quantique quidétermine la participation aux interactionsfortes, peut prendre trois valeurs : “rouge”,“verte” ou “bleue” (ces couleurs n’ayant rien à voir avec les couleurs visibles). Chaquequark porte l’une des trois charges de couleuret chaque antiquark l’une des trois chargesd’anticouleur. Les gluons sont dotés de charges doubles couleur-anticouleur (huit combinaisons possibles).

(2) Exemple des nucléons : le proton contientdeux quarks haut et un quark bas, le neutrondeux quarks bas et un quark haut. Un mésonn’est composé que de deux quarks (un quarket un antiquark).

Page 9: L’analyse biologique de demain: vers une médecine

(suite)B

une charge de couleur. Ainsi, lors d’unéchange de gluons entre quarks, ces der-niers échangent leurs couleurs respec-tives. La masse des gluons est nulle,mais puisqu’ils sont dotés d’une charge

de couleur, ils peuvent interagir entreeux, ce qui complique grandement letraitement théorique de cette interac-tion. La portée de l’interaction forte estdonc très courte, de l’ordre de 10-15 m.

La quête de l’unificationLe cadre théorique du modèle standardest la théorie quantique des champs quipermet de décrire quantitativement lesinteractions fondamentales des parti-

Tableau 1.Table des douze constituants élémentaires de matière dont le modèle standard décrit les interactions. Les trois leptons chargés (électron, e-, muon, �-, tau, �-) sont sensibles aux interactions électromagnétique et faible, les neutrinos (�e, ��, ��) ne sont sensibles qu’à l’interaction faible et les six quarks (up, charm et top – ou u, c, t – de charge 2/3 et down, strange, bottom – ou d, s, b – de charge –1/3) sont sensibles aux trois interactions. Chaque constituant élémentaire possède son antiparticule, de même masse et de nombres quantiquesalgébriques (comme la charge électrique) de signe inversé.

Fermions

La matièreordinaire

est composéede particulesde ce groupe.

Pour laplupart, ces

particulesétaient

présentesjuste après

le Big Bang.Aujourd’hui, on

ne les trouveque dans

les rayonscosmiques

et auprès desaccélérateurs.

Bosonsvecteurs

Particulesfondamentales

qui assurent la transmission

des forces de la nature.

responsable de la “brisure de symétrie électrofaible”

électron (e)

responsable del'électricité et desréactions chimiquessa charge est - 1masse : 0,511 MeV/c2

muon (��)

un compagnon plusmassif de l’électronmasse : 105,658 MeV/c2

neutrino électronique

(�e)

sans charge électriqueet interagissant très rarement avec le milieu environnant

neutrino muonique

(��)

propriétés similaires à celles du neutrinoélectronique

neutrino tauique (��)

propriétés similaires à celles du neutrino électronique

haut (u)

sa charge électrique est + 2/3le proton en contientdeux, le neutron unmasse : 1,5 – 4 MeV/c2

charmé (c)

un compagnon plus lourd du “haut”masse : 1,15 – 1,35 GeV/c2

top (t)

le plus lourd de la famille (observé en 1995)

masse : 171,4 ± 2,1 GeV/c2

prem

ière

fam

ille

deux

ièm

e fa

mill

etr

oisi

ème

fam

ille

photon

grain élémentaire de la lumière, porteur de la force électromagnétique

gluon

porteur de la force forteentre quarks

W±, Z0

porteurs de la forcefaible, responsables de certaines formes dedésintégration radioactive

Boson de Higgs ?

nucléon

quarks

tau (�)

encore plus lourd

masse : 1776,99 ± 0,29 MeV/c2

bas (d)

sa charge électrique est - 1/3le proton en contient un,le neutron deuxmasse : 4 – 8 MeV/c2

étrange (s)

un compagnon plus lourd du “bas”masse : 80 – 130 MeV/c2

beauté (b)

encore plus lourd

masse : 4,1 – 4,4 GeV/c2

atome noyau électronproton charge + 1masse : 938,272 MeV/c2

neutron charge nullemasse : 939,565 MeV/c2

W+ W- Z0

leptonspeuvent se déplacer librement

quarkss’assemblent en triplets ou en paires quark-antiquarkpour former les nombreuses particules subatomiques

Page 10: L’analyse biologique de demain: vers une médecine

(suite)B

cules élémentaires en respectant lesprincipes de la relativité restreinte et ceuxde la mécanique quantique. D’après cettedernière, pour observer une structuremicroscopique à haute résolution tem-porelle et spatiale, il est nécessaire delui transférer une énergie-impulsiond’autant plus élevée que la résolutionsouhaitée est fine. Mais d’après la théo-rie de la relativité, ce transfert d’éner-gie-impulsion peut se transformer enapparition de particules qui n’étaient pasprésentes dans l’état initial: les fermionspeuvent être produits ou annihilés parpaires particule/antiparticule, les bosonspeuvent l’être en nombre arbitraire.Tous les processus relevant d’une mêmeinteraction fondamentale sont reliés lesuns aux autres. La démarche de la théo-rie quantique des champs, dans laquelleles propriétés de symétrie jouent un rôlefondamental, vise à décrire l’ensembledes processus relatifs à chaque inter-action fondamentale au sein de grandessynthèses théoriques.L’interaction forte et l’interaction élec-tromagnétique sont respectivement for-malisées dans les théories de lachromodynamique quantique et del’électrodynamique quantique. L’inter-action faible, quant à elle, n’est pasdécrite isolément, mais en conjonctionavec l’interaction électromagnétiquedans le formalisme unifié de la théo-rie électrofaible. Des théories degrande unification de toutes les inter-actions fondamentales existent, maisn’ont pas encore reçu de validationexpérimentale. Toutes les prédictions du modèle stan-dard ont été confirmées par l’expérience,à l’exception jusqu’à présent d’une seule,l’existence du (des ?) boson(s) de Higgs,particule(s) que l’on espère bien décou-vrir au LHC. Le mécanisme de Higgsserait responsable de la masse des par-ticules élémentaires, le boson éponymepermettant de donner une masse auxfermions de masse nulle interagissantavec lui. Il permettrait l’unification, àhaute énergie, des interactions électro-magnétique et faible au sein de la théo-rie électrofaible et expliquerait efficace-ment la brisure de cette symétrieélectrofaible à basse énergie, qui se tra-duit par deux interactions qu’on peut dis-tinguer à ce niveau d’énergie (voir

L’interaction électrofaible d’un accéléra-teur à l’autre: la feuille de route du LHC àl’aune des mesures du LEP, p.23).

Dépasser ou compléter le modèle standard?Le modèle standard comporte une sériede paramètres (tels que les masses desparticules ou les intensités des forcesfondamentales) qui sont “calés” sur lesrésultats expérimentaux. C’est, en toutétat de cause, une théorie susceptibled’être améliorée ou approfondie, voiredépassée. Il ne fournit pas d’explicationà la classification des constituants de lamatière en trois générations de parti-cules, alors que c’est précisément l’exis-tence de ces trois générations qui per-met de rendre compte de la violation del’invariance CP charge/parité (qui faitqu’un processus physique impliquantl’interaction faible n’est pas équivalentà son image dans un miroir), violationqui est vraisemblablement à l’origine dudéséquilibre matière/antimatière au pro-fit de la première dans l’univers pri-mordial. Il ne permet ni le traitementquantique de la gravitation ni ne fournitd’explication complète à la propriété fon-damentale du confinement qui interditaux quarks de se propager à l’état librehors des hadrons.Pour dépasser ou compléter le modèlestandard, les chercheurs explorent prin-cipalement deux voies:– la supersymétrie (communément

appelée SUSY) associerait à chaque par-ticule (boson ou fermion) du modèle stan-dard un partenaire, respectivement fer-mion ou boson. Ces partenaires seraienta priori très massifs, le plus léger d’en-tre eux serait une particule n’interagis-sant que très faiblement. Elle serait uncandidat idéal pour expliquer la massecachée (ou matière noire) de l’Universqui représente quelque 21 % du contenuénergétique de l’univers, le reste (prèsde 75 %) étant constitué d’une énergienoire dont la nature reste également àdéterminer. Ces WIMPs (acronymeanglais de Weakly Interacting MassiveParticles) sont activement recherchés(voir Edelweiss II, à la recherche des par-ticules de matière noire).– la voie de la sous-structure présumequ’il existerait un nouveau niveau d’élé-mentarité sous-jacent aux particules dumodèle standard (ou à certaines d’en-tre elles). Elle déboucherait sur touteune floraison de nouvelles particulescomposites, analogues aux hadrons,mais de masses deux à trois mille foisplus élevées.À noter que si les théories supersymé-triques donnent des prédictions enaccord avec les mesures de précisionfaites au LEP, les théories qui proposentdes sous-structures (du moins leurs ver-sions les plus simples) n’y parviennentpas. Quant aux versions les plus com-plexes, elles rencontrent des problèmesau niveau théorique.

Tableau 2.Les interactions fondamentales, leurs vecteurs et leurs effets.

interaction particules associées actionsfondamentale (messagers)

gravitation graviton ? de portée infinie, elle est responsable

de la force d’attraction de deux masses entre elles

et de la chute des corpsinteraction photon de portée infinie,

électromagnétique elle est responsable de l’attraction entre électrons

et noyaux atomiques, et donc de la cohésion

des atomes et des moléculesinteraction faible W+, W-, Z0 elle est responsable

des radioactivités �- et �+ et de réactions impliquant des

particules comme le neutrinointeraction forte gluons elle assure la cohésion

(il en existe 8) du noyau atomique

Page 11: L’analyse biologique de demain: vers une médecine

Qu'est-ce que la chromatographie?E

Figure. Exemple d'utilisation combinée de la spectrométrie de masse et de la chromatographie : séparation des isomères("molécules sœurs”) d'une molécule explosive (le dinitrobenzène DNB) après prélèvements par micro-extraction en phase solide par chromatographie en phase gazeuse et détection par spectrométrie de masse (SPME-GC-MS).

La chromatographie et les différentes formesde spectroscopie et de spectrométrie (enca-

dré D, Spectroscopie et spectrométrie) constituentles deux grandes techniques de base d’analyse,l’une séparative, l'autre identificatrice des com-posants d’un corps. La chromatographie (du grec khrôma, couleur etgraphein, écrire) permet la séparation des consti-tuants d'un mélange en phase homogène liquideou gazeuse, comme un buvard répartit en auréo-les concentriques un liquide répandu à sa surface. Un chromatographe est constitué d'un dispositifd'injection de l'échantillon, d'une colonne, d'undétecteur et d'un système d'enregistrement etd'analyse. Son principe repose sur l'équilibre deconcentrations des composés entre deux pha-ses en contact : la phase stationnaire, dans lacolonne, et la phase mobile, qui se déplace. Laséparation est basée sur l'entraînement diffé-rentiel des constituants dans la colonne, qu'ilsparcourent en des temps proportionnels à leurtaille ou leur structure, ou selon leur affinité avecla phase stationnaire (polarité…). À leur arrivéeen bout de colonne, un détecteur mesure encontinu la quantité de chacun.La chromatographie la plus courante se fait enphase gazeuse sur des échantillons gazeux oususceptibles d'être vaporisés sans décomposi-tion. La phase mobile est un gaz (hélium, azote,argon ou hydrogène) qui balaie en permanencela colonne placée dans un four à thermostat.Les détecteurs permettent l'analyse sélectiveet l'identification de mélanges très complexes.Si la phase stationnaire est un liquide non ou peuvolatil possédant des propriétés de solvant descomposés à séparer, il s’agit de chromatogra-phie gaz-liquide ou chromatographie de partage.

Si la phase stationnaire est un solide adsorbant(silice, alumine, zéolites ou polymères), c'est dela chromatographie gaz-solide. Dans cette mêmefamille des chromatographies d'adsorption, lachromatographie liquide-solide se caractérisepar sa phase stationnaire qui est un adsorbantsolide polaire.Dans la chromatographie liquide haute perfor-mance (CLHP), l'échantillon doit être totalementsoluble dans la phase mobile (solvant d'élution).Celui-ci doit être poussé à haute pression (d’oùla dénomination alternative de chromatogra-phie liquide haute pression) afin d'assurer undébit constant dans la colonne et éviter touteperte de charge. La CLHP fait intervenir desmécanismes d'échange soluté/phase mobile/phase stationnaire, basés sur les coefficientsde partage ou d'adsorption selon la nature desphases en présence (1).Une analyse chromatographique donne un chro-matogramme, représentation graphique de l'évo-lution d'un paramètre (intensité du signal du détec-teur) lié à la concentration instantanée du solutéen fonction du temps. Il fait apparaître des picsémergeant de la ligne de base, obtenue en l'ab-sence de composés (figure).

(1) Il existe deux autres types de chromatographie liquide,ionique et d'exclusion.

N.B. Cet encadré reprend certains passages d’un texte de Pascale Richardin, responsable du groupe Datation au Centre de recherche et de restauration des Musées de France, extrait des pages sur les méthodes d'analyse du sitehttp://www.culture.gouv.fr/culture/conservation/fr/biblioth/biblioth.htm.