Physique 1-10 PDF - Introduction aux principes physiques en médecine

Summary

Ce document est un chapitre d'un cours de physique générale. Il présente un aperçu des objectifs du cours. Le chapitre explique l'importance de la physique dans les processus médicaux et les liens historiques entre la physique et la médecine.

Full Transcript

Chapitre 1 : Introduction au cours de physique générale Objectifs généraux du cours  Contextualiser le rôle et l'importance des principes physiques présents dans les processus biomédicaux  Pren...

Chapitre 1 : Introduction au cours de physique générale Objectifs généraux du cours  Contextualiser le rôle et l'importance des principes physiques présents dans les processus biomédicaux  Prendre en considération les principes physiques en jeu lors de l'utilisation d'un instrument diagnostique ou thérapeutique  Rapporter aux patients les principes physiques qui sous‐tendent les actes médicaux 1.1 Résumé Un cours de physique générale en première année de médecine est non seulement indispensable pour prendre en compte le cadre que la Nature impose aux êtres vivants, mais également pour fonder toute réflexion diagnostique ou thérapeutique sur la raison. Pour s'en convaincre, un paragraphe de ce chapitre rappelle les exemples emblématiques qui ont jalonné l'histoire commune de la physique et la médecine, et qui sont souvent issus de la recherche fondamentale. Ce chapitre se termine par une description des matières abordées dans ce cours ainsi que la démarche pédagogique. 1.2 Introduction Le désir de comprendre le monde qui nous entoure est une caractéristique essentielle de l'être humain, et la science est un outil qui a largement démontré sa capacité à y répondre. Parmi les branches scientifiques, la physique est étymo7logiquement au cœur de cette problématique puisque le mot "physique" vient du grec ἡ φυσική qui signifie "connaissance de la Nature". Malgré les liens historiques forts entre la physique et la médecine (voir section 1.4), d'aucuns pourraient se demander pourquoi un cursus de formation médicale débute par une présentation des lois relatives aux objets inanimés. La réponse est simple : qu'il soit animé ou non, tout corps fait partie de l'Univers et ne peut se soustraire à ses lois fondamentales. Ainsi, la physique (avec la chimie) donne un cadre qui définit les lois microscopiques sous‐jacentes de la biologie et sert de base à la plupart des spécialités médicales (voir Figure 1). Une autre motivation pour placer un cours de physique générale en première année de médecine est que l'on accorde généralement une très grande importance aux connaissances à acquérir sans réaliser qu'elles sont intimement liées à l’ignorance de leur existence. En effet : La connaissance et l’ignorance se tiennent par la barbichette : Ignorer qu’on ignore, c’est, de fait, ne rien savoir ; tandis que savoir qu’on ignore, c’est vraiment savoir, puisque cela suppose de connaître tout ce qui est déjà établi, et d’être capable de détecter ce qui fait encore trou dans la connaissance, de déceler ses manques et ses lacunes1. Un module d'enseignement ne suffisant pas à creuser des matières aussi vastes que la physique moderne, notre objectif n’est donc pas de couvrir les différents chapitres de manière exhaustive mais de présenter de manière rationnelle et scientifique des phénomènes courants de la vie de tous les jours. 1France Culture, La Conversation scientifique, par Etienne Klein, https://www.franceculture.fr/emissions/la‐conversation‐ scientifique/ce‐quon‐sait‐ce‐quon‐ne‐sait‐pas‐15‐du‐vrai‐et‐du‐faux‐sur‐internet BM1.1 ‐ Physique générale Page 15 version du 06.09.2024 Figure 1 : Principaux liens existant entre divers domaines de la physique et quelques spécialité spécialités médicales (FMH). 1.3 Objectifs du cours Ce cours s'est donné trois objectifs d'apprentissage généraux. Ils sont rappelés dans le Tableau 1 avec des exemples de questions qui leurs sont liées. Tableau 1 : Objectifs d'apprentissage principaux du cours de physique générale et exemples de questions auxquelles ce cours devrait permettre d'avoir un début de réponse. Objectifs Exemples de questions liées aux objectifs  Quel que soit le processus biologique ou médical, que se passe‐t‐il au 1. Contextualiser le rôle et l'importance niveau atomique ? des principes physiques présents dans  Pourquoi transpirons‐nous lorsqu'il fait chaud ? les processus biomédicaux  Quel avantage avons‐nous de percevoir la lumière ? 2. Prendre en considération les principes  Pourquoi utilisons‐nous des rayons X plutôt que des ultraviolets pour physiques en jeu lors de l'utilisation d'un obtenir des images des organes internes ? instrument diagnostique ou  Comment un téléphone peut‐il compter nos pas ? thérapeutique  Comment peut‐on obtenir une image fœtale avec une onde sonore ? 3. Rapporter aux patients les principes  Quel danger y a‐t‐il à faire une radiographie ? physiques qui sous‐tendent les actes  Quelles effets biologiques sont raisonnablement possibles avec un médicaux téléphone 5G ? 1.4 Physique et médecine : une relation qui dure2 Dès que l'être humain a commencé à comprendre le fonctionnement de la Nature, il a utilisé ce savoir pour fabriquer des outils ou des armes, diversifier ses aliments, s'adapter à son environnement ou le modifier. Il n'est donc pas étonnant qu'au cours de l'Histoire, nos ancêtres aient également appliqué les découvertes de la physique à la médecine. Il y a plus de 2400 ans, Hippocrate (vers 460‐377 av. J.‐C.) a décrit une méthode pour mesurer la température corporelle, qui est sans doute le premier exemple d'imagerie diagnostique3 (Figure 2‐a). Plus d'un millénaire 2 Ce paragraphe est largement inspiré de l'article de S.F. Keevil, " Physics and medicine: a historical perspective", The Lancet:379, 1517‐ 1524 (2012); https://www.thelancet.com/series/physics‐and‐medicine 3 La thermographie infrarouge remonte à 1957, bien que l'idée ait été décrite plus d'un siècle plus tôt par John Herschel (1792‐1871). BM1.1 ‐ Physique générale Page 16 version du 06.09.2024 plus tard, l'irakien Alhazen (vers 965‐1039) a particulièrement contribué à l'optique avec une description de la physique de la vision et la première démonstration expérimentale que la vue est causée par des rayons de lumière qui pénètrent dans l'œil, plutôt que par la lumière émanant de l'œil pour sonder des objets comme on le pensait auparavant. Bien plus récemment, Leonardo da Vinci (1452‐1519) est cité comme le premier "physicien médical" en raison de ses études détaillées de la mécanique du corps humain, ses travaux sur l'optique et sa découverte du principe de la lentille de contact. La révolution intellectuelle du 17ème siècle a conduit la science et la raison à supplanter la religion comme source principale de connaissance de la Nature. Le travail d'Anton van Leeuwenhoek (1632‐1723) sur le microscope, tout comme ceux de Santorio Sanctorius (1561‐1636) sur la mesure clinique de la température, de la fréquence du pouls et de la masse corporelle sont des exemples dont les retombées sont encore bien présentes à l'heure actuelle. Au siècle suivant, les recherches fondamentales sur l'électricité permirent la fondation de l'électrophysiologie grâce à Luigi Galvani (1737‐1798) et Alessandro Volta (1745‐1827) qui démontrèrent qu’un courant électrique déclenche une activité musculaire. Le 19ème siècle voit l'éclosion d'un grand nombre de travaux de recherche fondamentale qui peuvent avoir des conséquences cliniques immédiates, comme René Laennec (1781‐1826) qui invente le stéthoscope, ou plus indirectes avec les travaux d'Adolph Fick (1829‐1901) sur la diffusion, la physique des poumons et l'application de la thermodynamique au corps humain. Le soir du 8 novembre 1895 est sans contexte un instant‐clef de l'histoire commune de la physique et de la médecine, car c'est à ce moment‐là que Wilhelm Röntgen (1845‐1923) découvre "un nouveau genre de rayon", que nous appelons encore "rayons X" en référence à ses propriétés initialement mystérieuses. Dans les quatre années qui suivent, Henri Becquerel (1852‐1908) découvre la radioactivité, et Pierre et Marie Curie (1859‐1906 et 1867‐1934 respectivement) découvrent le radium et isolent des isotopes radioactifs. Aucune de ces recherches n'était inspirée par la perspective d'applications médicales, mais lorsque Röntgen fit circuler des radiographies de la main de sa femme à des collègues scientifiques en janvier 1896 (Figure 2‐ b), le potentiel médical apparut immédiatement. Le fait que Röntgen – connu pour ses qualités humanistes – renonce à tout brevet, permit une diffusion rapide sa découverte. Les effets nocifs de ces nouveaux rayonnements ont très vite été identifiés. En 1898, la Société Röntgen créa un Comité sur les dommages par rayons X, initiant la discipline de la radioprotection. La reconnaissance des effets biologiques de la radioactivité allait donner naissance à la brachythérapie. En 1910, les principales applications des rayonnements ionisants en imagerie par rayons X ainsi qu'en radiothérapie par rayons X et par radium étaient déjà fermement établies. Les développements techniques rapides de la qualité d'image et la standardisation des traitements ont suivi. Les points forts comprenaient le développement de tubes à rayons X plus fiables par William Coolidge (1873‐1975) et la standardisation de la mesure des rayonnements par Rolf Sievert (1896‐1966). La médecine nucléaire est la dernière pièce du puzzle de la physique des radiations en médecine. Le premier radioélément employé cliniquement était l'iode‐131, qui a d'abord été utilisé pour des investigations thyroïdiennes avant de l'être pour traiter l'hyperthyroïdie et le cancer de la thyroïde. Un large éventail d'autres isotopes artificiels est devenu disponible par la suite, et des préparations chimiques appropriées ont permis l'étude d'une large gamme d'organes différents. Suite à l'idée de Bernard George Ziedses des Plantes (1902‐ 1993) de placer un détecteur Geiger‐Müller à la surface d'un organe contenant de la radioactivité pour en cartographier la distribution (Figure 2‐a), la médecine nucléaire est progressivement devenue une technique d'imagerie fonctionnelle à part entière. BM1.1 ‐ Physique générale Page 17 version du 06.09.2024 (a) (b) Figure 2 : Exemples de liens historiques entre la physique et la médecine4. (a) Reconstitution de la première image thermographique, telle que proposée par Hippocrate (460‐377 A. J.‐C.). Cette image a été prise 8 minutes après qu'un tissu imbibé de terre de potier a été appliqué sur le dos du volontaire. La vitesse à laquelle le tissu sèche est liée à la température de la peau sous‐jacente. La région sur le côté droit avait été auparavant chauffée avec une compresse. (b) Première radiographie réalisée par Röntgen sur la main de sa femme le 22.12.1895. La disponibilité de radionucléides produits dans les réacteurs nucléaires a aussi permis d’améliorer dès 1952 l’efficacité des traitements du cancer en utilisant le cobalt‐60 comme source très pénétrante de rayonnement. A cause de leur forme apparentée à celle des premières bombes atomiques, les appareils utilisant cet élément ont été désignés comme "bombe au cobalt" capables de tuer… les cellules cancéreuses. La diffusion mondiale de leurs utilisations dans les années 1960 a donné ses titres de noblesse à la radiothérapie externe. Parallèlement à cela, le développement des accélérateurs pour la recherche en physique nucléaire a permis la mise en place d'une thérapie par rayons X à haute énergie. Les accélérateurs linéaires d'électrons (linacs), qui sont une retombée indirecte de la recherche militaire sur le radar, ont été utilisés en clinique dès 1953. Aujourd'hui encore, ces machines sont le cheval de trait de la radiothérapie par irradiation externe, délivrant à la fois des rayons X pour les organes en profondeur et des électrons pour les traitements superficiels. (a) (b) (c) Figure 3 : (a) Premier scanner à rayons X, en 1973. (b) Jacques Dubochet devant un instrument de microscopie électronique. L'imagerie par ultrasons a été introduite dans les années 1930 pour des essais industriels non destructifs. Les applications médicales n'ont suivi que dans les années 1950. En 1973, Godfrey Hounsfield (1919‐2004) a décrit ce qui allait devenir le premier scanner à rayons X, ou CT (Figure 3‐a). L'imagerie par résonnance magnétique (IRM) a été inventée par Paul Lauterbur (1929‐2007) et Peter Mansfield (1933‐2017). Elle est basée sur la 4 The Lancet:379, 1517‐1524 (2012); https://www.thelancet.com/series/physics‐and‐medicine BM1.1 ‐ Physique générale Page 18 version du 06.09.2024 mais a pour but de faire le lien entre des notions physiques souvent abstraites et des exemples concrets.  Le cours ex‐cathedra a également vocation d'aider les étudiant.es à entrer dans les sujets présentés, et à leur montrer l'intérêt de comprendre les rudiments de la physique. 3. Les exercices  Ils se déroulent sur une plateforme informatique accessible via le login UNIL de chaque étudiant.e. Les détails pratiques sont présentés dans l'annexe 3 (chapitre 39).  Ils permettent d'approfondir les concepts présentés dans le manuscrit et le cours ex‐cathedra, et de se préparer à l'examen.  Pour avoir accès au corrigé, il faut avoir obtenu un minimum de 70 % des points avant le délai de rendu. De plus, le corrigé n'est accessible que pour les questions qui ont reçu une réponse. 4. L'examen  L'examen se fait sous la forme de QCM.  Chaque étudiant.e est autorisé.e à se présenter à l'examen avec une feuille A4 recto/verso manuscrite et/ou imprimée contenant les formules et résumés qu'il/elle jugera utile. Chacun des côtés mentionnera de manière claire le titre du cours et le nom de l'étudiant.e. Des contrôles pourront être effectués par les surveillants de l'examen.  Les constantes physiques qui pourraient être nécessaire à la résolution des problèmes posés seront rappelées dans la donnée des questions. Figure 4 : Structure générale du cours de physique générale (à lire dans le sens horaire en commençant à midi). Les couleurs se rapportent aux enseignants. 1.7 Livre de référence Il n'y a pas de livre de référence pour ce cours. Le présent texte se veut autosuffisant. Néanmoins, les personnes qui désireraient un éclairage complémentaire et de niveau similaire sont invités à consulter l'ouvrage de Kane et Sternheim, Physique, 4ème Edition, Dunod (2018). BM1.1 ‐ Physique générale Page 20 version du 06.09.2024 Chapitre 2 : Métrologie Objectifs du cours abordés dans ce chapitre  Décrire le système international d'unités (SI) ; en particulier le lien entre constantes physiques et unités de base, comment on en dérive d'autres unités et le sens des préfixes multiplicatifs  Expliquer comment on garantit que des mesures soient comparables partout dans le monde  Expliquer le sens d'une incertitude de mesure et la calculer pour l'addition ou la multiplication de deux grandeurs mesurées 2.1 Résumé Le système international d'unités (SI) est basé sur sept constantes physiques (ΔυCs, c, h, e, kB, NA et Kcd) qui permettent de définir sept unités de base : la seconde (s), le mètre (m), le kilogramme (kg), l'ampère (A), le kelvin (K), la mole (mol) et la candela (cd). A partir de ces unités de base, on peut définir des unités dérivées dont certaines ont des noms spécifiques. Lorsque la valeur numérique d'une grandeur est passablement plus grande ou plus petite que 1, on peut ajouter un préfixe multiplicatif à l'unité : n, µ, m, k, M, G, etc. La métrologie est une science normalisée au niveau international. Il est possible de comparer des grandeurs mesurées dans différents pays grâce à la notion de traçabilité métrologique. Une grandeur mesurée sans information sur le lien qu'elle peut avoir avec la vraie valeur est peu informative. Elle est donc généralement associée à une incertitude‐type ou un multiple de l'incertitude‐type qui nous renseigne sur la probabilité que la vraie valeur se trouve dans un intervalle donné. L'incertitude d'une somme ou d'une différence de grandeurs s'exprime par la somme quadratique des incertitudes absolues. L'incertitude d'une multiplication ou d'un quotient de grandeurs s'exprime par la somme quadratique des incertitudes relatives. 2.2 Introduction La médecine s'appuie depuis longtemps sur des grandeurs mesurées, comme les mesures biométriques classiques (poids, taille, pression artérielle, etc.), la biométrie fœtale, la biométrie oculaire, les analyses de laboratoire, etc. Le développement de l'intelligence artificielle pourrait bien faire exploser le nombre de mesures à disposition pour le diagnostic et le suivi du patient. Il est donc important de comprendre comment la métrologie est organisée, comment on peut garantir qu'une mesure réalisée à Lausanne donnerait la même valeur si elle était réalisée à Moscou ou à Nouakchott, comment les unités sont liées entre elles, comment des unités sont dérivées ou multipliées par un suffixe. Il est tout aussi crucial de réaliser qu'une mesure n'a jamais une précision parfaite et qu'il faut connaître son incertitude avant de prendre une décision sur la base de sa valeur la plus probable. De même si l'on doit soi‐même combiner différentes valeurs mesurées, il est bon de savoir calculer l'incertitude qui en résulte. Ce chapitre a pour but de répondre à ces questions d'un point de vue pratique et servira également de référence aux autres chapitres à chaque fois que des grandeurs physiques seront présentées avec leurs unités ou qu'une constante physique sera utilisée. BM1.1 ‐ Physique générale Page 21 version du 06.09.2024 2.3 Système d'unités SI Le Système international d'unités (SI)6 consiste en un ensemble d'unités de base, de préfixes et d'unités dérivées. Le SI est fondé sur un choix de sept constantes physiques fondamentales qui permettent de définir sept unités de base : le mètre, le kilogramme, la seconde, l'ampère, le kelvin, la mole et la candela Figure 5 : Unités et constantes physiques définissant le projet de futur SI. Notons qu'il n'y a pas de correspondance 1:1 entre unités et constantes, car certaines unités sont définies à l’aide de plusieurs constantes (voir Tableau 2). Le SI est conçu pour être un système évolutif en fonction des besoins. Il est supervisé par diverses instances internationales dont la gestion et des laboratoires se trouvent au Bureau international des poids et mesures (BIPM), à Sèvres, à l'ouest de Paris. La valeur d’une grandeur est généralement exprimée sous la forme du produit d’un nombre par une unité. Le nombre est le rapport entre la valeur de la grandeur en question et l’unité. Par exemple, la vitesse v d’une particule peut s'exprimer sous la forme v = 25 m/s = 90 km/h. Les unités mètre par seconde et kilomètre par heure étant des unités alternatives pour exprimer la même valeur de la grandeur "vitesse". 2.3.1 Constantes physiques Le SI est défini par sept constantes physiques qui ont été choisies de sorte que toute unité puisse être exprimée à partir de l’une de ces sept constantes ou à partir de produits ou rapports de ces constantes. Le Tableau 2 présente ces sept constantes qui, par définition ont des valeurs fixes7. Le Tableau 3 présente la définition des unités dite "de base" par rapport aux sept constantes physiques. On notera que puisque le SI est défini par les sept constantes, il n'est pas nécessaire de donner un statut particulier à certaines unités. Cependant, pour des raisons historiques, nous continuons à distinguer les unités de base des unités dérivées. 6 Un description complète du SI peut s'obtenir sur le site du Bureau international des poids et mesures, dont ce chapitre s'est grandement inspiré : https://www.bipm.org/utils/common/pdf/si‐brochure/SI‐Brochure‐9.pdf 7 Comme on le verra plus bas, cela signifie que ces constantes ont une incertitude nulle : leur valeur est définie de manière "infiniment précise". BM1.1 ‐ Physique générale Page 22 version du 06.09.2024 Tableau 2 : Constantes physiques utiles dans le cadre de ce cours. Les sept constantes du SI sont précédées d'un double astérisque (**); leurs valeurs sont fixes. Les constantes précédées d'un seul astérisque (*) ont indirectement des valeurs fixes. Paramètre Symbole Valeur (en unité SI) **Fréquence hyperfine du césium ΔνCs 9'192'631'770 s‐1 **Vitesse de la lumière dans le vide c 299'792'458 m/s **Constante de Planck h 6.626'070'15 10−34 J s **Charge électrique élémentaire e 1.602'176'634 10−19 C **Constante de Boltzmann kB 1.380'649 10−23 J/K **Nombre d'Avogadro NA 6.022'140'76 1023 mol‐1 **Efficacité lumineuse Kcd 683 cd sr /W = 683 lm/W *Perméabilité magnétique μ0 4π 10−7 N/A2 *Permittivité du vide 0  1  c20  8.854'19 10−12 F/m *Constante de la loi de Coulomb k  1 4  0 8.99 109 N m2/C2 2  5 kB5 *Constante de Stefan‐Boltzmann  5.670 10−8 W/m2/K4 15 h3 c 2 *Constante des gaz parfaits R = N A kB 8.314'46 J/mol/K Constante universelle de la gravitation G 6.674 10‐11 m3/kg/s2 Accélération de la pesanteur g 9.80665 m/s2 Masse du proton mp 1.673 10‐27 kg (938.3 MeV/c2) Masse du neutron mn 1.675 10‐27 kg (939.7 MeV/c2) Masse de l'électron me 9.109 10‐31 kg (511 keV/c2) Tableau 3 : Expression de chaque unité de base en terme des constantes de base. Grandeur Unité de base En terme de constantes physiques Temps 1s 9'192'631'770 /ΔνCs Longueur 1m 30.663'319 c/ΔνCs Masse 1 kg 1.475'5214 1040 h ΔνCs/c2 Courant électrique 1A 6.789'687 108 ΔνCs e Température 1K 2.266'665'3 h ΔνCs/kB Quantité de matière 1 mol 6.022'140'76 1023 /NA Intensité lumineuse 1 cd 2.614'830 1010 (ΔνCs)2 h Kcd 2.3.2 Unités de base 2.3.2.1 Unité de temps SI (seconde s) La seconde est définie en prenant la valeur numérique fixée de la fréquence de la transition hyperfine de l’état fondamental de l’atome de césium 133 non perturbé, ΔνCs, égale à 9'192'631'770 lorsqu’elle est exprimée en Hz, unité égale à s–1. 2.3.2.2 Unité de longueur SI (mètre m) Le mètre est défini en prenant la valeur numérique fixée de la vitesse de la lumière dans le vide, c, égale à 299'792'458 lorsqu’elle est exprimée en m/s, la seconde étant définie en fonction de ΔνCs. BM1.1 ‐ Physique générale Page 23 version du 06.09.2024 2.3.2.3 Unité de masse SI (kilogramme kg) Le kilogramme8 est défini en prenant la valeur numérique fixée de la constante de Planck, h, égale à 6.626'070'15 × 10–34 lorsqu’elle est exprimée en J s, unité égale à kg m2 s–1, le mètre et la seconde étant définis en fonction de c et ΔνCs. 2.3.2.4 Unité de courant électrique SI (ampère A) L’ampère est défini en prenant la valeur numérique fixée de la charge élémentaire, e, égale à 1.602'176'634 × 10–19 lorsqu’elle est exprimée en C, unité égale à A s, la seconde étant définie en fonction de ΔνCs. 2.3.2.5 Unité de température thermodynamique SI (kelvin K) Le kelvin est défini en prenant la valeur numérique fixée de la constante de Boltzmann, kB, égale à 1.380'649 × 10–23 lorsqu’elle est exprimée en J K–1, unité égale à kg m2 s–2 K–1, le kilogramme, le mètre et la seconde étant définis en fonction de h, c et ΔνCs. 2.3.2.6 Unité de quantité de matière SI (mole mol) Une mole contient exactement 6.022'140'76 × 1023 entités élémentaires. Ce nombre, appelé "nombre d’Avogadro", correspond à la valeur numérique fixée de la constante d’Avogadro, NA, lorsqu’elle est exprimée en mol–1. La quantité de matière, symbole n, d’un système est une représentation du nombre d’entités élémentaires spécifiées. Une entité élémentaire peut être un atome, une molécule, un ion, un électron, ou toute autre particule ou groupement spécifié de particules. 2.3.2.7 Unité d’intensité lumineuse dans une direction donnée SI (candela cd) La candela est définie en prenant la valeur numérique fixée de l’efficacité lumineuse d’un rayonnement monochromatique de fréquence 540 × 1012 Hz, Kcd, égale à 683 lorsqu’elle est exprimée en lm W–1, unité égale à cd sr W–1, ou cd sr kg–1 m–2 s3, le kilogramme, le mètre et la seconde étant définis en fonction de h, c et ΔνCs. Contrairement aux six autres unités de base du SI, la candela est une grandeur photobiologique (ou psychophysique) qui prend en compte l’interaction de la lumière avec l’œil humain dans la vision. La fréquence choisie, 540 1012 Hz (longueur d'onde λ=555 nm), est celle à laquelle l'œil humain est le plus sensible en vision photopique9. 2.3.3 Unités physiques dérivées Les unités dérivées sont formées à partir de produits de puissances des unités de base. Les unités dérivées cohérentes sont des produits de puissances des unités de base qui ne font pas intervenir des facteurs numériques autres que 1. Les unités de base et les unités dérivées du SI forment un ensemble cohérent, désigné sous le nom d’ensemble d’unités SI cohérentes (Tableau 4). A noter que les unités de volume litre (abrégé L ou l, 1L=1dm3) ou de masse tonne (abrégé t, 1t=1'000kg) sont d’usage courant et diffèrent des unités SI cohérentes correspondantes d’un facteur égal à une puissance entière de dix. Tableau 4 : Exemples d’unités SI dérivées cohérentes exprimées à partir des unités de base. Grandeur dérivée Unités Superficie m2 Volume m3 Vitesse m/s Masse volumique kg/m3 8 Pour les personnes qui voudraient une explication pratique de la "balance de Watt", qui permet de réaliser cette mesure, prière de consulter la chaîne YouTube Practical Engineering https://youtu.be/ewQkE8t0xgQ. 9 La vision photopique se rapporte à la vision de jour ou en conditions d'éclairage important. BM1.1 ‐ Physique générale Page 24 version du 06.09.2024 Par commodité, certaines unités dérivées cohérentes ont reçu un nom spécial et un symbole particulier ; elles sont toutes mentionnées au Tableau 5. Ces noms spéciaux et ces symboles particuliers peuvent eux‐mêmes être utilisés avec les noms et les symboles d’autres unités de base ou dérivées pour exprimer les unités d’autres grandeurs dérivées. Tableau 5 : Unités SI dérivées cohérentes ayant des noms spéciaux et des symboles particuliers Grandeur dérivée Nom Symbole Expression en unité SI de base Angle plan radian rad m/m Angle solide stéradian sr m2/m2 Force newton N m kg s‐2 Fréquence hertz Hz s‐1 Pression pascal Pa m‐1 kg s‐2 (N/m2) Energie joule J m2 kg s‐2 Puissance watt W m2 kg s‐3 (J/s) Charge électrique coulomb C sA Différence de potentiel volt V m2 kg s‐3 A‐1 (W/A) Capacité électrique farad F m‐2 kg‐1 s4 A2 (C/V) Résistance électrique ohm Ω m2 kg s‐3 A‐2 (V/A) Conductance électrique siemens S m‐2 kg‐1 s3 A2 (A/V) Flux d'induction magnétique weber Wb m2 kg s‐2 A‐1 (V s) Induction magnétique tesla T kg s‐2 A‐1 (Wb/m2) Inductance henry H m2 kg s‐2 A‐2 (Wb/A) Température Celsius degré Celsius °C K Flux lumineux lumen lm cd sr Eclairement lumineux lux lx cd sr m‐2 (lm/m2) Activité d'un radionucléide becquerel Bq s‐1 Dose absorbée gray Gy m2 s‐2 (J/kg) Equivalent de dose sievert Sv m2 s‐2 (J/kg) Activité catalytique katal kat s‐1 mol On notera encore que l'unité de longueur ångström (Å) est souvent utilisée en physique atomique, bien qu'elle ne fasse pas officiellement partie du SI : 1 Å = 10‐10 m. 2.3.4 Préfixes multiplicatifs Des préfixes multiplicatifs peuvent être ajoutés devant les symboles d'unité. Les symboles des préfixes sont écrits en caractères romains10, comme les symboles d’unités, quelle que soit la police employée par ailleurs. Ils sont attachés aux symboles d’unités, sans espace entre le symbole du préfixe et celui de l’unité. À l’exception de da (déca), h (hecto), et k (kilo), tous les symboles des préfixes des multiples sont en majuscules, et tous les symboles des préfixes des sous‐multiples sont en minuscules (Tableau 6). 10 A l'exception du micro, µ. BM1.1 ‐ Physique générale Page 25 version du 06.09.2024 Tableau 6 : Préfixes SI. Les plus couramment utilisés sont ceux situés entre 10‐15 (femto) et 1012 (tera). Facteur Nom Symbole Facteur Nom Symbole 1 ‐1 10 deca da 10 deci d 2 ‐2 10 hecto h 10 centi c 3 ‐3 10 kilo k 10 milli m 6 ‐6 10 mega M 10 micro µ 109 giga G 10‐9 nano n 1012 tera T 10‐12 pico p 15 ‐15 10 peta P 10 femto f 18 ‐18 10 exa E 10 atto a 21 ‐21 10 zetta Z 10 zepto z 1024 yotta Y 10‐24 yocto y 2.4 Cohérence des unités Lorsqu'on applique des formules physiques, les unités doivent être cohérentes. Le Tableau 7 présente quelques exemples de formules avec les unités de base mentionnées explicitement. Tableau 7 : Exemple de décomposition en unités de base pour déterminer les unités d'une grandeur ou vérifier la cohérence des unités dans une formule Grandeur Formule Unité des grandeurs Unités de la grandeur dx  distance x : m Vitesse v m s‐1 dt  temps t : s  force F : N = kg m s‐2 kg m2 s‐2 Travail W F x  distance x : m =J PV  NRT  pression P : Pa = N m‐2 = kg m‐1 s‐2 Constante des gaz  volume V : m3 kg m2 s‐2 mol‐1 K‐1 PV parfaits R  quantité de matière N : mol = J K‐1 mol‐1 NT  température T : K  différence de pression : kg2 m‐2 s‐4 kg‐1 m3 m‐1 s Intensité d'une P 2 Pa = N m‐2 = kg m‐1 s‐2 = kg m2 s‐2 s‐1 m‐2 I onde sonore 2 v  masse volumique ρ : kg m‐3 = J s‐1 m‐2  vitesse de propagation v : m s‐1 = W m‐2 2.5 Traçabilité métrologique La traçabilité métrologique est la propriété d'un résultat de mesure à être relié à un étalon national ou international par l'intermédiaire d'une chaîne ininterrompue et documentée d'étalonnages, dont chacun contribue à l'incertitude de mesure. La cohérence des étalons nationaux du monde entier et le respect des définitions de la section 2.3.2 sont de la responsabilité des organisations régionales de métrologie et du BIPM. Comme le montre la Figure 6, le système international de métrologie garantit qu'un instrument traçable à un étalon national soit également traçable aux instruments traçables dans d'autres pays du monde. Cela garantit la confiance dans les grandeurs mesurées, que ce soit dans un cadre médical, scientifique ou commercial. BM1.1 ‐ Physique générale Page 26 version du 06.09.2024 Figure 6 : Traçabilité métrologique. Chaque instrument de mesure local est étalonné par une chaîne d'instruments liés sans interruption à un étalon national. La cohérence étalons nationaux avec la définition physique de la grandeur est assurée par le Bureau international des poids et mesures (BIPM). 2.6 Incertitude de mesure 2.6.1 Erreur ou incertitude ? Le terme erreur de mesure se rapporte à la différence entre la valeur estimée et la vraie valeur. L'erreur est donc la plupart du temps impossible à connaître. Même si l'erreur de mesure ne peut pas être connue, il est généralement possible d'estimer la confiance que l'on peut avoir dans une mesure grâce à son incertitude. Par exemple, si vous mesurez la longueur x de votre téléphone avec une règle, vous pouvez répéter la mesure (x1, x2, …, xn) et considérer que la valeur moyenne ( x) est la valeur la plus probable. La distribution des valeurs (voir Figure 7), souvent caractérisée par son écart‐type, σ(x), permet d'estimer la gamme des valeurs possibles. Par ailleurs, on peut tenir compte du fait que la règle n'est pas parfaite en attribuant également un écart‐type à la qualité de l'étalonnage de la règle. Ces deux méthodes (répéter la mesure pour estimer un écart‐type ou attribuer un écart‐type à un étalonnage) sont à la base de la notion d'incertitude :  L'incertitude de mesure est un paramètre non négatif qui caractérise la dispersion des valeurs attribuées à la grandeur que l'on veut mesurer, à partir des informations utilisées. Une incertitude caractérisée par un écart‐type s'appelle incertitude‐type, u(x). Si la distribution des valeurs est gaussienne, cela signifie qu'un intervalle de ± u(x) autour de la valeur la plus probable (par exemple x) a une probabilité de 68 % de contenir la vraie valeur. Si l'on désire augmenter la probabilité que l'intervalle contienne la vraie valeur, on définit l'incertitude élargie U comme étant l'incertitude‐type multipliée par un facteur k. Ainsi pour une distribution gaussienne, prendre un facteur k=2 signifie que la vraie valeur a une probabilité de 95 % de se trouver dans l'intervalle. Pour k = 3, la probabilité monte à 99 %. Si rien n'est indiqué, cela signifie généralement qu'un facteur k = 1 ou k = 2 a été utilisé. Une valeur mesurée avec son incertitude se rapporte en général sous la forme valeur ± incertitude. On écrira par exemple : x  100.0  2.8 mm  k  2. Ce qui revient à dire que la longueur x a une probabilité de 95 % de se trouver dans l'intervalle situé entre 97.2 et 102.8 mm. L'incertitude a une incidence directe sur le nombre de chiffres significatifs à afficher. En règle générale, l'incertitude s'exprime avec un ou deux chiffres significatifs11. La valeur indiquée doit donc être rapportée en conséquence. Dans l'exemple qui précède, il faut s'arrêter au premier chiffre décimal, car l'incertitude est donnée à cette échelle. Il serait donc incorrect d'écrire "x = 100.03±2.8 mm" ou "x = 100±2.8 mm". 11Il est très rare de pouvoir raisonnablement estimer l'incertitude avec plus de deux chiffres significatifs. En un sens, l'incertitude a également une incertitude… BM1.1 ‐ Physique générale Page 27 version du 06.09.2024 Figure 7 : Exemple de distribution (gaussienne) des mesures de longueur réalisées avec une règle. La valeur moyenne est de 100 mm. L'écart‐type est de 1.4 mm. La surface sous l'ensemble de la courbe vaut 100 % par définition. La surface contenue entre ± un écart‐type autour de la moyenne vaut 68 %. 2.6.2 Composition des incertitudes Il arrive très souvent que les grandeurs utilisées apparaissent dans des formules sous la forme d'addition et de soustraction ou de multiplication et de division de grandeurs mesurées. Si l'incertitude est exprimée sous la forme d'une incertitude‐type, il est très facile de calculer l'incertitude résultante. 2.6.2.1 Somme ou soustraction de plusieurs grandeurs Imaginons que l'on doive additionner deux longueurs x et y dont on connaît les incertitudes‐types u(x) et u(y). L'incertitude‐type associée à z=x+y s'exprime simplement par addition quadratique des incertitudes‐types absolues12 : u z  u x u y 2 2. L'addition quadratique est très différente de l'addition simple. Par exemple, si l'incertitude‐type sur x est égale à 3 mm et celle sur y est de 0.5 mm, l'incertitude sur z est égale à 3.04 mm13. Cela signifie que dès qu'il y a des différences importantes entre les incertitudes, celle qui est la plus grande est quasiment la seule qui importe. Même si cela peut paraître contre‐intuitif, on utilise exactement la même formule si la distance z est définie comme la différence entre x et y (z=x‐y). Cela se justifie en partie dès lors qu'on réalise qu'en combinant deux grandeurs incertaines (que ce soit par addition ou par soustraction) on ne peut qu'augmenter notre incertitude. 2.6.2.2 Valeur moyenne Le calcul d'une moyenne est un cas particulier de la somme. Lorsqu'on mesure une série de n valeurs x1, x2, …, xn, la moyenne est définie par : 1 n x  xi. n i 1 Si l'incertitude‐type associée à chaque xi est égale à u(x), alors l'incertitude‐type sur la moyenne vaut : ux ux  . n Cela signifie qu'on peut réduire l'incertitude en répétant la mesure. Par exemple, si l'on répète 100 fois la mesure, l'incertitude est réduite d'un facteur 10. Mais attention, cette réduction ne concerne que l'incertitude sur l'opération de mesure. L'incertitude propre à l'instrument de mesure – celle qui provient de l'étalonnage – 12 Pour être rigoureux, ceci ne peut se faire que si les variables additionnées sont "statistiquement indépendantes". Si tel n'est pas le cas, il faut prendre en compte la covariance. Mais il n'est pas nécessaire de comprendre ces concepts dans le cadre de ce cours. 13 Dans un cas comme celui‐ci, la règle est généralement d'arrondir l'incertitude vers le haut, à 3.1 mm, de manière à ne pas avoir plus de deux chiffres significatifs. BM1.1 ‐ Physique générale Page 28 version du 06.09.2024 n'est pas concernée. Sinon, on pourrait toujours avoir une incertitude infiniment petite, simplement en répétant la mesure ! 2.6.2.3 Produit ou quotient de plusieurs grandeurs Dans certains cas, la grandeur que l'on veut estimer est le résultat de multiplications et de quotients, comme par exemple lorsqu'on désire estimer la température d'un gaz parfait en mesurant sa pression P, son volume V et le nombre de moles n : PV T. nR Que le la variable soit au numérateur ou au dénominateur, la formule exprimant l'incertitude est la même : on additionne quadratiquement les incertitudes‐types relatives14. Dans notre exemple, cela signifie que : u T   u  P    u V    u  n    u  R    u  P    u V    u  n   2 2 2 2 2 2 2                . T  P   V   n   R   P   V   n  La seconde égalité découle du fait que l'incertitude sur la constante des gaz parfait est nulle (voir Tableau 2). 14Comme dans le cas de l'addition, ceci ne peut se faire que si les variables additionnées sont statistiquement indépendantes. Si tel n'est pas le cas, il faut prendre en compte la covariance. BM1.1 ‐ Physique générale Page 29 version du 06.09.2024 Chapitre 3 : Psychophysique Objectifs du cours abordés dans ce chapitre  Expliquer comment on peut transformer une fonction de l'espace direct en une fonction de l'espace réciproque  Décrire les paramètres d'une courbe ROC et calculer les valeurs prédictives correspondant à un résultat diagnostic donné  Décrire comment on peut quantifier la relation entre un stimulus et sa perception par la loi de Stevens, et citer quelques exemples typiques 3.1 Résumé Le corps humain est truffé de récepteurs. Les plus emblématiques définissent nos traditionnels "cinq sens", mais nous en avons bien d'autres. Certains nous donnent des informations sur l'espace direct : les trois dimensions mesurées en mètres et le temps mesuré en secondes. D'autres nous donnent accès à l'espace réciproque : la fréquence spatiale mesurée en inverse de mètres et la fréquence temporelle mesurée en inverse de secondes (hertz). Mathématiquement, le passage d'un espace à l'autre se fait par la transformée de Fourier. La psychophysique est l'étude de la relation entre un stimulus physique et notre réponse à celui‐ ci. Pour des stimuli de faible intensité, on peut déterminer les seuils à partir desquels nous percevons des stimuli, mais ça n'est souvent pas satisfaisant, car notre perception tend à être progressive entre les situations où l'on est certain que le stimulus et absent et celles où l'on est certain qu'il est présent. Cette marge de décision est prise en compte par la théorie ROC qui permet de définir la sensibilité et la spécificité d'un observateur. Ces deux paramètres sont très utiles pour les professionnels du diagnostic. Les patients sont souvent plus intéressés à savoir quelle est la probabilité que leur résultat diagnostic corresponde à la réalité : la valeur prédictive. Pour des stimuli de grande intensité, la question n'est pas de savoir s'ils sont perceptibles, mais plutôt quelle est la relation mathématique entre le stimulus et la perception. La loi de Stevens permet de quantifier cette relation. 3.2 Introduction La médecine a souvent recours à des mesures physiques qu'on souhaiterait pouvoir associer à une perception, comme l'intensité d'un son, la brillance d'une source de lumière ou, de manière plus complexe, la capacité d'une radiologue à détecter une pathologie sur une radiographie. La psychophysique est l'étude de la relation entre un stimulus physique et notre réaction psychologique à celui‐ci. La dimension physique se mesure assez facilement. En revanche, la réaction psychologique ou l'expérience subjective est unique à chaque individu et ne peut pas être universellement quantifiée comme la dimension physique. Même si la perception varie d'un individu à l'autre, les études psychophysiques montrent qu'il existe des tendances générales, globalement valables pour une population. Ces études sont basées sur les statistiques de résultats d'expérience et conduisent à établir des valeurs moyennes représentatives. 3.3 Instruments de mesure ou récepteurs du corps humain 3.3.1 Cinq sens ? Depuis Aristote, il est communément admis en Occident que nous possédons cinq sens qui sont représentés par leurs organes sensoriels inhérents : oreilles, yeux, langue, nez et peau. Si l'on définit un sens comme étant un système de récepteurs de la perception, force est de constater que nous en disposons d'un nombre bien BM1.1 ‐ Physique générale Page 30 version du 06.09.2024 plus grand. A titre d'exemple, on citera la thermoception (température), la proprioception (position du corps), la nociception (douleur), l'équilibrioception (équilibre), la méchanoréception (vibrations), ou la perception des stimuli internes (sel, CO2, faim, soif, etc.). Au fur et à mesure que nous progresserons dans ce cours, nous mentionnerons quelques récepteurs du corps humain qui nous permettent de percevoir des grandeurs physiques comme l'accélération ou la température et nous discuterons plus en détails la vision, qui nous permet de percevoir le rayonnement électromagnétique situé entre les longueurs d'ondes 380 et 780 nm (chapitre 21) et l'audition qui nous permet de percevoir les ondes sonores entre les fréquences 20 et 20'000 Hz (chapitre 24). Dans certains cas, le lien entre le récepteur et la perception que nous en avons semble clair : par exemple percevoir l'intensité lumineuse en un point d'une scène ou l'amplitude d'un son. Cette description spécifique, où un type de récepteur répond exclusivement à un seul type de stimulus physique, ne peut pas se généraliser. Il n'est pas rare en effet qu'un seul neurone innerve de nombreux récepteurs et un seul récepteur soit innervé par différents neurones. Il est donc difficile de déterminer comment chaque récepteur individuel contribue à l’activité des neurones afférents. 3.3.2 Transformée de Fourier Nos sens sont capables de percevoir des grandeurs liées à l'espace comme une longueur ou un intervalle de temps. Ces grandeurs appartiennent à l'espace direct. Mais nous percevons également des fluctuations par unité de longueur comme dans une image plus ou moins bruitée, ou des fluctuations par unité de temps, comme des sons graves ou aigus. Ces grandeurs "inverses" sont dites grandeurs de l'espace réciproque. Deux exemples de fréquences spatiale et temporelle sont présentés dans la Figure 8. Figure 8 : Objets de l'espace direct ayant une certaine périodicité. (a) Cinq barres identiques sont positionnées de manière équidistantes sur une longueur de 1 m. La fréquence correspondante dans l'espace réciproque vaut 5 m‐1 (=5/1m). (b) Une structure sinusoïdale se répète au cours du temps à raison de quatre cycles complet sur une durée de 1 s. La fréquence correspondante dans l'espace réciproque vaut 4 s‐1 = 4 Hz (4/1s). La transformée de Fourier15 est une opération mathématique qui décompose une fonction dépendant de l'espace ou du temps en une fonction dépendant de la fréquence spatiale ou temporelle16. L'exemple typique est un accord musical, qu'on entend comme l'amplitude d'un son au cours du temps, dont la transformée de Fourier est le volume correspondant à ses notes (ou fréquences) constitutives. Pour faire simple, la transformée de Fourier permet de représenter une fonction de l'espace direct comme une somme de sinusoïdes dans l'espace réciproque. Les valeurs de la transformée de Fourier sont les amplitudes de ces sinusoïdes en fonction de la fréquence. La Figure 9‐a montre graphiquement comment la somme de six sinusoïdes permet de reproduire une fonction croissant progressivement et décroissant progressivement. Dans ce cas, la transformée de Fourier est égale à l'amplitude de chacune des sinusoïdes à la fonction correspondante. La Figure 9‐b montre une fonction rectangulaire et la Figure 9‐c sa transformée de Fourier correspondante. 15Dans ce cours, et par abus de langage, nous ne faisons pas la différence entre transformée et série de Fourier. 16 Pour ceux qui veulent en savoir plus sur la transformée de Fourier, la chaîne YouTube 3Blue1Brown en donne une description didactique : https://youtu.be/r6sGWTCMz2k BM1.1 ‐ Physique générale Page 31 version du 06.09.2024 Figure 9 : Exemple de transformée de Fourier. (a) La fonction bleue est la somme des fonctions violettes sinusoïdales. Sa transformée de Fourier est égale à l'amplitude de chacune des sinusoïdes en fonction de leurs fréquences correspondantes. Dans ce cas, la transformée de Fourier à 6 valeurs non nulles aux fréquences de chacune des sinusoïdes. (b) Fonction rectangulaire de l'espace direct. (c) Transformée de Fourier de la fonction rectangulaire. Cette fonction est suffisamment courante pour qu'on lui ait attribué un nom spécifique : sinus cardinal (sinc). La transformée de Fourier est beaucoup utilisée en physique. En dehors de la décomposition d'une onde sonore en spectre de fréquence, elle est par exemple utilisée pour reconstruire une image lors de l'acquisition d'un signal de résonance magnétique nucléaire (voir chapitre 19, IRM). 3.4 Réponses à des stimuli de faibles intensités 3.4.1 Détermination d'un seuil Les méthodes de psychophysique classiques mesurent des seuils absolus : la plus petite quantité d'énergie requise pour que le stimulus soit rapporté 50 % du temps. Quelques exemples de la vie de tous les jours sont donnés dans le Tableau 8. Pour déterminer la valeur de seuil, on utilise classiquement trois méthodes : 1. La méthode des limites consiste à présenter systématiquement des quantités croissantes ou décroissantes d'un stimulus. Cette méthode est rapide, mais ne donne pas toujours le même résultat suivant que les séries sont ascendantes ou descendantes. 2. La méthode d'ajustement demande à l'observateur – et non à l'expérimentateur – d'ajuster l'intensité du stimulus jusqu'à ce qu'il soit à peine détectable. Cette fournit un seuil très rapidement, mais les erreurs sont plus probables qu'avec la méthode des limites. 3. La méthode des stimuli constants consiste à présenter des stimuli proches du seuil dans un ordre aléatoire. Elle fournit un seuil très précis, mais demande du temps. De plus, cette méthode nécessite que l'expérimentateur ait déjà une bonne idée de l'emplacement du seuil. Connaître des valeurs de seuil peut être utile si vous travaillez dans un laboratoire manipulant des produits toxiques. Par exemple, le seuil olfactif de l'acétone est 40 fois inférieur à la valeur limite de la législation suisse. Il n'est donc pas forcément nécessaire de s'inquiéter si l'on sent ce produit. En revanche le seuil du benzène est 10 fois supérieur à la limite légale. Si vous sentez des émanations, c'est très mauvais signe. Tableau 8 : Quelques valeurs approximatives de seuils de détection17 Modalité Seuil de détection Lumière Une flamme de bougie vue à 50 km par une nuit sombre et claire Son Le tictac d'une montre dans des conditions calmes à une distance de 6 m Goût Une cuillère à café de sucre dans 8 L d'eau Odeur Une goutte de parfum diffusée dans tout le volume d'un appartement de trois pièces Touché L'aile d'une abeille tombant sur la joue à une distance de 1 cm 17 Référence : Hugh J. Foley and Mary Bates, Sensation and Perception, Sixth Ed, Routeledge, Taylor & Francis, 2020 BM1.1 ‐ Physique générale Page 32 version du 06.09.2024 3.4.2 Théorie ROC La connaissance d'un seuil absolu n'est pas adaptée aux tâches de détection telle que la recherche d'un cancer sur une image radiologique, ou un test de laboratoire devant décider de la présence d'un virus dans un échantillon biologique. En effet, la transition entre la non‐détection et la détection est généralement progressive plutôt que brusque, et les seuils déterminés par les méthodes classiques de psychophysique mélangent deux facteurs : la détectabilité et le critère de décision. La détectabilité dépend de la performance intrinsèque de l'observateur et de l'intensité du stimulus. Le critère de décision mesure la volonté de rapporter la présence ou l'absence du stimulus, qui dépend de facteurs tels que la probabilité d'occurrence du stimulus et des conséquences de la décision. La théorie ROC (receiver operating characteristic)18 a pour but de mesurer séparément la détectabilité et le critère de décision par des expériences de détection. Pour un diagnostic médical, cela consiste à présenter deux catégories de stimuli : "pathologie absente" et "pathologie présente". Sans savoir à quelle catégorie le stimulus appartient, l'observateur commence par quantifier ce qu'il perçoit sur une échelle continue allant de "absolument certain de l'absence" à "absolument certain de la présence de la pathologie". C'est ce qu'on appelle la réponse de l'observateur. Dans une seconde phase, la décision est prise en plaçant la réponse dans le contexte d'un grand nombre de facteurs sanitaires et socioéconomiques, comme la prévalence de la pathologie (proportion de la pathologie dans la population), les implications sur la santé somatique et psychique du patient, les examens complémentaires à réaliser, les coûts pour la société, etc. Concrètement, le critère de décision consiste à définir le niveau de réponse en dessus duquel, le diagnostic est positif. La Figure 10 présente schématiquement ces différentes étapes. Figure 10 : Distribution des réponses à des stimuli de deux catégories : pathologies absente ou présente. (a) Les distributions ont des formes "en cloche" de type gaussien, qui permettent d'estimer une valeur moyenne et un écart‐type pour chacune des catégories de stimuli. Ces paramètres permettent de définir la valeur de l'indice de détectabilité, d'. (b) L'observateur doit faire un choix en définissant un critère de décision pour une valeur donnée de sa réponse. En dessus du critère, la décision est positive; en dessous, la décision est négative. (c) La proportion de réponses correcte pour la catégorie "pathologie absente" définit la spécificité. (d) La proportion de réponses correctes pour la catégorie "pathologie présente" défini la sensibilité. 18 La théories ROC est issue de la théorie statistique de la décision, qui a été développée durant la deuxième guerre mondiale, lorsqu'il a fallu quantifier les performances des premiers radars. BM1.1 ‐ Physique générale Page 33 version du 06.09.2024 3.4.2.1 Indice de détectabilité d' Si l'on connait la réponse à un grand nombre de stimuli de chaque catégorie, on peut représenter graphiquement les distributions de ces réponses (voir Figure 10‐a). Dans la pratique, ces distributions ont des allures de "courbes en cloche" dont on peut déterminer les valeurs moyennes (µ0 et µ1) et les écarts‐types (σ0 et σ1). On quantifie la séparation de ces deux courbes par l'indice de détectabilité19 : 1 0 d'  , 1 2    2 0 2 1 où l'indice "1" se rapporte à la catégorie "pathologie présente" et l'indice "0" à "pathologie absente". On constate que les réponses de l'observateur distinguent d'autant mieux chaque catégorie de stimulus que d' est grand. Lorsque les deux distributions sont superposées, les deux catégories sont indistinguables et on a d'=0. Lorsque les deux catégories sont parfaitement distinguables, on a d'=∞. Entre deux se trouvent les situations pratiques. 3.4.2.2 Sensibilité et spécificité Le Tableau 9 présente les quatre résultats issus des combinaisons possibles entre la réalité et le diagnostic : FP, VN et VP, FN. Le nombre total de stimuli où la pathologie est absente, vaut FP+VN. La proportion de diagnostics corrects pour cette catégorie s'appelle la spécificité : VN spécificité . VN  FP Un raisonnement similaire permet de définir la sensibilité pour les stimuli où la pathologie est présente : VP sensibilité . VP  FN La sensibilité est donc la proportion de diagnostics corrects lorsque la pathologie est effectivement présente. La proportion de cas pathologiques parmi les stimuli présentés se nomme la prévalence : VP  FN prévalence . VP  FN  VN  FP La spécificité et la sensibilité sont indépendantes de la prévalence. En effet, la spécificité n'est définie qu'à partir de stimuli où la pathologie et absente, et la sensibilité uniquement à partir de stimuli où la pathologie est présente. En observant la Figure 10, on constate qu'en augmentant la valeur du critère de décision, on augmente la spécificité aux dépends de la sensibilité. Lorsque la valeur du critère diminue, on observe le contraire. Tableau 9 : Distribution des réponses d'un diagnostic par rapport à la réalité pour une tâche de détection. Réalité pathologie absente pathologie présente positif faux positif (FP) vrai positif (VP) Diagnostic négatif vrai négatif (VN) faux négatif (FN) 19 Cette grandeur s'appelle généralement rapport signal sur bruit en théorie du signal. BM1.1 ‐ Physique générale Page 34 version du 06.09.2024 3.4.2.3 Courbe ROC La variation du critère de décision permet de définir l'ensemble des combinaisons possibles entre sensibilité et spécificité sous la forme d'une courbe appelée ROC20 (voir Figure 11). Le point en haut à droite correspond à un critère de décision si petit que le diagnostic est positif quel que soit le cas présenté : la sensibilité est égale à 1, mais la spécificité est nulle. Inversement, le point en bas à gauche correspond à un critère de décision si grand que le diagnostic est toujours négatif : la spécificité est égale à 1 et la sensibilité vaut 0. Ces deux stratégies n'apportent aucune information. La pratique consiste donc à trouver le critère de décision correspondant au bon équilibre entre sensibilité et spécificité. C'est ici que les facteurs médicaux et socioéconomiques interviennent. La Figure 11 présente trois courbes ROC. La courbe (a) permet d'avoir un diagnostic performant à la fois en termes de spécificité et de sensibilité. La courbe (b) correspond à un diagnostic moins performant. La courbe (c) se situe sur la diagonale est correspond à la situation où les deux courbes de réponse de la Figure 10 sont superposées. C'est donc une configuration qui n'apporte aucune information utile. Du point de vue de l'indice de détectabilité, la courbe ROC (c) correspond à d'=0, alors les courbes (b) et (a) ont des indices de détectabilité croissantes : d'(c) < d'(b) < d'(a). La courbe ROC parfaite qui passerait par le coin supérieur gauche (sensibilité = spécificité = 1) a un indice de détectabilité d' = ∞. On utilise souvent la surface sous la courbe ROC (AUC, comme area under the curve) pour quantifier globalement la performance de détection. Une AUC = 1 correspond à un diagnostic parfait, car il permet d'avoir la combinaison sensibilité = spécificité = 1 (d' = ∞). En revanche AUC = 0.5 (situation (c) de la Figure 11) correspond à un diagnostic n'apportant aucune information (d' = 0). Figure 11 : Courbes ROC traçant la relation entre la sensibilité et la spécificité d'un diagnostic donné. Attention, l'axe horizontal a son échelle inversée (dans la littérature, on présente généralement 1‐spécificité pour éviter l'inversion d'échelle). (a) Diagnostic performant pour lequel il est possible d'avoir à la fois une bonne sensibilité et une bonne spécificité (coins supérieur gauche du graphique). (b) Diagnostic moins performant que le diagnostic (a). (c) Diagnostic aléatoire n'apportant aucune information. 3.4.2.4 Valeurs prédictives La spécificité et la sensibilité sont utiles pour définir la qualité d'un diagnostic de détection du point de vue du professionnel. En revanche, cela ne répond pas forcément à l'attente du patient. En effet, la personne qui reçoit un diagnostic positif est davantage intéressée à savoir si elle est véritablement atteinte de la pathologie, que de connaître la probabilité de poser un diagnostic positif dans l'éventualité où elle aurait la pathologie. La réponse à la question de ce patient est la valeur prédictive positive (VPP), qui dépend de la prévalence Pr de la pathologie21 : VP Pr  sensibilité VPP  . VP  FP Pr  sensibilité  1  Pr   1  spécificité 20Les premières courbes ROC ont été dessinées durant la deuxième guerre mondiale, lorsque les Britanniques ont voulu quantifier la performance des premiers radars. 21 Les férus de probabilité auront reconnu l'application du théorème de Bayes : P AB  P B A P A / P B. Dans ce cas, A = "pathologie présente" et B = "diagnostic positif" BM1.1 ‐ Physique générale Page 35 version du 06.09.2024 De manière équivalente, on définit la valeur prédictive négative (VPN) comme étant la probabilité de ne pas être atteint de la pathologie lorsque le diagnostic est négatif : VPN  VN  1  Pr   spécificité. VN  FN 1  Pr   spécificité  Pr  1  sensibilité  Ces formules sont difficiles à retenir et à appliquer de tête. Il est plus simple de recourir à la "méthode de l'arbre", présentée dans la Figure 12 pour une prévalence faible (1 %) et une sensibilité (0.95) et une spécificité (0.90) relativement élevées. Dans cet exemple, principalement en raison de la faible prévalence, on constate qu'un résultat négatif est beaucoup plus sûr (VPN =0.999) qu'un résultat positif (VPP=0.09). On notera en passant qu'il est fréquent de confondre la sensibilité (probabilité d'avoir un diagnostic positif lorsque la pathologie est présente) et la VPP (probabilité d'avoir la pathologie lorsque le diagnostic est positif). Cet exemple montre que ces deux grandeurs peuvent parfois être fort différentes. Figure 12 : Méthode de l'arbre pour une situation où la prévalence de la pathologie est de 1 %, la sensibilité vaut 0.95 et la spécificité vaut 0.90. 1. On débute par choisir un nombre arbitraire de patients de manière à simplifier les calculs. Ici, avec une petite prévalence, 10'000 patients permettent d'avoir 100 patients avec la pathologie. 2. On détermine le nombre de patients avec et sans pathologie. 3. La sensibilité ne s'appliquant qu'aux patients ayant la pathologie, on peut calculer le nombre de vrais positifs. Le reste des patients avec pathologie constitue les faux négatifs. 4. La spécificité ne s'appliquant qu'aux patients n'ayant pas la pathologie, on peut calculer le nombre de vrais négatifs. Le reste des patients sans pathologie constitue les faux positifs. La valeur prédictive positive (0.09) s'obtient en calculant le rapport entre les VP (95) et l'ensemble des positifs (95+990). De même la valeur prédictive négative (0.999) s'obtient en calculant le rapport entre les VN (8'910) et l'ensemble des négatifs (8'910+5). BM1.1 ‐ Physique générale Page 36 version du 06.09.2024 3.5 Réponses à des stimuli plus intenses : Loi de Stevens Dans beaucoup de situations de la vie de tous les jours, l'intensité des stimuli est suffisamment grande pour que l'on s'intéresse davantage à la relation qu'il y a entre le paramètre physique mesurable (le stimulus) et notre perception. Un exemple médical typique est le son. Le stimulus est une onde sonore dont l'intensité s'exprime comme une puissance par unité de surface (W/m2). Pour déterminer comment varie notre perception lorsqu'on change l'amplitude du stimulus, on peut utiliser la technique de l'estimation de la magnitude, qui consiste à demander aux observateurs de chiffrer leur perception subjective. Stanley S. Stevens (1906–1973), a travaillé extensivement sur la relation entre le stimulus et la perception. Des mesures sur un grand nombre de sujets et de types de stimuli l'ont conduit à modéliser la perception P en fonction du stimulus S par une fonction de puissance : P  K  S  S0  n , où S0 est le seuil en dessus duquel un stimulus est perceptible, K est une constante d'échelle qui prend en compte les unités utilisées, et n est un exposant. Cette relation est maintenant connue sous le nom de loi de Stevens. Le Tableau 10 indique quelques exemples d'exposants n. Tableau 10 : Exposant n conduisant à une perception P consécutive à un stimulus S (loi de Stevens)22. Psychoperception P n Stimulus S 0.33 Source lumineuse de 5° Brillance lumineuse 0.5 Source lumineuse ponctuelle Intensité d'un son 0.3 Son de 1'000 Hz (stimulus exprimé en W/m2) 0.55 Odeur de café Odorat 0.6 Odeur d'heptane 0.6 Vibration mécanique de 250 Hz sur les doigts Vibration 0.95 Vibration mécanique de 60 Hz sur les doigts 0.8 Saccharine Goût 1.3 Sucrose 1.3 Sel Durée 1.05‐1.2 Ecoute d'une sonnerie 1 Froid sur le bras Température 1.6 Chaud sur le bras Poids 1.45 Lever d'altères Choc électrique 3.5 Courant alternatif 60 Hz dans les doigts La relation obtenue par Stevens peut être de trois natures : exponentielle, logarithmique ou linéaire (voir Figure 13). Si elle est exponentielle, cela signifie que l'intensité de la perception change très lentement pour des faibles valeurs du stimulus, avant de décoller de telle sorte que des petits changements du stimulus produisent une augmentation spectaculaire de la perception23. Un exemple typique est notre perception du courant électrique. Nous ne ressentons presque rien pour des petites valeurs, mais passé une certaine intensité, une petite augmentation du courant produit une grande différence de perception. On observe l'inverse lorsque la relation est logarithmique. La pente est très grande au début, de sorte que les intensités perçues changent beaucoup avec des petits changements d'intensité du stimulus. Cet effet diminue à des intensités de stimulus plus élevées. L'exemple typique est celui de notre perception de l'intensité lumineuse : allumer une bougie dans une cave borgne est très perceptible ; ensuite, chaque bougie 22 Herman, Physics of the Human Body, Second Edition, Springer (2016); Table 1.15. 23 Celles et ceux d'entre vous qui se souviennent des années 2020‐2021 devraient faire le rapprochement avec la pandémie de covid. BM1.1 ‐ Physique générale Page 37 version du 06.09.2024 supplémentaire contribue de moins en moins à notre perception. Figure 13 : Relations entre le stimulus et la perception (le nombre n indiqué est celui de la loi de Stevens et le seuil S0 est considéré comme étant nul). Relation de type exponentiel : un faible courant électrique est à peine perceptible, mais le devient de plus en plus au fur et à mesure que son intensité augmente. Relation linéaire : la perception de la longueur d'une ligne dans un plan en l'absence de perspective est proportionnelle à celle que l'on mesure avec une règle. Relation de type logarithmique : la perception de brillance d'une source lumineuse augmente très rapidement à faible intensité, puis nécessite des incréments de plus en plus grands. BM1.1 ‐ Physique générale Page 38 version du 06.09.2024 Chapitre 4 : Matière et interactions fondamentales Objectifs du cours abordés dans ce chapitre  Décrire les principales particules élémentaires de la matière courante  Comparer les caractéristiques principales des quatre interactions fondamentales de la Nature  Calculer la force entre deux masses ou entre deux charges électriques 4.1 Résumé A l'échelle microscopique, nous sommes composés d'électrons, de protons et de neutrons. Contrairement aux électrons, les protons et les neutrons (appelés nucléons) ne sont pas des particules élémentaires, car ils sont eux‐mêmes composés de particules : les quarks. Les expériences réalisées au CERN ou ailleurs ont mis en évidence 12 particules élémentaires de matière et une foule d'autres particules composites. A chaque particule correspond une antiparticule. Lorsqu'une particule de matière rencontre son antiparticule, elles s'annihilent, souvent sous la forme de photons. Les particules sont soumises à quatre forces fondamentales : les forces forte, électromagnétique, faible et gravitationnelle. La force forte est attractive à très courte distance et confine les quarks à l'intérieur des nucléons. La force qui lie les nucléons à l'intérieur du noyau est un effet résiduel de la force forte, appelé force nucléaire. La force électromagnétique, dont la force de Coulomb est un cas particulier, agit de manière attractive ou répulsive sur tous les objets dotés d'une charge électrique. La force faible ne lie aucune particule mais est responsable de certaines transformations à l'intérieur des nucléons. La force gravitationnelle agit de manière attractive entre tous les objets doté d'une masse ou d'une énergie. Ces forces se transmettent dans l'espace avec une vitesse finie (celle de la lumière, 300'000 km/s) et par l'échange d'une particule appelée vecteur de force. Le plus connu est celui de la force électromagnétique : le photon. 4.2 Introduction Dans la vie de tous les jours, nous ressentons essentiellement la force qui nous maintient à la surface de la Terre : la force gravitationnelle. A l'échelle de nos cellules, et plus encore à celles de nos molécules, la force électromagnétique est largement prépondérante. Pour se convaincre que la force électromagnétique est beaucoup plus intense que la force gravitationnelle, il suffit de considérer la Figure 14‐a où un aimant pesant moins de 1 g, parvient facilement à contrer la force gravitationnelle de la Terre entière. Un aimant de 1 g est donc "plus fort" que la Terre, dont la masse et le volume sont environ 1027 fois plus importants ! Si la gravité n'était pas si faible par rapport à la force électromagnétique, nous n'existerions pas. C'est seulement parce que la force électromagnétique, qui lie les atomes de notre corps, parvient facilement à contrer la force gravitationnelle de la Terre que nous (et tous les autres objets solides) ne nous transformons pas en flaque qui finirait par fusionner avec la planète. Cette question de prépondérance de la force électromagnétique n'a de sens que si on tient compte de l'échelle à laquelle on observe la Nature. En effet, comme le montre la Figure 14‐b, les forces fondamentales de la Nature (les forces forte, électromagnétique, faible et gravitationnelle) tendent à dominer à certaines échelles. Ainsi, la force gravitationnelle est responsable de la cohésion des objets de grandes tailles, la force forte pour les tailles très petites et la force électromagnétique aux échelles intermédiaires. Nous nous trouvons au milieu : la cohésion de nos atomes, de nos cellules et de nos organes dépend de la force électromagnétique, mais nous ressentons la force gravitationnelle. BM1.1 ‐ Physique générale Page 39 version du 06.09.2024 Le but de ce chapitre est de présenter les grandes lignes de ce que nous savons des particules élémentaires et des caractéristiques principales des forces par lesquelles elles interagissent. (a) (b) Figure 14 : (a) La boule de pétanque (550 g) est facilement retenue par un petit aimant, malgré le fait que la force gravitationnelle de toute la Terre la tire vers le bas24. (b) Amas de matière présents dans l'Univers et forces majoritairement responsables de leur cohésion. On notera que la force faible n'est pas impliquée dans la cohésion de la matière. 4.3 Modèle standard 4.3.1 Matière Les accélérateurs de particules du type de ceux du CERN ont permis de mettre en évidence un très grand nombre de particules, dont la plupart ne sont pas élémentaires. Le modèle standard est la théorie actuellement acceptée qui permet de décrire tous les composants de la matière et les forces qui les gouvernent à partie d’un petit nombre de particules élémentaires. La Figure 15 montre que le modèle standard distingue les fermions (spin ½)25 qui composent la matière ordinaire, et les bosons (spin 1) qui sont les vecteurs des forces fondamentales de la Nature, qu’on appelle également bosons de jauge. Parmi les fermions, on distingue la classe des quarks de celle des leptons. Les nucléons (protons et neutrons) sont composés de quarks et ne sont donc pas des particules élémentaires. En revanche, l'électron est une particule élémentaire, membre de la classe des leptons. 24 Référence : http://www.fourmilab.ch/gravitation/foobar/ 25 Le spin est une des propriétés internes des particules, au même titre que la masse ou la charge électrique. Il est souvent assimilé au moment cinétique (voir section 13.4). BM1.1 ‐ Physique générale Page 40 version du 06.09.2024 Figure 15 : Particules du modèle standard. Les fermions (spin ½) composent la matière ordinaire et les bosons (spin 1) sont les vecteurs des interactions. On a représenté en jaune les photons et les particules qui composent la matière ordinaire. 4.3.2 Antimatière L'antimatière est définie comme un matériau composé d'antiparticule aux particules correspondantes de la matière ordinaire. Une particule et son antiparticule (par exemple proton et antiproton) ont la même masse, mais (entre autres) une charge électrique opposée. Jusqu'à plus amples informations, on suspecte qu'une antiparticule ressente la gravité de la même manière que sa particule26. Une collision entre une particule et son antiparticule conduit à leur annihilation mutuelle, donnant lieu à l'émission de photons de haute énergie, de neutrinos et parfois de paires particule‐antiparticule moins massives. A titre d'exemple, on mentionnera que le proton a une charge positive de +e alors que l'antiproton a une charge négative de ‐e. De même, l'antiélectron, appelé positron (ou positon) est l'antiparticule de l'électron. Il possède une charge électrique de +e, le même spin et la même masse que l'électron. Lorsqu'un électron et un positron de relativement faibles énergies cinétiques interagissent, ils forment une entité instable pendant un très court instant puis s'annihilent sous la forme de deux photons émis dans des directions opposées. 4.3.3 Interactions Les bosons du modèle standard sont les vecteurs de trois interactions fondamentales de la Nature : les interactions électromagnétique, faible et forte. L'interaction gravitationnelle est la quatrième interaction fondamentale de la Nature. Pour l'instant, elle n'est pas intégrée au modèle standard. La section suivante présente quelques caractéristiques de ces interactions. 4.4 Interactions ou forces fondamentales Les interactions fondamentales, souvent appelées forces fondamentales, sont les interactions qui ne sont pas réductibles à des interactions plus basiques. Les interactions gravitationnelles et électromagnétiques produisent d'importantes forces à longue portée dont les effets peuvent être vus directement dans la vie quotidienne. Les interactions fortes et faibles produisent des forces à des distances infimes à l'échelle nucléaire. De manière générale, une force peut être définie comme étant une interaction qui, sans opposition, changera le mouvement d'un objet. Une force est décrite par une amplitude et une direction, ce qui en fait une quantité vectorielle. Son unité SI est le newton (N). 26 L'expérience Alpha du CERN examine actuellement les propriétés de l'antimatière avec, entre autres, pour but de vérifier que l'antimatière se comporte bien comme la matière face à la force gravitationnelle. Plus d'information sur http://alpha.web.cern.ch/ BM1.1 ‐ Physique générale Page 41 version du 06.09.2024 4.4.1 Quatre interactions fondamentales 4.4.1.1 Interaction forte et force nucléaire A l'échelle du femtomètre (10‐15 m), l'interaction ou force forte est celle dont l'intensité est la plus importante. Bien que les quarks se déplacent à une vitesse proche de celle de la lumière, l'interaction forte les confinent à l'intérieur des nucléons. L'interaction forte entre les quarks est de type élastique : plus la distance qui les sépare est grande, plus l’attraction est importante. Cela explique pourquoi les quarks restent confinés dans le nucléon. Indirectement, l'interaction forte agit de manière résiduelle sur la cohésion des noyaux atomiques. A l'échelle du noyau, on ne parle pas de force forte, mais de force nucléaire. Elle n'est sensible ni à la charge électrique ni à la masse. Son amplitude est la même, quelle que soient les nucléons : proton‐proton, neutron‐neutron ou proton‐neutron. Son portée est finie (2.5 fm). Entre 2.5 et 0.8 fm, elle est très attractive et en dessous de 0.8 fm, elle possède un "cœur dur" répulsif qui empêche les nucléons de se chevaucher. La force nucléaire peut donc être vue comme une force de contact, un peu comme du velcro. (a) (b) Figure 16 : (a) Proton à l'intérieur duquel l'interaction forte se manifeste entre les quarks27. (b) Force nucléaire à l'intérieur du noyau en fonction de la distance séparant deux nucléons. La force attractive est maximale à une distance d'environ 1 fm avec une force d'environ 25'000 N. Les particules beaucoup plus proches qu'une distance de 0.8 fm subissent une force répulsive importante. Les particules séparées par une distance supérieure à 1 fm sont soumises à une force attractive jusque vers 2.5 fm28. 4.4.1.2 Interaction électromagnétique L'interaction ou force électromagnétique est environ 100 fois moins intense que la force nucléaire à la distance de 1 fm. Elle est responsable de la plupart des phénomènes quotidiens (lumière, rayons X, électricité, chimie, etc.) et agit sur toutes les particules dotées d'une charge électrique. Comme on le verra plus en détails au chapitre 16, la force électromagnétique ressentie par une particule de    charge électrique q se déplaçant à vitesse v dépend du champ électrique E et du champ magnétique B :     FEM  q  E  v  B . Si le champ électrique est issu d'une charge q2 statique et que la vitesse de la charge q1 ou le champ magnétique sont négligeables, la force exercée sur q1 se résume à la force de Coulomb :  1 q1q2  F Coulomb  ur , 4π 0 r 2 27 Référence : http://irfu.cea.fr/dacm/Phocea/Vie_des_labos/Ast/ast.php?t=fait_marquant&id_ast=3822 28 Référence : https://en.wikipedia.org/wiki/Nuclear_force#/media/File:ReidForce2.jpg BM1.1 ‐ Physique générale Page 42 version du 06.09.2024  où r est la distance séparant les deux charges et u r le vecteur unité indiquant la direction entre les deux charges. Elle est attractive entre deux charges de signes opposés et répulsive entre deux charges de mêmes signes. La Figure 17 présente l'amplitude de la force de Coulomb entre un proton et un électron, en fonction de la distance à l'échelle d'un noyau atomique. La portée de la force de Coulomb est infinie (1/r2), mais en pratique, le nombre de charges positives et négatives tend à s'équilibrer pour les distances de l'ordre de quelques mètres, et la force résultante devient souvent négligeable29. Ce phénomène est connu sous le nom "d'écrantage". Figure 17 : Force coulombienne attractive entre un proton et un électron en fonction de la distance. 4.4.1.3 Interaction faible Contrairement à l'interaction forte qui lie les quarks dans les protons, l'interaction nucléaire qui lie les nucléons dans le noyau, l'interaction électromagnétique qui lie les électrons au noyau dans l'atome, ou l'interaction gravitationnelle qui lie les planètes aux étoiles, l'interaction faible ne produit aucun état lié connu entre particules. L'interaction faible est environ 100'000 fois moins intense que l'interaction forte ; d'où son nom. Bien qu'on utilise couramment le terme de force faible, l'interaction faible devrait davantage être vue comme un "pouvoir" : celui transformer une particule en une autre, comme dans la radioactivité bêta (voir chapitre 8) ou dans la fusion nucléaire (comme au centre du Soleil). Elle agit sur toutes les particules de matière, qu'elles soient composées de quarks ou de leptons. Sa portée est extrêmement petite : environ 0.01 fm. Comme tous les membres de la classe des leptons, le neutrino est sensible à l'interaction faible, mais pas à la forte. De plus, comme il n'a pas de charge électrique, le neutrino n'est pas sensible à l'interaction électromagnétique. L'interaction entre le neutrino et la matière est par conséquent extrêmement faible, puisqu’il n'interagit que s’il frappe "directement" une particule de matière. On estime que son parcours moyen sans interaction dans l'eau est de l'ordre de plusieurs milliers d'années‐lumière. Le neutrino est la particule connue la plus abondante dans l'Univers. Chaque seconde, chaque cm2 de notre corps est traversé sans interaction par plusieurs centaines de milliards de neutrinos. 4.4.1.4 Interaction ou force gravitationnelle selon Newton L'interaction gravitationnelle concerne les corps dotés de masse. Pour deux objets de masses m1 et m2 séparés d'une distance r, la force gravitationnelle, telle que définie par la "théorie universelle de la gravitation" d'Isaac Newton au XVIIème siècle, s'exprime de manière similaire à la force de Coulomb, et suppose implicitement que la force se propage instantanément, quelle que soit la distance :  mm  F G  G 1 2 2 ur. r 29 Un contre‐exemple notoire est celui des orages dans lesquels une différence de charge importante entre le sol et les nuages (ou bien souvent entre les nuages) produit des éclairs. BM1.1 ‐ Physique générale Page 43 version du 06.09.2024 Si l'on applique cette relation à l'échelle du noyau, on constate que la force gravitationnelle est ridiculement plus faible que les autres : environ 1038 fois moins intense que la force forte. Mais il faut reconnaître qu'à l'heure actuelle, nous n'avons pas pu la mesurer avec suffisamment de précision pour être sûr de sa validité à l'échelle atomique30. A plus grande échelle, on a vérifié que la force gravitationnelle de Newton décrit la plupart des phénomènes observés avec une remarquable précision. C'est elle qui permet d'envoyer des satellites en orbite ou des hommes sur la Lune. Cette formulation ne parvient cependant pas à décrire avec précision le mouvement des corps de grandes masses, comme les trous noirs ou même celui la planète la plus proche du Soleil : Mercure. C'est en particulier pour expliquer l'orbite de Mercure qu'Albert Einstein a développé sa théorie de la relativité. 4.4.1.5 L'interaction gravitationnelle n'est pas une force selon Albert Einstein La théorie de la relativité restreinte (développée en 1905) n'est pas une théorie de la gravitation, mais elle en constitue une étape importante. Elle postule que les lois de la physique ont la même forme, et que la vitesse de la lumière dans le vide a la même valeur dans tous les référentiels inertiels (voir chapitre 12). Cette théorie a remis fondamentalement en cause notre compréhension du temps et de l'énergie. Elle prédit par exemple que le temps s'écoule plus lentement pour un objet en mouvement que pour un objet au repos. (a) (b) Figure 18 : (a) Sur Terre, la trajectoire la plus courte entre deux localités est une "ligne droite généralisée" sur une surface, appelée géodésique. (b) Dans un espace‐temps déformé par la présence de la masse de la Terre, la Lune suit également une géodésique. Dis ans plus tard (en 1915), Einstein propose la théorie de la relativité générale qui englobe et supplante la théorie universelle de la gravitation de Newton. Dans cette théorie, la gravitation n'est plus une force, mais la manifestation de la courbure de l'espace‐temps, courbure elle‐même produite par la distribution de la masse dans l'Univers31. Dans cette description, un objet laissé à lui‐même adopte une trajectoire en "ligne droite généralisée" appelée géodésique. De plus, le fait que le temps soit irrémédiablement lié à l'espace implique que le temps avance plus lentement dans les régions les plus courbées de l'espace‐temps. La Figure 18 aide à comprendre la notion de géodésique sur une surface courbe et la plus grande courbure de l'espace‐temps à proximité d'un objet massif. Cette théorie relativiste de la gravitation prédit des effets absents de la théorie newtonienne mais vérifiés, comme l'expansion de l'Univers, les ondes gravitationnelles et les trous noirs. Elle permet en particulier de faire fonctionner les systèmes de positionnement par satellites (GNSS32). En effet, les GNSS requiert des horloges dont la précision soit de l'ordre de 20‐30 ns. Sans prendre en compte la théorie d'Einstein, et le fait que l'écoulement du temps n'est pas le même en orbite ou sur Terre, la localisation serait fausse de 10 km en 30 Ceux qui souhaite en savoir davantage peuvent consulter la chaîne YouTube MinutePhysics : https://youtu.be/OTMELHUAzSM 31 Pour une explication intuitive de l'émergence de la force gravitationnelle simplement en observant que le temps s'écoule plus lentement à proximité d'un corps massif, vous pouvez consulter la chaîne YouTube Science Asylum : https://youtu.be/F5PfjsPdBzg 32 GNSS pour Global Navigation Satellite System en anglais. Il existe actuellement quatre systèmes : américain (GPS), européen (Galileo), russe (GLONASS) et chinois (BeiDou). BM1.1 ‐ Physique générale Page 44

Use Quizgecko on...
Browser
Browser