Méthodologie d'Analyse des Traces - Cours 7 PDF

Summary

Ce document présente un aperçu de la méthodologie de l'analyse des traces, des étapes de la décision dans une enquête criminelle, et des facteurs qui influencent l'analyse. Il couvre les méthodes scientifiques et d'autres concepts clés comme l'extraction d'échantillons, la pertinence des données et l'analyse comparée de différentes traces et indices.

Full Transcript

## 31.10.2024 Cours 7 Méthodologie ### 1. L'analyse - Analyse de la trace - L'analyse est la première étape du processus ACE-V (analyse, comparaison et vérification) - but est de comparer traces avec éléments de référence. - Elle peut être décrite au sens large de l’analyse : sur les lieux (dét...

## 31.10.2024 Cours 7 Méthodologie ### 1. L'analyse - Analyse de la trace - L'analyse est la première étape du processus ACE-V (analyse, comparaison et vérification) - but est de comparer traces avec éléments de référence. - Elle peut être décrite au sens large de l’analyse : sur les lieux (détection, positionnement, collecte), en laboratoire (décision d’analyser, méthodes utilisées (critères) et de l’exploitation du résultat (à des fins d’identification, pour établir des liens, pour reconstruire ce qui s’est passé). - La phase d’analyse commence sur les lieux lorsque l’on cherche à détecter la trace pertinente. - Dans un premier temps on « analyse » la scène de crime, puis les traces visibles ou révélées. - Ainsi la phase de détection peut être considérée comme une étape de la phase d’analyse. - **ATTENTION** l'analyse et l'extraction se fait déjà sur les lieux. - Exemple d’analyse de traces de semelle : positions sur les lieux, nombres, cheminement, exploitabilité, dessin général, taille, → evaluation du potentiel informatif. ### 2. Etapes de décision - Une fois un crime commis, plusieurs étapes dans l’investigation (scientifique) d’un crime nécessitent une prise de décision (a lieu tout au long du processus) : - **Faits reportés** : une fois un crime/délit commis, la victime décide ou non de le signaler. - Le nombre de délits non reportés peut être plus important pour certains types de délits. - **ATTENTION** le chiffre noir dans le domaine numérique est énorme. - **Lieux investigués** : lorsqu’un délit est reporté à la police, il faut ensuite décider ou non d’intervenir sur les lieux. - Plusieurs critères influencent ce choix (gravité, appartenance à une série, possibilité de trouver des traces, distance à parcourir, ressources à disposition). - **Recherche et prélèvement de traces** : une fois sur les lieux, l’investigateur scientifique décide ou non de rechercher puis prélever des traces (affinité des matières, persistance, type de cas, qualité des traces révélées, exploitabilité). - Parfois aucune trace pertinente n’est détectée. - Si un aca à lieu loin de notre zone mais que l’on pense qu’il y a un rapport avec notre cas (possible activité sériel) on y va. - **Analyse de traces** : certaines traces, telles que les traces de semelle (dont le dessin général est visible), seront automatiquement analysées car le processus commence sur les lieux. - Le niveau de détail de l'analyse dépendra de différents facteurs (utilité de la trace, disponibilité d’empreintes pour comparaison). - Pour les traces ADN (en particulier les traces latentes), le processus est plus complexe et d’autres critères jouent un rôle (notamment le coût, les prévisions quant aux chances d’obtenir un profil exploitable et le fait d’avoir obtenu un résultat ou non sur une trace jugée plus utile). - Il y a donc des analyses en labo et sur le terrain. - **Résultat obtenu** : il est possible qu’aucun résultat ne soit obtenu, lorsque l’on révèle des traces papillaires sur une pièce en laboratoire ou que l’on analyse un spécimen ADN. - Cela peut être parce qu’il n’y avait pas de trace, parce que celles-ci sont de mauvaise qualité (inexploitables) ou parce que le profil extrait n’est pas pertinent (contamination). - **Utilisation** : les concepts de pertinence et d’utilité guident le choix d’utiliser ou non l’information véhiculée par la trace analysée. - L’utilité dépendra des objectifs visés (investigation, jugement, action de sécurité) et du cas spécifique. - Une trace jugée inutile dans un cas de gravité mineure (par ex un vol) pourrait être jugée utile dans un cas grave (par ex un attentat). - **Exemple ADN (les chiffres indiqués sur la figure sont indicatifs)** : A chaque étape, le nombre de cas (reportés, investigués, pour lesquels des traces sont collectées, analysées ) diminue. - On estime ainsi à environ 1-2% le nombre de cas dans lesquels des indices forensiques sont utilisés dans un jugement ou mèneraient réellement à une condamnation. - Les constats sont les suivants : La pertinence et l’utilité d’une trace ne se reconnaissent pas uniquement sur les lieux mais évoluent à chaque étape (jusqu’à l’utilisation effective de l’information extraite). - Les traces (et donc la science forensique) sont généralement moins utilisées dans la phase finale d’une procédure judiciaire (jugement) que dans la phase initiale (investigation). - Les traces ont aussi un rôle particulièrement important et souvent sous-estimé dans l’action de sécurité (renseignement forensique). - **ANALYSE DES TRACES** - La décision d’analyser dépend du type de trace. - Ainsi, les traces de semelles et autres traces perceptibles sont quasiment toutes analysées (96 à 100%). - Ce qui n’est pas le cas pour l’ADN, car l’investigateur doit décider ou non d’envoyer le prélèvement au laboratoire pour analyse (60 à 73%). - On collecte beaucoup plus de traces qu’on en utilise quel que soit le type de traces. - 2 à 24% des traces collectées sont utilisées pour établir un lien ou à des fins d'identification (ID). ### 3. Décision d’analyser - **Facteurs qui influencent la décision d’analyser ou non une trace collectée sont les suivants.** - Si il n’y avait pas encore de profils exploitables (pas d’identification préalable), les informations de police (enquête) étaient importantes pour prendre une décision. - Si il n’y avait pas d’informations de police, le type de trace était important. - On a alors analysé surtout les traces de contacts (hypothèse que celles-ci appartenaient au suspect plutôt qu’à la victime). - Ceci va à l’encontre des directives, qui préconisent généralement l’analyse des traces dites « riches » en priorité (par ex. des fluides biologiques). - Ces directives sont fixées en tenant compte principalement des considérations analytiques (un fluide biologique permet d’obtenir un profil exploitable) plutôt que forensiques (un fluide biologique n’est généralement pas utile s’il appartient à la victime). - Lorsqu’un procureur était en charge de l’affaire (en général pour les affaires plus graves), un plus grand nombre de traces étaient alors analysées - La disponibilité des informations de police et la gravité du cas ont également influencé l'analyse. - Pour les cas de faible gravité pour lesquels des informations de police étaient disponibles, peu de traces ont été analysées. - Si un cas n’était pas violent, la disponibilité d’images vidéo a également jouer un rôle (il est possible d’observer ce qui a ou non été touché durant l’activité). - Il faut relever que ces données ont été collectées pour un service de police et que des groupes d’inspecteurs différents n’utilisent pas forcément les mêmes critères. - Le contexte particulier d’un cas peut aussi influencer la décision d’analyser. - Les résultats de cette étude montrent qu’il est difficile d’établir des directives universelles pour décider quelles traces doivent être analysées dans un cas particulier. - Ainsi, le processus de décision en science forensique est complexe, multifactoriel et généralement spécifique à une situation particulière (cas investigué). - En conclusion, une trace dite “riche” est une trace qui contient une certaine quantité d’ADN, pour laquelle on estime avoir une meilleure chance d’obtenir un profil exploitable. Cela ne signifie pas que le profil obtenu est utile (puisqu’il peut appartenir à la victime du brigandage). - Ainsi, les chances de succès de l’analyse ne peuvent à elles seules déterminer quelles traces doivent être analysées. - Les concepts de pertinence et utilité doivent être utilisés pour guider les décisions dans un contexte particulier. - Une variété de facteurs influence le processus de décision en science forensique, notamment la décision d’analyser. - Ces facteurs proviennent de toutes les dimensions de connaissances y compris l’utilité de la trace. - La décision dépend du contexte et est généralement spécifique au cas investigué. - Les directives managériales, notamment sur le type de trace à prioriser, ne sont pas toujours pertinentes. ### 4. Méthode scientifique - Une fois détectée, la trace fait l’objet de mesures, classifications, comparaisons, intégration dans des banques de données structurées, interprétations… - La démarche scientifique est un processus, pas une vérité! - Elle fait appel aux raisonnements développés à partir de résultats contrôlés (notamment les inférences discutées précédemment). - L’outil et le raisonnement scientifique sont à la base de la science forensique. - Il ne faut pas oublier que les connaissances scientifiques évoluent (caractère dynamique des sciences). - Dans le processus de production des connaissances scientifiques, il est important de différencier une hypothèse d’un fait scientifique. - La science forensique est ensemble de connaissances obéissant à des lois et/ou vérifiées par l’expérimentation. - Dissémination et test des connaissances→publication→collaboration→reproduction. - Difficultés du cas particulier. - Il y a tellement de situations différentes en science forensique (cas singuliers) qu’il est important de partager l’information (par exemple sur la fréquence d’apparition de différents types de fibres) et de disséminer et harmoniser les méthodes utilisées (notamment en les reproduisant dans un autre laboratoire). ### 4.1 Qui ? - Très grande diversité de formation Dans de nombreux pays, les techniciens spécialistes de scène de crime sont des policiers, qui suivent une formation essentiellement technique de courte durée. - Par exemple, - SOCO (en Grande-Bretagne): scene of crime officer- TIC (en France): technicien en identification criminelle. - En Suisse, certains investigateurs de scène de crime viennent de l’ESC et sont donc des scientifiques (bien qu’une formation de police puisse encore leur être demandée). - Des inspecteurs de police travaillent également dans les services forensiques après une courte formation spécifique à la police scientifique. - On cherche généralement à former des équipes ayant suivi diverses formations pour assurer une expertise large. - Il existe plusieurs labo différents. - Laboratoires de police→Bonne parti des analyses. - Laboratoires spécialisés privés (stupéfiants, ADN, ...) Laboratoires spécialisés publics, Universités (cas particuliers, services de routine, ADN, médecine légale...). - Experts ou spécialistes indépendants (expertise en document, environnement...) ### 4.2 Objectifs de l'analyse - Le comprimé contient-il une substance illicite ? - Analyse qualitative - cadre légal. - Quelle quantité de substance illicite contient le comprimé ? - Analyse quantitative - gravité du cas. - Où, comment, par qui a été fabriqué le comprimé (ou la substance active)? - Profilage - liens entre cas, criminalité organisée (trafic). - Préciser les questions permet d’orienter l’analyse sur les caractéristiques pertinentes (dans le cas particulier). - Toutes les questions posées dans le sondage sont potentiellement pertinentes, certaines sont plus fréquemment posées et/ou plus faciles à répondre. ### 4.3 Les types de mesures - Les mesures qualitatives(couleur, logo, présence MDMA). - Les mesures quantitatives(poids, diamètre, quantité MDMA). - Les mesures semi-quantitatives(% MDMA, % autres composés). - Les mesures peuvent être basées sur des analyses optiques (aspect, couleur, composition), physiques (dimensions, poids) ou chimiques (composition chimique, quantité). - On applique généralement des méthodes non destructives (par ex. analyses optiques) avant d’implémenter des méthodes destructives (par ex. analyses chimiques). - Certaines méthodes optiques permettent de qualifier et quantifier les composants (par ex. la spectroscopie à infrarouge proche). - Elles sont privilégiées si elles sont suffisamment fiables. ### 4.4 Quoi ? - Il faut formulation d’hypothèses à tester (questions):La tablette contient une ou plusieurs substance(s) illicite(s) ? - La tablette contient un stupéfiant de type amphétaminique? - Il faut aussi tests des hypothèses. - Choix des outils (instruments) pour l’analyse de la composition: tests indicatifs, spectroscopie, méthode de séparation analytique, spectrométrie de masse, ... - Quelle est la composition de la tablette (question ouverte) à laquelle il est parfois difficile de répondre. - On peut donc formuler des hypothèses que l’on va ensuite tester par des analyses ciblées. - De nombreux outils (techniques) sont à disposition des scientifiques forensiques, il s’agit donc de choisir ceux qui sont adaptés à nos besoins (ceux qui permettent de répondre à nos objectifs de manière efficiente). - Il faut faire attention à ne pas déployer des efforts ou des ressources disproportionnés pour résoudre un problème relativement mineur. - Il y a une tendance à penser que la technologie peut résoudre tous les problèmes, alors qu’elle ne considère souvent pas la notion de « trace », le cas spécifique, pour lequel l’information de base (INPUT) est souvent déjà fragmentaire, non-contrôlée et incertaine. - Il ne faut pas se impressionner par les (nouvelles) technologies, se poser les bonnes questions, et choisir la méthode la plus efficiente qu’elle soit novatrice ou « démodée ». ### 4.5 Pourquoi ? - Les outils (techniques) ne doivent pas être appliqués au hasard. - Il faut une transparence et objectivité dans les choix opérés, une capacité à mesurer avec fiabilité et une utilité, complémentarité. - Ce sont des critères de sélection (selon la définition du problème à résoudre). - Attention à la surenchère! - Ce ne sont pas toujours les méthodes les plus chères et les plus compliquées qui donnent les meilleurs résultats. - L’art de l’expert ne dépend pas non plus de la multiplicité de ses instruments, mais de la qualité de son analyse. - Il s’agit donc de choisir les méthodes les plus adaptées et efficientes pour résoudre les problèmes qui nous ont été soumis. ### 4.6 Efficacité vs Efficience - L’efficacité se mesure sous la forme d’un rapport entre les résultats obtenus et les objectifs fixés → doing the right thing. - L’efficience se mesure sous la forme d’un rapport entre les résultats obtenus et les ressources utilisées → doing things right. - L’objectif est de « bien faire les bonnes tâches ». - Trop souvent, on se focalise sur la performance des méthodes (efficience), sans se demander si elles permettent d’atteindre les objectifs fixés (efficacité). - Les deux aspects sont bien entendu importants dans la pratique. ### 4.7 Critère de sélection des méthodes - Du général au particulier et du non destructif au destructif. - Les méthodes optiques sont privilégiées en premier lieu, car elles sont en général moins intrusives. - Elles respectent la nécessité de pouvoir effectuer une contre-expertise, de répliquer les mesures, de rechercher d’autres traces sur un même objet, etc… ### 4.7.1 La sensibilité - Capacité d’une méthode à détecter de faibles quantités. - On distingue notamment les notions de: Limite de détection (LOD), limite de quantification (LOQ) et intervalle de quantification. - **Limite de détection (LOD)** : quantité de produit la plus petite qui peut être détectée. - **Limite de quantification (LOQ)** : quantité de produit la plus petite qui peut être mesurée de manière reproductible. - **Intervalle de quantification (parfois aussi appelé « domaine de linéarité »)**: intervalle de quantités qui peuvent être mesurées de manière reproductible. - Certains ordres de grandeur sont perceptibles à l’œil nu, alors que d’autres nécessites des outils (par exemple une loupe, un microscope). - Plus on peut mesurer de petites quantités (par ex. 1 cellule ADN), plus le risque de présence fortuite (bruit de fonds) augmente. - L’incertitude (variabilité) et le bruit de fond sont inversement proportionnels à la quantité mesurée. - Les limites de détection sont en chute libre. - Selon la théorie de la trompette d’Horwitz plus la concentration diminue plus l’incertitude(bruit de fonds) augmente ce qui provoque des erreurs importantes. - Plus les limites de détection baissent, plus les précautions pour limiter les pollutions deviennent contraignantes. - Il faut également considérer les risques en lien avec l’ADN présent dans le bruit de fond (transfert primaire légitime ayant persisté ou transfert secondaire). - Le risque de contamination (par exemple de la trace ADN) doit donc être systématiquement considéré lors de l’analyse. - **Analyse d'un produit (par ex. un stupéfiant) par chromatographie en phase gazeuse couplée à un spectre de masse (GC/MS).** - L'axe x représente le temps d'analyse (le produit ciblé est analysé à environ 4,65 minutes) et l'axe y l'intensité du pic (qui est d'environ 5'000'000 pour cet instrument). - On mesure la LOD en général par rapport au bruit de fond. - On considère qu'un produit est détecté si le signal associé à celui-ci est suffisamment au dessus du bruit de fond mesuré, c'est-à-dire qu'il se situe au-dessus du seuil fixé par la LOD. - Le produit ciblé est bien détecté dans ce cas, puisque son pic se distingue très bien du bruit de fonds. ### 4.7.2 Intervalle de quantification - Les unités on leur a importance. - On ne peut pas mesurer n'importe quoi avec n'importe quelle balance. - Il est difficile de quantifié de manière reproductible quelque chose avec 2 instruments différent. - La limite de quantification est l'intervalle le plus bas de quantification. - On doit calibré les instrument à la calibration voulu. - Il faut faire plusieurs peser pour vérifier. - **L'exactitude des instruments est régulièrement contrôlée ou calibrée lors de leur utilisation.** - **Exemple avec la calibration des instruments : analyse d'un produit (contrôle positif) par chromatographie en phase gazeuse couplée à un spectre de masse (GC/MS).** - On analyse des quantités connues du produit et on mesure l'aire des pics obtenus. - Cela permet d'établir une courbe de calibration. - Les points représentent les résultats y (aire des pics) obtenus pour chaque mesure d’une quantité connue (dans l’exemple: 1, 5, 10 et 15 microgrammes). - Lorsqu’on analyse un produit dont la quantité est inconnue, on peut utiliser cette courbe pour extrapoler sa quantité (dans l’intervalle de quantification calibré). - Ainsi, si on obtient une aire de 5'000'000 (valeur y), la quantité du produit mesuré est de 5,97 µg. - Les résultats sont régulièrement contrôlés à l’aide de contrôles positifs (par ex. la mesure d’un étalon). - Si l’instrument ne donne pas la bonne réponse, on le recalibre en mesurant des quantités de produits contrôlées. ### 5. Notion forensique - La sensibilité est liée aux notions de pertinence, bruit de fonds et fiabilité. - La pertinence et le bruit de fonds sont liés aux principes 5 et 7 de la déclaration de Sydney (incertitudes et contexte). - Des limites de détection faibles mènent à détecter des traces plus fragmentaires / mélangées, mesurer plus de bruit de fonds et une confusion des traces. - Le bruit de fonds peut être mesurée (voir partie théorique sur les contrôles). ### 6. La fiabilité (du bruit de fonds) - Probabilité qu’une méthode fonctionne sans défaillance et délivre un résultat auquel on peut se fier (un résultat juste et précis). - La fiabilité se caractérise par la précision et l'exactitude. - Un résultat précis (reproductible) n’est pas nécessairement exact! - La précision est la qualité globale d’une mesure ou d’un instrument capable de donner à très peu près le même résultat lorsqu’on répète plusieurs fois la même mesure. - L’exactitude est la qualité d’un instrument de mesure qui donne les indications conformes à la grandeur mesurée. - L’erreur de mesure (liée à la précision et l’exactitude) d’une méthode contribue à l’intra variabilité du résultat obtenu pour la mesure d’un spécimen. - La fiabilité est liée au principe 5 de la déclaration de Sydney (incertitudes). - L'erreur de mesure (instrumentale) ne doit pas être confondue avec la variabilité des spécimens provenant de la même source (intra-variabilité). ### 7. La précision - Capacité d’une méthode à reproduire (à peu près) - Les mêmes résultats pour des échantillons identiques (à l’intérieur de marges d’erreurs). - La reproductibilité signifie que jour après jour, dans les mains d’expérimentateurs différents, avec des instruments différents dans des laboratoires différents on obtient le même résultat. - C’est plus difficile à traiter mais c’est la meilleur méthode. - La reproductibilité (caractère de ce qui peut être reproduit) est la qualité d’une mesure qui donne les memes résultats si on la répète dans des conditions différentes et à des époques différentes. - La répétabilité corresponds à faire la même expérience aux même jour, même opérateur, même instrument et en obtenant le même résultat.(c’est plus facile). - La répétabilité est la qualité d’une mesure qui donne le même résultat si on la répète dans des conditions identiques et dans un court intervalle de temps. - La reproductibilité donne une indication de la robustesse de la méthode. - De petits changements (par exemple de la température ou de la personne qui manipule l’instrument) ne devraient pas provoquer de grosses variations dans les résultats obtenus. - Une méthode devrait idéalement être robuste et donner des résultats reproductibles, tout particulièrement quand des banques de données (parfois internationales) sont alimentées par les résultats obtenus (pour assurer la comparabilité des résultats). - L’écart-type (déviation standard) est une erreur de type indéterminée pouvant avoir plusieurs sources. - Elle peut être diminuée par des protocoles standardisées (ou en contrôlant les facteurs d’influence), mais pas entièrement éliminée. - Elle contribue à l’intra-variabilité d’un spécimen. - La courbe de Gauss est la courbe de la fonction de densité d’une loi de probabilité normale. - L’écart-type est une mesure de la variabilité des résultats. - L’intervalle +/- un écart-type (flèche rouge horizontale) correspond à 68,2% de la variance. ### 8. L'exactitude - Capacité d’une méthode à donner des résultats conformes à la valeur réelle du paramètre mesuré. - Une absence d’exactitude provient généralement d’erreurs déterminées (biais systématique). - L’exactitude d’une méthode peut être contrôlée ou calibrée à l’aide d’étalons ou de contrôles. - L’erreur de mesure due à un problème d’exactitude est une erreur de type déterminée. - Elle peut être corrigée en calibrant les instruments de mesures sur la valeur réelle (ici 26 mg). - La précision et l’exactitude ne sont pas dépendante l’une de l’autre. - C’est très important pour les banque de données. - Les erreurs de type déterminés peuvent être corrigées en calibrant la méthode, alors que les erreurs de type indéterminées ne peuvent qu'être diminuées. ### 9. Etalon - Produit de référence dont les propriétés sont certifiées(ex un poids), et sur la base duquel d’autres produits peuvent être comparés. - La certification est soit EMPA (Eidgenössische Materialprüfung und Forschungsanstalt ) soit NIST (National Institute of Standards and Technology - L’étalon est un objet ou instrument qui matérialise une unité de mesure et sert de référence pour l’étalonnage d’autres objets ou instruments. - Exemple: La mesure de temps est calibrée sur la base de l’horloge atomique (pulsation du césium). - L’étalon est une forme de contrôle positif. - **Exemple d'un standard NIST SRM2241 utilisé comme étalon pour calibrer les résultats obtenus avec un instrument RAMAN (laser 785nm)** - La réponse Raman théorique du standard (NIST SRM2241) pour une excitation avec un laser 785nm est connue (courbe rouge- droite). - Raman est une analyse spectroscopique avec signal laser. - Le spectre doit être le plus petit possible. Cette courbe théorique est comparée à la courbe effectivement obtenue sur l'échantillon standard (courbe bleue– à gauche), afin d'en calculer un facteur de correction (courbe verte- en bas) à appliquer aux spectres obtenus. - Pour cela, on multiplie les valeurs bleues par les valeurs vertes pour obtenir les valeurs rouges. - Par exemple: pour une longueur d'onde de 500 cm-1, on multiplie 25000 par 0,00001 et on obtient 0,2 (la valeur correcte pour cet étalon). - On peut ensuite corriger tous les spectres obtenus sur des échantillons. - La calibration est contrôlée régulièrement et l’instrument est recalibré si nécessaire. - **Exemple d'application (spectrométrie RAMAN)** - Analyse de peintures de voitures dans le but d’inférer la marque et le modèle de la voiture à partir d’un fragment de peinture. - Les lignes colorées représentent les résultats obtenus avec et sans correction (étalon). - Cela permet d’obtenir une valeur plus exacte et donc comparable entre différents laboratoires utilisant la spectrométrie RAMAN. - Les résultats obtenus alimentent une banque de donnée commune. - Des analyses statistiques permettent d’évaluer si les échantillons provenant de voitures de même marque et modèle donnent des résultats comparables. - Une classification (complete linkage clustering) est basée sur une mesure de la distance entre échantillons. - Des résultats proches donnent une faible distance relative (proche de zéro), alors que des résultats différents donnent une distance élevée (ici, une distance de 10 est obtenue entre les clusters vert et bleu). - Sans étalonnage, certains échantillons provenant de voitures Volvo et Fiat ne sont pas bien classées (l'intra-variabilité est plus élevée que l’inter-variabilité). - Avec l’étalonnage (SRM2241), les trois modèles de voitures sont bien différenciés (classés dans trois groupes différents rouge, bleu et vert). - Il serait donc possible d’inférer sur la marque et le modèle de voiture en analysant un morceau de peinture d’origine inconnue. - Attention, la démarche se complique lorsqu’il y a plus de peintures dans une banque de données, mais il est toujours possible de réduire le nombre de sources possibles. ### 10. Résumé - Le spécimen, qui peut être disponible en quantité infime, ne peut parfois être analysé qu’une seule fois. - Il est ainsi crucial de garantir la fiabilité d’une méthode avant que le spécimen ne soit lui-même analysé. - La précision n’est pas uniquement dépendante de votre méthode (elle dépend également de votre spécimen qui peut être fragmentaire). - L’exactitude (et la précision) sont très importantes dans l’utilisation de banques de données afin de s’assurer que les données sont comparables. - **Précision : reproductibilité connue** - Répétition d'analyses de contrôles - erreur de mesure (instrument) - Répétition d'analyses de spécimens - intra-variabilité (trace + erreur instrument) - **Exactitude : réduction des erreurs systématiques** - Analyses d'étalons ou de références partagées - Garantir la performance avant l'analyse du spécimen - Détecter et réduire le risque d'erreurs systématiques - Calibration et harmonisation - banques de données (comparabilité des résultats)

Use Quizgecko on...
Browser
Browser