Vous ne pouvez pas interpréter les résultats d’un test sans connaître la probabilité de pré-test.
Je suis sûr que nous avons tous entendu la même conférence sur les tests de dépistage. Je suis sûr que nous avons tous été surpris par les chiffres étranges qui résultent de l’application de tests apparemment excellents dans des populations à faible risque. Je suis sûr que nous savons tous que nous ne devrions pas utiliser de tests de grossesse sur les hommes.
Mais ces exemples de classe sont trop facilement oubliés lors de quarts de travail d’urgence occupés. Nous commandons des centaines de tests toutes les heures (si vous considérez chaque test de laboratoire séparément), et nous n’avons tout simplement pas le temps de lutter avec la formule de Bayes à chaque test.
La plupart du temps, nous nous en sortons. Le calcul fonctionne sans être reconnu, ou nous ignorons les résultats des tests (tels que le nombre erroné de globules blancs) sans reconnaître formellement l’explication bayésienne pour qu’ils soient erronés. Mais parfois, nous nous trompons incroyablement. Parfois, cela fait mal à nos patients.
Il est donc important de le rappeler: vous ne pouvez pas interpréter les résultats des tests sans connaître la probabilité de pré-test.
Un exemple: Tests de dépistage
Les résultats les plus surprenants de ce principal proviennent du dépistage. J’utiliserai un exemple théorique tiré de l’excellent manuel « Erreurs cognitives et Erreurs de diagnostic » de Jonathan Howard: (Howard 2019)
Imaginez un nouveau scanner qui ne rate jamais un cas de cancer du sein (est sensible à 100%), mais se traduit par une lecture faussement positive chez 5% des femmes en bonne santé (est spécifique à 95%). C’est un test fantastique – plus précis que la plupart des tests que nous utilisons. Nous aimerions l’utiliser pour détecter précocement le cancer du sein, dans le cadre d’un protocole de dépistage. Chez les femmes de moins de 50 ans, le taux de cancer du sein est de 1 sur 1 000. Si Robin, une femme de 45 ans, a un test positif, quelle est la probabilité qu’elle ait un cancer? (Testez-vous – faites une supposition maintenant).
On dirait que Robin a un risque assez élevé de cancer. Après tout, un test très précis indique qu’elle a un cancer. Mais faisons le calcul. Dans un échantillon de 1 000 femmes, nous nous attendons à ce que 1 soit atteinte d’un cancer. Le SCANNER est parfait et identifie la seule femme atteinte d’un cancer. Cependant, le taux de faux positifs de 5% signifie que sur ce groupe de mille femmes, 50 recevront des résultats faux positifs. Il y a 51 tests positifs et seulement 1 cas vrai de cancer. Par conséquent, la chance de Robin d’avoir un cancer, malgré le SCANNER positif, est de 1/51, soit environ 2%.
Un résultat positif sur un test très précis, et il n’y a encore que 2% de chances que le patient ait la maladie?!
Les résultats des tests, en particulier ceux des tests de haute technologie tels que les CTs et les IRM, sont trop souvent considérés comme parfaits. Nous acceptons simplement les résultats comme « le diagnostic », mais le cas de Robin est un excellent rappel de la faillibilité de nos tests. Même si le CT était spécifique à 99%, la probabilité après le test ne serait toujours que de 10%. C’est surprenant. Nous ne nous attendons pas à ce que les tests précis soient erronés plus souvent qu’ils ne le sont.
Vous pourriez dire que 1 sur 1 000 est une probabilité de pré-test très faible. En médecine d’urgence, nous prenons en charge des patients symptomatiques dont l’incidence initiale de la maladie est plus élevée. (Malheureusement, si vous considérez notre utilisation de tests de résistance, je pense que vous trouverez cette hypothèse incorrecte.) Pour cette raison, je pense que l’exemple de suivi est encore plus intéressant. Supposons que nous appliquions le même SCANNER à une femme de 70 ans, qui a une probabilité de pré-test de 10% de maladie. Dans un groupe de 1 000 patientes, maintenant 100 patientes auront un cancer du sein et la tomodensitométrie les identifiera toutes. Sur les 900 femmes en bonne santé, 45 auront des STC positives. Les résultats sont donc bien meilleurs. Si vous avez un SCANNER positif, vous avez 69% (100/145) de chances d’avoir un cancer. Cependant, même dans un scénario avec une probabilité de pré-test modérée et un test très précis (bien meilleur que la plupart des tests que nous utilisons en médecine d’urgence), il y a toujours 30% de chances qu’il s’agisse d’un faux positif!
Comment cela s’applique-t-il à la médecine d’urgence?
Les tests doivent être interprétés (ou mieux encore ordonnés) après examen de la probabilité de pré-test.
J’entends fréquemment des histoires de « grandes prises ». Des médecins qui ont commandé un CTPA, bien que le patient présente un faible risque de PE et de PERC négatifs. Bas et voici, le SCANNER est positif. Le médecin se vante largement de cette grande sauvegarde. Les résidents apprennent la faillibilité de la règle PERC, et finalement plus de CTS sont ordonnés.
Vous pouvez probablement voir où cela va. Faisons ce calcul. Une fois qu’un patient approprié est exclu par le score PERC, il a environ 1,4% de chances d’EP. (Kline 2004) Une angiographie pulmonaire par tomodensitométrie est un très bon test, bien que j’ai déjà discuté de données démontrant que les radiologues sont souvent en désaccord sur la lecture finale. (Miller 2015) Les meilleures données que nous ayons proviennent probablement de l’étude PIOPED II, qui a révélé qu’un CTPA a une sensibilité de 83% et une spécificité de 96% par rapport à l’angiographie pulmonaire traditionnelle. (Stein 2006) La technologie CT a changé depuis l’étude PIOPED, et donc la sensibilité est presque certainement meilleure (mais j’ai eu beaucoup de mal à trouver une estimation moderne). Pour les besoins de nos calculs, je suppose simplement une sensibilité de 95%.
Ainsi, pour 1000 patients PERC négatifs à faible risque vus à l’URGENCE, il y aura 14 SPe. La tomodensitométrie attrapera 13 de ces 14 patients. Pour les 986 patients restants, la tomodensitométrie sera faussement positive dans 39 cas. Par conséquent, la tomodensitométrie sera positive chez 52 patients au total, mais seuls 13 de ces patients (25%) ont réellement un PE.
Ainsi, lorsqu’un collègue se vante de trouver une EP chez un patient à faible risque et PERC négatif, il y a 75% de chances qu’il se trompe. Il y a 75% de chances que le patient ait reçu une anticoagulantion inutile. Il y a 75% de chances que, bien que le SCANNER soit un faux positif, la patiente se précipite au service des urgences pour toute douleur thoracique, essoufflement ou essoufflement pour le reste de sa vie, obtenant beaucoup plus de tests (et potentiellement plus de faux positifs). En d’autres termes, il y a 75% de chances que nous blessions ce patient.
Vous ne pouvez pas interpréter les résultats d’un test sans connaître la probabilité de pré-test.
Ceci est vrai pour tous nos tests. Que vous commandiez un scanner, une numération formule sanguine, une radiographie ou un ECG. Vous ne pouvez pas interpréter les résultats d’un test sans connaître la probabilité de pré-test. Essayer de le faire nuira à vos patients.
Howard, J. (2018). Erreurs Cognitives et Erreurs de Diagnostic. : Éditions Springer International.
Kline JA, Mitchell AM, Kabrhel C, Richman PB, Courtney DM. Critères cliniques pour prévenir les tests de diagnostic inutiles chez les patients du service d’urgence présentant une suspicion d’embolie pulmonaire. Journal de la thrombose et de l’hémostase: JTH. 2004; 2(8):1247-55.
Miller WT, Marinari LA, Barbosa E, et al. Les Petits Défauts de l’artère pulmonaire Ne Sont Pas des Indicateurs Fiables d’Embolie pulmonaire. Ann Am Thorac Soc. 2015. PMID: 25961445
Stein PD, Fowler SE, Goodman LR, et al. Tomodensitométrie multidétectrice pour l’embolie pulmonaire aiguë. Le journal de médecine de la Nouvelle-Angleterre. 2006; 354(22):2317-27.
Photo de Crissy Jarvis sur Unsplash