L'humain reste supérieur à l'IA pour le diagnostic médical, selon une étude
Diagnostic médical : l'humain reste supérieur à l'IA

L'humain reste supérieur à l'intelligence artificielle pour le diagnostic médical

Malgré les avancées technologiques, l'humain conserve une place essentielle dans le domaine médical, particulièrement pour établir des diagnostics. Une étude publiée lundi dans la prestigieuse revue Nature Medicine met en lumière les limites des outils d'intelligence artificielle dans ce domaine crucial.

Les IA ne surpassent pas les médecins

Plutôt que de se fier à des services comme ChatGPT ou d'autres modèles d'IA pour interpréter des symptômes, les patients devraient continuer à consulter leur médecin. La recherche démontre que ces outils numériques ne sont pas efficaces pour poser un diagnostic précis.

L'étude, menée auprès de 1.300 volontaires au Royaume-Uni, a testé plusieurs modèles d'intelligence artificielle populaires, dont ChatGPT, Llama de Meta et Command R+. Les résultats sont sans appel : ces systèmes ne font pas mieux qu'une simple recherche en ligne lorsqu'un patient tente de comprendre ses symptômes.

« Il y a un emballement autour des IA, mais elles ne sont tout simplement pas prêtes à remplacer un médecin », affirme Rebecca Payne, chercheuse à l'Université d'Oxford et co-autrice de l'étude, dans un communiqué officiel.

Seulement un tiers de diagnostics corrects

La méthodologie de l'étude était rigoureuse : les participants, qui n'étaient pas réellement malades, ont pris part à un jeu de rôle médical. Les chercheurs leur ont présenté dix ensembles différents de symptômes, chacun faisant consensus dans la communauté médicale quant au diagnostic approprié.

Les résultats sont éloquents : seulement un tiers des participants utilisant l'intelligence artificielle ont obtenu un diagnostic correct. Ce taux de réussite est identique à celui d'un groupe témoin qui devait se contenter d'une recherche classique sur Internet, sans l'aide de l'IA.

La différence entre théorie et pratique

Cette conclusion contraste avec certaines études précédentes qui avaient montré que ChatGPT et d'autres modèles pouvaient réussir des épreuves médicales théoriques. Ces systèmes excellaient notamment face à des questions à choix multiples, similaires à celles rencontrées par les étudiants en médecine.

Cependant, la situation change radicalement lorsqu'il s'agit d'interagir avec de vraies personnes et de traiter des cas cliniques complexes. L'intelligence artificielle montre alors ses limites face à l'expertise humaine et à la capacité des médecins à analyser des situations médicales dans leur globalité.

Cette recherche souligne l'importance de maintenir le rôle central des professionnels de santé dans le processus diagnostique, même à l'ère du numérique.