L’étude a été menée par des chercheurs de l’École de médecine Icahn du Mont Sinaï et les résultats ont été publiés dans la revue scientifique Nature. Les chercheurs ont testé l’assistant virtuel d’OpenAI avec 60 scénarios cliniques complexes couvrant 21 branches différentes de la médecine.

Ces scénarios ne consistaient pas en de simples problèmes de santé, mais plutôt en des cas destinés à mesurer la capacité à distinguer des situations mettant la vie en danger.

Résultats : réussis dans certains cas, risqués dans d’autres

Selon les résultats de la recherche, ChatGPT a donné des résultats positifs dans des cas présentant des symptômes classiques et distincts. Par exemple, il a pu évaluer avec précision des conditions telles que des crises cardiaques ou des réactions allergiques graves qui se traduisent par une douleur thoracique typique.

Cependant, dans les cas où le tableau clinique était plus incertain ou atypique, le système a commis de graves erreurs. Dans environ la moitié des cas d’urgence réels, le chatbot n’a pas conseillé à l’utilisateur de se rendre aux urgences et a plutôt suggéré une approche plus prudente.

Selon les experts, dans la réalité, une telle suggestion pourrait avoir des conséquences dangereuses.

Les conseils « attendre et voir » peuvent présenter des risques

Le problème le plus important signalé par les chercheurs est que l’intelligence artificielle a du mal à lire les symptômes et donne trop de suggestions apaisantes et prudentes.

AI a suggéré dans de nombreux cas une approche « attendre et observer ». Cependant, comme le temps est critique dans certaines maladies, cette approche peut faire la différence entre la vie et la mort.

L’un des exemples donnés dans l’étude était une crise d’asthme aiguë. Bien que ChatGPT ait correctement identifié la détresse respiratoire grave décrite par l’utilisateur, il a recommandé de surveiller la situation à domicile plutôt que d’appeler une aide médicale d’urgence.

Selon les chercheurs, cette erreur provient d’un problème structurel : l’algorithme sous-estime souvent la gravité du risque en évitant les propos alarmistes.

Un problème plus complexe en santé mentale

La recherche a également révélé un tableau encore plus inquiétant dans le domaine de la santé mentale. Bien que l’IA fournisse des alertes excessives dans certaines situations psychologiques à faible risque, elle pourrait moins bien réagir dans des situations où les utilisateurs exprimaient ouvertement des pensées d’automutilation ou de suicide.

Cette situation « d’alerte inversée » inquiète particulièrement les psychiatres. Parce que les utilisateurs les plus vulnérables risquent de ne pas être suffisamment protégés par les filtres de sécurité de l’algorithme.

Experts : l’intelligence artificielle ne peut pas remplacer le médecin

Malgré les problèmes identifiés, les chercheurs ne disent pas qu’il faut rejeter complètement l’intelligence artificielle. Selon les experts, cette technologie peut soutenir le système de santé à l’avenir ; Par exemple, il peut être utilisé comme outil d’assistance dans les processus de triage des médecins.

Mais pour l’instant, le message est assez clair : ChatGPT n’est pas un médecin et ne peut pas remplacer le jugement clinique humain.

Les experts soulignent que les utilisateurs doivent contacter des professionnels de santé ou des services d’urgence, et non l’intelligence artificielle, lorsque les symptômes suivants apparaissent :

Douleur thoracique constante
essoufflement soudain
Pensées d’automutilation

Selon les chercheurs, la vie humaine ne devrait pas être laissée à la décision d’un algorithme qui dit « attendons et voyons ».

A lire également