Demander des conseils médicaux à l’IA : quels risques ?

L’outil d’intelligence artificielle (IA) générative ChatGPT est utilisée par près de 800 millions d’utilisateurs dans le monde. Un Français sur quatre l’utilise tous les jours et ils sont de plus en plus nombreux à s’en servir pour demander des conseils médicaux. Cette pratique n’est pourtant pas sans risque.

L’intelligence artificielle (IA) générative s’est rapidement ancrée dans le quotidien de millions de personnes. Selon une étude* (en anglais) de Capgemini (entreprise française de services numériques), un tiers des personnes interrogées utilisent des outils d’IA dans les domaines de la santé et du bien-être et 44 % d’entre elles ont réduit leur utilisation de services de santé traditionnels grâce à des recommandations basées sur l’IA.

Quand l’IA remplace Google

La société OpenAI – qui a développé l’outil ChatGPT – indique que des centaines de millions de personnes posent des questions liées à la santé et au bien-être chaque semaine à l’IA. Les moteurs de recherche sur Internet étaient déjà massivement utilisés pour tenter de s’autodiagnostiquer ou trouver des informations relatives à la santé, mais le déploiement des robots conversationnels, entrés dans nos vies depuis trois ans, a accéléré le phénomène. Ils sont considérés pour certains comme de véritables assistants à qui l’on confie ses inquiétudes. À tel point qu’OpenAI a annoncé le lancement aux Etats-Unis de ChatGPT Santé, un outil destiné à enregistrer les comptes-rendus médicaux, interpréter des résultats d’analyses, préparer des rendez-vous médicaux, etc. (pas encore disponible en France).

La France n’est pas épargnée : « Les patients s’en servent beaucoup », confirme au Parisien Jean-Emmanuel Bibault, médecin chercheur spécialisé en oncologie à l’hôpital européen Georges Pompidou et chercheur en IA à l’Inserm. Il s’avère que les agents conversationnels peuvent se montrer parfois plus précis dans leur diagnostic et tendent à rassurer les patients sans leur donner de faux espoirs. « L’IA générative peut-être très pertinente mais il faut la prendre comme une simple aide, car elle expose à de véritables risques », prévient Paul Valois, chef de projet à la Haute autorité de santé.

A lire aussi : En France, 23 millions de personnes souffrent de douleurs chroniques

Des risques d’erreur

En effet, les chatbots sont loin d’être infaillibles ; ils peuvent se tromper et sont même susceptibles de fournir des conseils médicaux gravement préjudiciables. Plusieurs raisons à cela :

– On ne sait pas à partir de quelles données les modèles d’IA ont été entraînés. Par exemple, dans le cas d’un grain de beauté, si l’IA a été entraînée sur la base d’images de peaux blanches, les résultats ne seront pas pertinents pour une peau noire ;

– Les requêtes (prompts) rédigées par les patients qui interrogent l’outil ne sont pas toujours suffisamment détaillés, de fait le résultat sera imprécis.

Si les patients sont aussi prompts à utiliser l’IA, c’est en partie parce que l’obtention de rendez-vous médicaux devient de plus en plus compliquée. Certains territoires sont des déserts médicaux, où l’offre de soins est insuffisante et où les patients rencontrent des difficultés d’accès aux soins. En 2025, ce sont 151 zones prioritaires qui ont été identifiées dans le cadre du pacte de lutte contre les déserts médicaux.

Dans ce contexte, les outils d’IA, gratuits et disponibles, sont utilisés comme recours, bien que les professionnels de santé insistent sur le fait que l’IA ne doit jamais se substituer au corps médical. D’ailleurs, même si les chatbots répondent toujours dans un premier temps qu’ils ne remplacent pas un médecin (une mise en garde nécessaire), ils donnent volontiers par la suite des conseils, voire suggèrent des médicaments…

Des risques en termes de confidentialité

Un autre risque souvent sous-évalué par les patients : la transmission de données personnelles – voire sensibles. En effet, ces outils n’offrent aucune garantie sur la confidentialité des informations et documents fournis. Le risque est d’autant plus grand si parmi ces données se trouvent des informations permettant d’identifier la personne. L’association France Assos Santé s’en inquiète : « Demain, qui pourra empêcher OpenAI de changer d’avis sur la manière de traiter ces données ? ». D’ailleurs, la société – et ses concurrents – les utilisent déjà pour entraîner leurs modèles, mais ils ne sont pas à l’abri d’une fuite de données à forte valeur commerciale.

Face à ces enjeux, la Haute autorité de santé prévoit de publier une fiche de bonne utilisation des outils d’intelligence artificielle en mars 2026.

*Enquête menée auprès de 10 000 consommateurs âgés de 18 à 80 ans, issus de divers milieux et provenant de 13 pays des Amériques, d’Europe et d’Asie

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *