ChatGPT, le mastodonte de l’IA générative, un grand modèle de langage d’OpenAI, semble devenir toujours plus performant en matière de soins de santé. Il a démontré un résultat « surprenant et impressionnant » dans les trois tests qui font partie de l’examen de licence médicale aux États-Unis. Son créateur, dans un tweet, semble lui allouer de grands espoirs dans le remplacement de véritables conseillers médicaux pour les personnes « qui ne peuvent pas se payer des soins ». Les inquiétudes liées à l’émergence de telles IA performantes, surpassant les humains, ne seront certainement pas apaisées après une telle annonce.
Au cours de la dernière décennie, les progrès des réseaux de neurones, de l’apprentissage profond et de l’intelligence artificielle (IA) plus globalement ont transformé la façon dont nous abordons un large éventail de tâches et d’industries, allant de la fabrication à la finance. Bien que ces technologies aient eu des impacts significatifs dans de nombreuses industries, les applications dans les soins cliniques restent limitées.
En effet, la majorité des applications de soins de santé prennent actuellement en charge des fonctions de back-office (paiement, traitement automatisé des autorisations préalables, gestion des chaînes d’approvisionnement et menaces de cybersécurité). À de rares exceptions, même en imagerie médicale, il existe peu d’applications d’IA directement utilisées dans les soins cliniques généralisés.
Mais ChatGPT, lancé en novembre 2022, pourrait révolutionner ce secteur. Pour rappel, il s’agit d’un chatbot qui peut non seulement s’engager dans une conversation de type humaine, mais également fournir des réponses précises à des questions dans un large éventail de domaines de connaissances. Créé par la société OpenAI, il est basé sur une famille de « grands modèles de langage » (LLM) — des algorithmes capables de reconnaître et de prédire une séquence de mots donnée en fonction du contexte des mots qui la précèdent.
Ainsi, si les LLM sont formés sur des quantités suffisamment importantes de données textuelles — des centaines de millions de mots —, ils sont capables de générer de nouvelles séquences de mots jamais observées auparavant par le modèle, mais qui représentent des séquences plausibles basées sur le langage humain naturel.
De tels systèmes d’intelligence artificielle sont très prometteurs pour améliorer les soins médicaux et les résultats de santé. En tant que tel, il est crucial de veiller à ce que le développement de l’IA clinique soit guidé par les principes forts d’exigence éthique, de confiance et d’explicabilité.
Mais de là à confier à ChatGPT des consultations à distance pour les personnes « trop pauvres » pour se soigner, il y a un fossé qui ne devrait pas être franchi, aux vues des dernières réponses de Bing Chat à des journalistes notamment, inconcevables pour une IA, et qui inquiètent à juste titre nombre d’experts.
Une IA conseillère en médecine ?
Jusqu’à présent, peu de choses ont été dites sur l’utilisation potentielle et la mauvaise utilisation de ces outils en médecine et en soins de santé, y compris pour les diagnostics, les autodiagnostics et les prescriptions.
Il faut savoir que ce sont les domaines dans lesquels ces technologies sont susceptibles de trouver une application généralisée précoce. Ce sont également des domaines où il existe un fort potentiel d’exploitation et d’utilisation abusive, en particulier compte tenu de la facilité d’accès aux outils en ligne.
Comme le rappelle Alan Peterson, professeur de sociologie à l’Université Monash (Australie), l’autodiagnostic fait déjà partie intégrante de l’engagement des gens avec les médias numériques. De nombreuses personnes consultent le web peu de temps après le début de leur maladie pour en savoir plus sur leur état et rechercher des informations et des traitements.
Ces recherches en ligne sont sous-tendues par de grands espoirs et l’utilisation de raccourcis heuristiques pour simplifier les décisions complexes concernant la crédibilité des informations. L’IA générative sera sans aucun doute largement utilisée par ceux qui recherchent des réponses rapides concernant le traitement et la gestion de conditions souvent complexes.
Pour Alan Peterson, il doit y avoir beaucoup plus de débats sur les dangers posés par des innovations telles que l’IA générative, qui promettent beaucoup, mais comportent également d’énormes risques. Il n’est donc pas concevable actuellement de pouvoir déléguer des fonctions exercées par des médecins à une IA, quelque soit la raison sous-jacente, comme l’affirme le PDG de la société OpenAI, Sam Altman, dans son tweet.
these tools will help us be more productive (can't wait to spend less time doing email!), healthier (AI medical advisors for people who can’t afford care), smarter (students using ChatGPT to learn), and more entertained (AI memes lolol).
— Sam Altman (@sama) February 19, 2023
Examen de médecine réussi et prise de conscience
Dans une étude parue dans PLOS Digital Health cette semaine, les chercheurs rapportent que ChatGPT a atteint (ou presque) le seuil de réussite de l’US Medical Licensing Exam (USMLE) — un examen complet en trois parties que les médecins doivent réussir avant de pratiquer la médecine aux États-Unis.
Dans un éditorial accompagnant l’article, Leo Anthony Celi, chercheur principal à l’Institute for Medical Engineering and Science du MIT, médecin praticien au Beth Israel Deaconess Medical Center et professeur agrégé à la Harvard Medical School, et ses co-auteurs, affirment que le succès de ChatGPT à cet examen devrait être un signal d’alarme pour la communauté médicale.
ChatGPT manque de raisonnement réfléchi comme les humains, et sa note de passage souligne que la version actuelle de l’USMLE est principalement axée sur la mémorisation par cœur de modèles mécanistes de santé et de maladie. Mais c’est loin de la pratique réelle de la médecine, qui repose sur les interactions humaines, et pour ces raisons, l’IA ne remplacera jamais les infirmières, les médecins et les autres professionnels en première ligne des soins.
Sans aucun doute, l’IA et les LLM transformeront toutes les facettes de ce que nous faisons : la recherche et l’écriture, la conception graphique, le diagnostic médical, etc. Cependant, son succès actuel à réussir test standardisé après test standardisé est une mise en accusation de la formation de nos médecins, de nos avocats et de nos étudiants en général, concluent les chercheurs de l’étude.
Rectifier les biais de données pour l’utilisation médicale
Pour Leo Anthony Celi, il ne fait aucun doute que les grands modèles linguistiques (LLM) tels que ChatGPT sont des outils très puissants pour passer au crible le contenu au-delà des capacités des experts, voire des groupes d’experts, et extraire des connaissances.
Cependant, il est crucial de résoudre le problème du biais des données avant de pouvoir tirer parti des LLM et d’autres technologies d’intelligence artificielle. L’ensemble des données sur lesquelles les LLM se forment, à la fois médicales et d’autres domaines, est dominé par le contenu et la recherche d’institutions bien financées dans les pays à revenu élevé. Il n’est pas représentatif de la majeure partie du monde.
Sans compter que les LLM n’évaluent pas la qualité et le biais du contenu sur lequel ils sont formés. Ils ne fournissent pas non plus le niveau d’incertitude entourant leur production. Néanmoins, beaucoup de voix s’accordent sur le fait qu’il existe une formidable opportunité d’améliorer la façon dont les fournisseurs de soins de santé prennent actuellement des décisions cliniques, qui peuvent être entachées de préjugés inconscients (sexe, couleur de peau, niveau social, etc. ). C’est de ce point de vue que pourrait être compris le tweet récent du créateur de ChatGPT, Sam Altam.
Des limites nécessaires et urgentes
Mais pour que l’IA puisse tenir ses promesses et aider l’humanité dans le secteur des soins, il est crucial d’y mettre de limites. Récemment, le milliardaire Elon Musk, co-fondateur d’OpenAI, a prévenu que l’intelligence artificielle non contrôlée constitue une menace pour la société, lors du Sommet mondial du gouvernement à Dubaï (Émirats arabes unis), comme le rapporte CNBC. Il ajoute : « L’IA est l’un des plus grands risques pour l’avenir de la civilisation ».
Les législateurs et les leaders de l’industrie technologique ont fréquemment discuté de l’importance de réglementer l’IA comme moyen de lutter contre la discrimination et de l’empêcher de prendre des décisions erronées. Dans un article d’Insider, Sam Altman explique : « Je suis plus préoccupé par un cas d’abus accidentel à court terme. Je pense donc qu’il est impossible d’exagérer l’importance du travail de sécurité et d’alignement de l’IA. J’aimerais voir beaucoup, beaucoup plus se produire ».
À son crédit, Altman reconnaît également, dans un article de Futurism, que les outils d’IA sont encore « quelque peu cassés, et que les institutions auront besoin de suffisamment de temps pour comprendre quoi faire avec ». Enfin, dans un récent billet de blog d’OpenAI, il reconnaît les limites du système, mais reste optimiste : « Parfois, nous ferons des erreurs. Lorsque nous le ferons, nous apprendrons d’elles et itérerons sur nos modèles et systèmes ».
Compte tenu de tous les défis évoqués précédemment, l’époque des IA médecins n’est pas encore venue !