Actuellement, des organismes de santé américains expérimentent un projet pilote visant générer, via ChatGPT, des messages destinés aux patients. Seul hic, cela est fait sans leur consentement préalable. Bien que les messages soient validés par un médecin avant leur envoi, l’implication de l’intelligence artificielle dans des domaines aussi délicats que la santé et la vie privée des patients soulève des préoccupations éthiques.
Tandis que plusieurs entreprises explorent l’utilisation de ChatGPT comme outil commercial, des organismes de santé cherchent à l’intégrer dans les systèmes médicaux afin de réduire l’épuisement professionnel du personnel et, potentiellement, pallier la pénurie de main-d’œuvre. Des enquêtes ont révélé que les cliniciens peuvent ressentir un stress considérable en recevant des centaines de messages simultanément dans leur boîte de réception. Bien que répondre à un patient ne prenne généralement que quelques minutes, avec des dizaines de messages par jour, de nombreux médecins finissent par les traiter en dehors de leurs heures de travail. Le problème s’est intensifié durant la pandémie de COVID-19, passant de 50 000 à plus de 80 000 messages par hôpital (respectivement un mois avant et un mois après le début de la crise sanitaire).
Le projet pilote, mené par Epic et Microsoft, consiste au déploiement à grande échelle de GPT-3 dans les hôpitaux pour faciliter les échanges à distance entre patients et médecins. Epic est notamment le concepteur de l’outil « MyChart », permettant aux patients d’envoyer des messages au personnel médical, de prendre des rendez-vous, de renouveler leurs ordonnances, et plus encore.
Des brouillons manquant d’empathie
Pour l’instant, seuls trois hôpitaux américains testent le projet : UC San Diego Health et UW Health ont commencé les essais en avril, tandis que Stanford Health Care entamera les tests ce mois-ci. Une vingtaine de médecins, infirmières et cliniciens issus de ces établissements de santé évaluent actuellement le nouvel outil afin de signaler les améliorations à apporter.
L’IA permet de générer automatiquement un brouillon, faisant ainsi économiser du temps de rédaction au médecin et accélérant le traitement des demandes des patients. Pour ce faire, ChatGPT accède aux dossiers médicaux de chaque patient, stockés dans les centres de données numériques des hôpitaux, et ajuste les messages à générer en fonction de ces informations et des demandes des patients. Plus précisément, il utilise les données contenues dans le message envoyé par le patient et consulte ses antécédents médicaux pour rédiger la réponse appropriée.
Avant l’envoi, le brouillon est lu et validé par le personnel soignant, qui peut le modifier ou le supprimer à sa discrétion. Epic précise qu’une alerte s’affiche systématiquement pour rappeler au médecin de relire le message avant l’envoi. Ce dernier est également responsable de l’envoi du message en cliquant manuellement sur un bouton.
Actuellement, l’outil nécessite encore des améliorations, car les brouillons générés requièrent souvent de nombreuses modifications, selon les participants aux tests. Ceux-ci soulignent en particulier la nécessité d’ajouter une touche d’empathie ou de sollicitude dans les messages générés, en s’enquérant, par exemple, de l’état moral du patient ou de ses récents déplacements, à l’instar d’un véritable médecin. Néanmoins, une étude récente suggère que ChatGPT serait plus efficace que les médecins pour répondre aux questions des patients sur les forums médicaux en ligne.
Un outil testé sans l’accord des patients
Bien que Microsoft et Epic assurent que l’utilisation des modèles de langage à grande échelle présente des risques minimes, leur intégration dans des domaines sensibles tels que la santé (impliquant la vie privée des patients) soulève des interrogations d’ordre éthique. Bien que l’entreprise affirme que l’outil respecte les lois sur la confidentialité des informations relatives aux patients, ces derniers ne sont pas informés si les messages qu’ils reçoivent sont rédigés ou non par ChatGPT. Ce manque de transparence pourrait nuire à la relation de confiance entre le médecin et son patient.
Selon Gerd Gigerenzer, un spécialiste du comportement de l’Université de Potsdam ayant travaillé sur l’impact de l’IA sur notre comportement, « la transparence est extrêmement importante et je pense qu’elle devrait être un droit de l’homme. Nous devons donc comprendre la situation où le jugement humain est nécessaire et meilleur ». Des experts recommandent d’informer systématiquement les patients sur l’utilisation de l’IA et de considérer le déploiement du nouvel outil comme une expérience sociale.
Certains chercheurs mettent également en garde contre les erreurs que l’IA pourrait commettre ou la désinformation qu’elle pourrait propager. L’un des systèmes développés par Epic a notamment montré un défaut de performance dans la prédiction de la septicémie chez les personnes hospitalisées, et a présenté des pronostics biaisés concernant les besoins de consultations médicales des patients.
Les messages générés automatiquement peuvent être envoyés tels quels, et un médecin débordé pourrait ne pas relire minutieusement son brouillon et l’envoyer aux patients sans les modifications nécessaires. D’un autre côté, si les brouillons requièrent trop de vérifications, les soignants pourraient perdre confiance en l’outil. Sans compter que dans tous les cas, leur capacité à prendre des décisions pourrait diminuer sur le long terme, face à cette simplification.
En somme, l’intégration de l’IA dans le domaine de la santé, bien qu’elle présente des avantages potentiels, soulève des questions éthiques et nécessite une réflexion approfondie sur la manière dont elle est déployée et utilisée. La transparence et la communication avec les patients sont essentielles pour préserver la confiance et garantir que l’IA apporte une réelle valeur ajoutée aux soins médicaux.