La compagnie d’assurance maladie Cigna est actuellement sous le feu des critiques pour l’utilisation d’un algorithme, le PxDx, accusé de rejeter automatiquement des demandes de remboursement (sans la supervision d’un médecin), avec un taux d’erreur extrêmement élevé qui plus est (environ 80%). Cette situation a donné lieu à une action en justice, mettant en lumière les défis éthiques et légaux liés à l’emploi de l’IA dans le secteur de la santé. L’issue de cette affaire pourrait avoir des implications significatives pour la régulation de l’IA dans ce domaine.
L’intelligence artificielle (IA) est de plus en plus présente dans notre quotidien, mais son utilisation dans le domaine de la santé suscite des interrogations. Avec sa capacité à traiter rapidement d’énormes volumes de données, elle offre notamment des perspectives prometteuses pour améliorer l’efficacité et la précision des processus de remboursement des soins médicaux. Cependant, son utilisation soulève également des questions éthiques et légales, en particulier lorsqu’elle est employée pour prendre des décisions qui ont un impact direct sur la vie des individus.
C’est dans ce contexte que se situe l’affaire Cigna, un géant de l’assurance santé, qui fait face à une action en justice pour avoir utilisé un algorithme, le PxDx, accusé de rejeter massivement et automatiquement des demandes de remboursement. Selon les allégations, cet algorithme aurait permis à Cigna de rejeter plus de 300 000 demandes en l’espace de deux mois en 2022, avec un temps moyen de traitement de chaque demande de seulement 1,2 seconde (sans la supervision d’un médecin donc).
Cette affaire, relatée en premier lieu dans un article de Propublica, met en lumière les défis et dilemmes posés par l’utilisation de l’IA dans le secteur de la santé. Elle pourrait bien marquer un tournant dans la manière dont nous appréhendons son emploi dans ce domaine.
Violation présumée de la loi californienne
Le cabinet d’avocats Clarkson, reconnu pour son engagement en faveur de l’intérêt public, a déposé une plainte contre Cigna. Selon cette plainte, l’assureur aurait violé la loi californienne en utilisant l’algorithme PxDx pour traiter les demandes de remboursement.
La loi californienne stipule que chaque demande de remboursement doit faire l’objet d’une évaluation « complète, équitable et objective » par un professionnel de la santé. Cette disposition vise à garantir que chaque patient reçoit une attention individuelle et que ses besoins spécifiques sont pris en compte lors de l’évaluation de sa demande.
Cependant, selon la plainte déposée par le cabinet Clarkson, Cigna aurait contourné cette obligation légale en utilisant l’algorithme PxDx. Avec cet outil, la compagnie d’assurance aurait traité un grand nombre de demandes sans l’évaluation individuelle requise par la loi. En d’autres termes, l’algorithme aurait entièrement remplacé l’évaluation humaine.
Si ces allégations sont avérées, cela signifierait que Cigna a non seulement enfreint la loi, mais aussi manqué à son devoir de fournir à ses assurés une évaluation équitable et objective de leurs demandes de remboursement. Cette affaire souligne donc l’importance de réguler l’utilisation de l’IA dans le secteur de la santé, afin de garantir le respect des droits des patients.
Un taux d’appel élevé
Un fait notable dans cette affaire est le taux élevé de renversement des décisions initiales de Cigna lors des appels. En effet, environ 80% des demandes de remboursement initialement refusées par Cigna, et qui ont ensuite fait l’objet d’un appel, ont été renversées. Ce chiffre est significatif et soulève des questions importantes sur la fiabilité de l’algorithme PxDx.
La fiabilité d’un algorithme est mesurée par sa capacité à produire des résultats cohérents et précis. Dans le cas de PxDx, le taux élevé de renversement des décisions initiales suggère que l’algorithme pourrait ne pas être aussi fiable qu’il le devrait. En d’autres termes, il semble que l’algorithme ait pu commettre des erreurs dans l’évaluation des demandes de remboursement, conduisant à un nombre élevé de refus qui ont ensuite été renversés lors des appels.
La défense de Cigna
Face aux accusations portées contre elle, Cigna a pris la défense de son algorithme PxDx. Selon l’entreprise, cet outil a été conçu dans le but d’accélérer les paiements aux médecins, en facilitant le traitement des demandes de remboursement. Il ne visait donc pas à refuser massivement des demandes.
Cigna a précisé que l’algorithme PxDx est utilisé uniquement pour les procédures les plus courantes et à faible coût. L’objectif est de vérifier que les codes de procédure médicale sont correctement soumis. En effet, chaque procédure médicale est associée à un code spécifique, qui doit être correctement indiqué lors de la soumission d’une demande de remboursement. L’algorithme PxDx permettrait donc de vérifier rapidement ces codes, ce qui accélérerait le processus de remboursement, et donc le paiement des médecins.
Des conséquences pour les patients
Mais derrière ces chiffres, ce sont des patients qui se retrouvent sans couverture des soins de santé concernés par la faille, les confrontant à des factures médicales imprévues et parfois très élevées. Cela peut entraîner des difficultés financières pour certains patients.
De plus, le processus d’appel des décisions de Cigna peut être long et complexe, décourageant certains patients à contester les décisions de l’assurance, même s’ils estiment que leur demande de remboursement a été injustement refusée. En conséquence, certains patients choisissent de ne pas recevoir les soins médicaux dont ils ont besoin, par crainte de se voir refuser le remboursement.
Vers une régulation plus stricte de l’IA dans le secteur de la santé ?
Cette affaire soulève des questions fondamentales sur l’utilisation de l’intelligence artificielle dans le secteur de la santé. En particulier, elle soulève des interrogations sur la manière dont l’IA est utilisée pour évaluer les demandes de remboursement des soins médicaux. Son efficacité ne doit pas bafouer les droits des patients ni les obligations légales.
Cette situation pourrait inciter les régulateurs à imposer des normes plus strictes pour son utilisation. Ils devraient garantir que l’IA ne remplace pas l’évaluation humaine lorsqu’il s’agit de prendre des décisions impactant directement la vie des patients, tout en exigeant une plus grande transparence dans le fonctionnement des algorithmes.
En attendant, la bataille juridique entre Cigna et le cabinet Clarkson se poursuit. L’issue de cette affaire pourrait avoir des conséquences importantes pour l’avenir de l’IA au sein des assurances santé.