L’intelligence artificielle dans le domaine des soins de santé peut rapprocher les patients et les médecins

L'intelligence artificielle dans le domaine de la santé peut rapprocher les patients et les médecins

10 novembre 2023 – Vous avez peut-être utilisé ChatGPT-4 ou l’un des autres nouveaux chatbots d’intelligence artificielle pour poser une question sur votre santé. Ou peut-être que votre médecin utilise ChatGPT-4 pour générer un résumé de votre dernière visite. Peut-être que votre médecin a même un chatbot pour vérifier doublement leur diagnostic de votre état.

Mais à ce stade du développement de cette nouvelle technologie, les experts ont déclaré que les consommateurs et les médecins seraient avisés de procéder avec prudence. Malgré la confiance avec laquelle un chatbot d’IA livre les informations demandées, ce n’est pas toujours précis.

Alors que l’utilisation des chatbots d’IA se répand rapidement, tant dans les soins de santé que dans d’autres domaines, des appels de plus en plus nombreux ont été lancés pour que le gouvernement réglemente la technologie afin de protéger le public des conséquences involontaires potentielles de l’IA.

Récemment, le gouvernement fédéral a fait un premier pas dans cette direction lorsque le président Joe Biden a émis un décret exécutif exigeant des agences gouvernementales qu’elles trouvent des moyens de régir l’utilisation de l’IA. Dans le domaine des soins de santé, le décret demande au ministère de la Santé et des Services sociaux de faire progresser l’innovation responsable de l’IA qui “favorise le bien-être des patients et des travailleurs du secteur des soins de santé”.

Entre autres choses, l’agence est censée créer une force opérationnelle sur l’IA en matière de soins de santé dans un délai d’un an. Cette force opérationnelle élaborera un plan pour réglementer l’utilisation de l’IA et des applications basées sur l’IA dans la prestation de soins de santé, la santé publique, la recherche et le développement de médicaments et de dispositifs médicaux, ainsi que la sécurité.

Le plan stratégique abordera également “la surveillance de la sécurité à long terme et des performances dans le monde réel des technologies basées sur l’IA”. Le département doit également développer une méthode pour déterminer si les technologies basées sur l’IA “maintiennent des niveaux de qualité appropriés”. De plus, en partenariat avec d’autres agences et organisations de sécurité des patients, le ministère de la Santé et des Services sociaux doit établir un cadre pour identifier les erreurs “résultant de l’IA déployée dans les environnements cliniques”.

Le décret de Biden est “une bonne première étape”, a déclaré Ida Sim, MD, PhD, professeur de médecine et d’informatique en santé de précision, et directeur de la recherche informatique de l’Université de Californie, San Francisco.

John W. Ayers, PhD, directeur adjoint de l’informatique à l’Institut de recherche clinique et translationnelle Altman de l’Université de Californie à San Diego, est d’accord. Il a déclaré que bien que l’industrie des soins de santé soit soumise à une surveillance rigoureuse, il n’existe pas de réglementation spécifique sur l’utilisation de l’IA dans les soins de santé.

“Cette situation unique découle du fait que l’IA évolue rapidement et que les régulateurs ne peuvent pas suivre”, a-t-il déclaré. Toutefois, il est important de progresser avec précaution dans ce domaine, sinon de nouvelles réglementations pourraient entraver les progrès médicaux.

L’IA hantée par le problème de “hallucination”

Depuis l’apparition de ChatGPT-4 l’année dernière, surprenant les experts par ses conversations humaines et sa connaissance de nombreux sujets, le chatbot et d’autres similaires se sont fermement implantés dans les soins de santé. Selon une enquête, 14% des médecins utilisent déjà ces “agents conversationnels” pour aider au diagnostic des patients, créer des plans de traitement et communiquer avec les patients en ligne. Les chatbots sont également utilisés pour rassembler des informations à partir des dossiers des patients avant les visites et pour résumer les notes de visite pour les patients.

Les consommateurs ont également commencé à utiliser des chatbots pour rechercher des informations sur les soins de santé, comprendre les avis sur les prestations d’assurance et analyser les résultats des tests de laboratoire.

Le principal problème dans tout cela est que les chatbots d’IA n’ont pas toujours raison. Parfois, ils inventent des choses qui n’existent pas – ils “hallucinent”, comme certains l’ont dit. Selon une récente étude de Vectara, une start-up fondée par d’anciens employés de Google, les chatbots inventent des informations au moins 3% du temps – et jusqu’à 27% du temps, selon le robot. Un autre rapport est parvenu à des conclusions similaires.

Cela ne veut pas dire que les chatbots ne sont pas remarquablement doués pour arriver à la bonne réponse la plupart du temps. Dans un essai, 33 médecins spécialisés dans 17 domaines ont posé aux chatbots 284 questions médicales de complexité variable et ont évalué leurs réponses. Plus de la moitié des réponses ont été jugées presque correctes ou totalement correctes. Mais les réponses à 15 questions ont été jugées totalement incorrectes.

Google a créé un chatbot appelé Med-PaLM qui est adapté aux connaissances médicales. Ce chatbot, qui a réussi un examen de licence médicale, a un taux d’exactitude de 92,6% pour répondre aux questions médicales, à peu près le même que celui des médecins, selon une étude de Google.

Ayers et ses collègues ont réalisé une étude comparant les réponses des chatbots et des médecins aux questions posées par les patients en ligne. Les professionnels de santé ont évalué les réponses et ont préféré la réponse du chatbot dans près de 80% des échanges. Les réponses des médecins ont été notées plus bas tant en termes de qualité que d’empathie. Les chercheurs ont suggéré que les médecins auraient pu être moins empathiques en raison du stress lié à leur pratique.

Garbage In, Garbage Out

Les chatbots peuvent être utilisés pour identifier des diagnostics rares ou expliquer des symptômes inhabituels, et ils peuvent également être consultés pour s’assurer que les médecins ne manquent pas de possibilités de diagnostic évidentes. Pour être disponibles à ces fins, ils doivent être intégrés au système d’enregistrement des dossiers de santé d’une clinique. Microsoft a déjà intégré ChatGPT-4 dans le système d’enregistrement de dossiers de santé le plus répandu, celui d’Epic Systems. 

Un défi pour tout chatbot est que les dossiers contiennent des informations erronées et sont souvent incomplets. De nombreuses erreurs de diagnostic sont liées à des antécédents du patient mal documentés et à des examens physiques sommaires consignés dans le dossier de santé électronique. De plus, ces dossiers ne contiennent généralement que peu ou pas d’informations des dossiers d’autres praticiens qui ont vu le patient. Basé uniquement sur les données insuffisantes du dossier du patient, il peut être difficile pour un être humain ou une intelligence artificielle de tirer la bonne conclusion dans un cas particulier, selon Ayers. C’est là que l’expérience et les connaissances du patient d’un médecin peuvent être inestimables.

Mais les chatbots sont très doués pour communiquer avec les patients, comme l’a montré l’étude d’Ayers. Avec une supervision humaine, a-t-il dit, il semble probable que ces agents conversationnels puissent aider à soulager la charge de travail des médecins en matière de messagerie en ligne avec les patients. Et, a-t-il dit, cela pourrait améliorer la qualité des soins.

« Un agent conversationnel n’est pas seulement quelque chose qui peut gérer votre boîte de réception ou votre charge de travail de messagerie. Il peut transformer votre boîte de réception en une boîte d’envoi grâce à des messages proactifs aux patients », a déclaré Ayers.

Les bots peuvent envoyer aux patients des messages personnalisés, adaptés à leurs dossiers et aux besoins que les médecins estiment qu’ils auront. « Que cela apporterait-il aux patients ? », a demandé Ayers. « Il y a un énorme potentiel ici pour changer la façon dont les patients interagissent avec leurs prestataires de soins de santé. »

Avantages et inconvénients des chatbots

Si les chatbots peuvent être utilisés pour générer des messages aux patients, ils peuvent également jouer un rôle clé dans la gestion des maladies chroniques, qui touchent jusqu’à 60% de tous les Américains.

Sim, qui est également médecin en soins primaires, l’explique ainsi : « Les maladies chroniques sont quelque chose que vous avez 24h/24 et 7j/7. Je vois mes patients les plus malades pendant 20 minutes chaque mois, en moyenne, donc je ne suis pas celui qui gère la majorité des soins pour les maladies chroniques. »

Elle dit à ses patients de faire de l’exercice, de gérer leur poids et de prendre leurs médicaments comme indiqué.

« Mais je ne leur apporte aucun soutien à domicile », a déclaré Sim. « Les chatbots basés sur l’IA, en raison de leur capacité à utiliser un langage naturel, peuvent être là avec les patients d’une manière que nous, les médecins, ne pouvons pas. »

En plus de conseiller les patients et leurs soignants, a-t-elle dit, les agents conversationnels peuvent également analyser les données des capteurs de surveillance et poser des questions sur l’état du patient de jour en jour. Bien que rien de tout cela n’arrive dans un avenir proche, dit-elle, cela représente une « énorme opportunité ».

Ayers est d’accord mais a averti que des essais contrôlés randomisés doivent être réalisés pour établir si un service de messagerie assistée par IA peut réellement améliorer les résultats des patients.

« Si nous ne menons pas une science publique rigoureuse sur ces agents conversationnels, je peux imaginer des scénarios où ils seront mis en œuvre et causeront des dommages », a-t-il déclaré.

En général, Ayers a déclaré que la stratégie nationale en matière d’IA devrait être axée sur le patient, plutôt que sur la façon dont les chatbots aident les médecins ou réduisent les coûts administratifs.

De la perspective du consommateur, Ayers a déclaré qu’il s’inquiétait des programmes d’IA donnant des “recommandations universelles aux patients qui pourraient être sans importance, voire mauvaises”.

Sim a également souligné que les consommateurs ne devraient pas dépendre des réponses données par les chatbots à des questions de santé.

“Il faut faire preuve de beaucoup de prudence. Ces choses sont tellement convaincantes dans la façon dont elles utilisent le langage naturel. Je pense que c’est un énorme risque. À tout le moins, le public devrait être informé qu’il y a un chatbot derrière cela, et qu’il peut se tromper.”