Une étude récente menée par NYU Langone Health révèle que l’intelligence artificielle générative (IA) se montre efficace pour répondre aux questions des patients dans les courriels des dossiers de santé électroniques, et pourrait alléger la charge documentaire des cliniciens.

Une Réponse Empathique et Précise

Dirigée par des chercheurs de la New York University Grossman School of Medicine, cette recherche a démontré qu’un outil de messagerie basé sur l’IA générative non seulement rédigeait des réponses précises aux questions des patients, mais que ces réponses étaient perçues comme plus empathiques.

Dr. William Small, professeur adjoint clinique au sein du département de médecine de NYU Grossman et auteur principal de l’étude, a déclaré : « Nos résultats indiquent que les chatbots pourraient diminuer la charge de travail des prestataires de soins en permettant des réponses efficaces et empathiques aux préoccupations des patients. »

L’Importance de l’Étude

Durant la pandémie, il était fréquent que les médecins reçoivent plus de 150 messages par jour dans leur boîte de réception, ce qui représente une augmentation annuelle de plus de 30 %, selon Dr. Paul Testa, directeur des informations médicales chez NYU Langone.

NYU Langone a exploré des solutions pour réduire le phénomène de surcharge documentaire, qui est une source majeure d’épuisement professionnel chez les médecins. Pour cette étude, les chercheurs ont demandé à seize médecins de soins primaires d’évaluer 344 paires de réponses, générées par l’IA et par des humains, en termes de précision, de pertinence, de complétude et de ton.

Les résultats ont montré que les réponses de l’IA surpassaient celles des prestataires humains en termes de clarté et de ton, avec une amélioration de 9,5 %, selon le rapport intitulé « Réponses basées sur des modèles de langage à grande échelle aux messages des patients », publié dans JAMA.

Méthodologie de l’Étude

Dans le cadre de cette étude en aveugle, les médecins participants ont indiqué s’ils utiliseraient la réponse de l’IA comme première ébauche ou s’ils devaient recommencer. Ils ignoraient quelle réponse provenait d’un humain ou de l’outil d’IA.

Les résultats ont révélé que les réponses de l’IA étaient plus de 125 % plus susceptibles d’être considérées comme empathiques et 62 % plus susceptibles d’utiliser un langage positif et engageant. Cependant, ces réponses étaient également 38 % plus longues et 31 % plus susceptibles de contenir un langage complexe.

Les chercheurs ont noté que, tandis que les humains répondaient à un niveau de lecture équivalent à la sixième année, l’IA produisait des réponses correspondant à un niveau de huitième année, selon le score de lisibilité Flesch Kincaid. Ils ont également souligné la nécessité d’études futures pour confirmer si les données privées amélioraient spécifiquement la performance de l’outil d’IA.

Une Tendance Émergente

En 2023, NYU Langone a acquis une licence pour GPT-4, permettant aux médecins d’expérimenter avec des données réelles de patients dans un environnement sécurisé. L’année précédente, l’organisation de recherche en santé avait encouragé des équipes de cliniciens, d’éducateurs et de chercheurs à collaborer pour tester des modèles de langage à grande échelle lors d’un événement intitulé Generative AI Prompt-A-Thon en santé.

Cet événement a rassemblé 70 participants et plus de 500 autres via un webinaire en direct, dans le but d’utiliser les observations générées pour informer le développement interne des capacités d’IA générative.

Par la suite, les chercheurs ont utilisé l’IA pour analyser les transcriptions de 820 individus ayant reçu une psychothérapie lors de la première vague de COVID-19 aux États-Unis, en les comparant aux travailleurs de la santé. Cet outil d’IA a pu détecter le stress chez les travailleurs hospitaliers surchargés, révélant que ceux qui évoquaient des problèmes de sommeil ou d’humeur lors des séances de thérapie étaient plus susceptibles de recevoir des diagnostics d’anxiété et de dépression.

Conclusion

Dr. Small a déclaré : « Nous avons constaté que les chatbots d’IA intégrés aux dossiers de santé électroniques, utilisant des données spécifiques aux patients, peuvent rédiger des messages d’une qualité comparable à celle des prestataires humains. »

Dr. Devin Mann, directeur senior de l’innovation en informatique au sein du NYU Langone Medical Center, a ajouté : « Avec cette approbation des médecins, la qualité des messages générés par l’IA sera bientôt équivalente en termes de qualité, de style de communication et d’utilisabilité à celle des réponses humaines. »

Show Comments (0)
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *