L’Intégration de l’IA dans le Secteur de la Santé : Défis et Opportunités

Un Environnement Sécurisé pour l’IA

Le célèbre Institut de Cancérologie Dana-Farber a mis en place un environnement d’exploration sécurisé et privé pour évaluer, tester et déployer des modèles de langage de grande taille (LLM) destinés à des applications non cliniques, telles que la recherche clinique et fondamentale ainsi que les opérations. Cette initiative vise à surmonter les défis liés à la gouvernance, à l’éthique, à la réglementation et à la technique, tout en déployant une API sécurisée permettant aux développeurs d’intégrer l’IA dans leurs applications logicielles.

Formation et Adoption des Outils d’IA

L’organisation a également formé son personnel sur l’utilisation appropriée et sécurisée des LLM, en requalifiant et en perfectionnant les compétences lorsque cela était nécessaire, tout en travaillant à accroître l’adoption de ces technologies. Renato Umeton, directeur des opérations d’IA et des services de science des données à l’Institut Dana-Farber, détient un doctorat en mathématiques et en informatique. Il a partagé ses réflexions sur l’intégration de l’IA dans le secteur de la santé lors d’une session prévue au Forum HIMSS sur l’IA dans les soins de santé, qui se tiendra les 5 et 6 septembre à Boston.

Opportunités et Défis des LLM dans le Secteur de la Santé

Les Enjeux de l’Implémentation

La session se concentrera sur l’implémentation privée, sécurisée et conforme à la loi HIPAA des LLM dans le secteur de la santé, en particulier pour le personnel de l’Institut Dana-Farber. L’objectif principal est de discuter des défis rencontrés et des leçons tirées de l’intégration de ces outils d’IA avancés dans les tâches de recherche et opérationnelles, tout en excluant explicitement les soins cliniques directs.

Dans le paysage actuel des soins de santé, où l’IA s’intègre de plus en plus dans les produits logiciels, il est essentiel que tous les acteurs, des cliniciens aux patients, comprennent comment exploiter en toute sécurité et efficacement ce potentiel.

Perspectives à Court et Long Terme

À court terme, l’accent est mis sur des cas d’utilisation visant à améliorer l’efficacité. À long terme, l’espoir est que des données de meilleure qualité et l’IA conduisent à des pratiques améliorées et à de meilleurs résultats pour les patients. Le parcours pour opérationnaliser GPT-4 a été jalonné de défis éthiques, juridiques, réglementaires et techniques.

En partageant nos expériences et le cadre que nous avons développé pour l’implémentation de l’IA, nous espérons fournir des perspectives utiles à d’autres organisations de santé envisageant des déploiements similaires. Cela est particulièrement pertinent alors que l’industrie doit jongler avec les impératifs d’innovation et de sécurité des patients, rendant crucial l’établissement de gouvernances et de directives robustes pour l’utilisation de l’IA.

Exemples Concrets d’Utilisation de l’IA

GPT4DFCI : Un Outil d’IA Sécurisé

L’outil principal discuté lors de notre session est le GPT4DFCI, un outil d’IA générative privé, sécurisé et conforme à la loi HIPAA, basé sur les modèles GPT-4. Ce système comprend plusieurs couches, la première étant le modèle central, suivie de modèles d’IA qui analysent toutes les données entrantes et sortantes pour filtrer les contenus dangereux, tels que le langage nuisible ou le code logiciel protégé.

Une couche supplémentaire enregistre toutes les actions des utilisateurs avec cette technologie, permettant ainsi un audit. Enfin, une interface utilisateur simple, semblable à ChatGPT, offre des liens vers des matériaux de formation et un système de tickets pour le support utilisateur, ainsi qu’une page Wiki dédiée pour approfondir les connaissances.

Applications Non Cliniques

Cette technologie est utilisée pour aider dans diverses tâches non cliniques, telles que l’extraction et la recherche d’informations dans des notes, des rapports et d’autres documents, ainsi que l’automatisation de tâches répétitives et la rationalisation de la documentation administrative.

Enseignements à Retenir pour les Participants

Importance d’un Cadre de Gouvernance

Nous espérons que les participants comprendront l’importance d’établir un cadre de gouvernance complet pour le déploiement réfléchi des technologies d’IA dans le secteur de la santé. Cela inclut la formation d’un comité de gouvernance pluridisciplinaire, comme notre Comité de Gouvernance de l’IA, pour superviser l’implémentation, aborder les préoccupations éthiques et garantir la conformité avec les réglementations en évolution.

En impliquant divers acteurs, y compris des experts juridiques, cliniques, de recherche, techniques et en bioéthique, ainsi que des patients, les organisations peuvent créer des politiques qui équilibrent innovation, sécurité des patients et protection des données.

Stratégie de Déploiement Phasée

Nous souhaitons également que les participants reconnaissent la valeur d’un déploiement phasé et contrôlé des technologies d’IA. Notre expérience avec GPT4DFCI souligne les avantages potentiels de limiter l’utilisation de l’IA clinique à des essais cliniques approuvés par un comité d’éthique et à des projets pilotes sanctionnés par l’institut.

Cette approche permet des améliorations itératives basées sur les enseignements tirés d’études contrôlées et aide à identifier et à résoudre les problèmes potentiels dès le départ. En ce qui concerne les cas d’utilisation non cliniques, il est essentiel de fournir une formation et un soutien complets aux utilisateurs pour qu’ils apprennent les uns des autres et utilisent la technologie de manière efficace et responsable.

En adoptant une stratégie d’IA prudente et phasée, nous croyons que d’autres organisations peuvent maximiser les avantages de l’IA tout en minimisant les risques associés.

Show Comments (0)
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *