La procureure générale de New York, Letitia James, a publié un rapport sur les avantages et les risques potentiels liés à l’intelligence artificielle (IA), en prévision de la législation à venir concernant cette nouvelle technologie.
Parmi les principaux avantages, on a noté l’application de l’IA dans le secteur de la santé et l’optimisation des tâches administratives. En revanche, les risques potentiels incluent le biais algorithmique dans le recrutement, l’utilisation de l’IA générative par des acteurs malveillants pour créer de la désinformation, et la concurrence déloyale due à la nécessité pour l’IA de vastes quantités de données pour son apprentissage.
« Cette technologie peut aider les gens de nombreuses manières, que ce soit pour accomplir des tâches administratives courantes ou pour contribuer à des avancées médicales », a déclaré le Bureau de la procureure générale de l’État de New York. « Bien que cela offre des opportunités passionnantes, il existe plusieurs risques associés à cette technologie. Il est essentiel de traiter ces risques rapidement avant qu’il ne soit trop tard. »
Ce rapport est le résultat d’un symposium privé organisé le 12 avril 2024, où le Bureau de la procureure générale a rassemblé des universitaires, des décideurs, des défenseurs et des représentants de l’industrie pour discuter des principales opportunités et des risques que présente la technologie de l’IA.
Le symposium, intitulé « La prochaine décennie de l’IA générative : favoriser les opportunités tout en réglementant les risques », visait à aider le Bureau à « élaborer des stratégies pour atténuer ces risques tout en veillant à ce que New York reste à la pointe de l’innovation. »
Bien que l’IA générative ait été un point central, les intervenants ont également abordé des systèmes d’IA plus traditionnels, tels que les technologies de prise de décision automatisée. Les sujets traités comprenaient le partage d’informations et de désinformations, la confidentialité des données et les utilisations potentielles de l’IA dans le domaine de la santé.
« Chaque jour, nous voyons l’intelligence artificielle utilisée pour améliorer nos vies, mais aussi semer le chaos et la confusion », a déclaré James dans un communiqué. « Le symposium que j’ai organisé a permis de rassembler des experts du gouvernement et de l’industrie pour discuter et élaborer de véritables plans et étapes à suivre concernant la technologie de l’IA, et je remercie tous les participants pour leurs contributions et leurs idées sur cette question cruciale. »
Elle a ajouté : « Je veux m’assurer que le gouvernement prend les mesures nécessaires pour réglementer correctement l’IA, afin de garantir que son potentiel d’aide aux New-Yorkais soit réalisé, tout en abordant et en protégeant contre son potentiel de nuire. »
Avantages de l’IA
Un des domaines identifiés où l’IA pourrait offrir d’énormes avantages est la santé. Le rapport a souligné comment les participants au symposium avaient évoqué l’utilisation de l’IA pour la détection précoce des maladies, la découverte de médicaments, le suivi des tendances en santé publique et la médecine de précision.
« Les outils d’IA ont déjà été utilisés pour aider à l’imagerie médicale, rendant les examens plus rapides et moins coûteux », a déclaré le Bureau. « Ces outils peuvent aider les cliniciens à trier les images médicales pour identifier les problèmes potentiellement urgents nécessitant une révision prioritaire par un médecin. Les modèles d’IA sont désormais formés pour aller plus loin et aider à détecter des maladies. »
Un autre avantage lié à la santé de l’IA est son utilisation pour des tâches administratives, ce qui peut alléger les charges de travail et réduire l’épuisement professionnel des médecins.
Le rapport a également suggéré que le potentiel de l’IA à aider dans les tâches administratives pourrait bénéficier à d’autres secteurs, notamment les agences gouvernementales.
« Un fonctionnaire a évoqué des opportunités d’utiliser l’IA générative pour calculer les obligations fiscales, générer des supports éducatifs publics et rédiger du code informatique », a déclaré le Bureau.
Il a salué la manière dont les outils d’IA, y compris les chatbots alimentés par l’IA générative, peuvent aider les gens à trouver facilement des informations. Par exemple, ils sont déjà utilisés pour compléter les lignes téléphoniques des services publics non urgents et des services clients d’entreprise.
« L’utilisation de chatbots peut libérer les opérateurs téléphoniques pour se concentrer sur la fourniture de services spécifiques et le traitement de questions complexes », a déclaré le Bureau. « De plus, les outils d’IA générative peuvent automatiser la traduction, permettant aux gouvernements et aux entreprises de mieux communiquer avec les personnes dans leur langue maternelle et d’améliorer l’accès à l’information. »
Les risques à considérer
Tout en soulignant les avantages potentiels de la technologie de l’IA dans divers secteurs, la procureure générale de New York a également mis en garde contre les risques associés.
« Les données de santé sont particulièrement sensibles », a déclaré le Bureau. « Les patients peuvent ne pas comprendre quelles données sont collectées ou comment elles sont utilisées par les outils d’IA, surtout lorsque ces outils fonctionnent en continu dans leurs chambres d’hôpital ou même chez eux. »
Pour utiliser efficacement les outils d’IA dans un contexte aussi sensible, les intervenants du symposium ont suggéré que des humains doivent être impliqués, avoir la responsabilité ultime et être prêts à décider quand faire confiance aux outils d’IA et quand les contester.
L’accès inégal était également une préoccupation, avec des groupes minoritaires sous-représentés dans les données cliniques utilisées pour créer des plans de traitement personnalisés, et les services de transcription par IA ne couvrant actuellement pas un large éventail de langues ou d’accents.
En ce qui concerne les outils d’IA générative, le rapport a mis en évidence les risques de production de contenu faux, biaisé ou autrement « problématique » en raison de l’entraînement du modèle sur des données défectueuses, un problème souvent désigné par l’expression « des données de mauvaise qualité produisent des résultats de mauvaise qualité ».
De plus, le Bureau a noté comment l’IA générative peut être utilisée par des acteurs malveillants pour créer intentionnellement des matériaux de désinformation, tels que des deepfakes :
« Les lois sur la diffamation et la fraude offrent un certain recours, mais ne traitent pas l’ensemble du problème, en particulier à mesure que les deepfakes deviennent de plus en plus réalistes et difficiles à détecter. Les intervenants ont noté que l’utilisation de l’IA générative dans la désinformation serait une préoccupation majeure dans les mois à venir, à l’approche des élections générales, car des acteurs malveillants pourraient créer un déluge de désinformation qui ne pourrait pas être vérifié à temps. »
Dans le domaine du recrutement, bien que les participants au symposium aient salué la capacité de l’IA à rationaliser le processus d’examen des candidatures, ils ont souligné que les entreprises utilisant des outils de filtrage par IA créent un potentiel de biais algorithmique.
« Les intervenants ont cité de nombreuses preuves que les outils d’IA amplifient souvent, plutôt que de corriger, les biais. Par exemple, les algorithmes formés sur des données de recrutements passés peuvent amplifier les biais humains reflétés dans les décisions de recrutement antérieures et renforcer les normes existantes », a déclaré le rapport.
Un intervenant a même soutenu qu’il est préférable de supposer que les outils d’IA « discriminent par défaut ».
Réglementation potentielle de l’IA aux États-Unis
Concernant la manière dont la technologie de l’IA devrait être réglementée, le rapport a noté des opinions divergentes parmi les intervenants du symposium.
Certains ont plaidé pour l’adoption d’une loi complète, comme la loi sur l’intelligence artificielle de l’Union européenne, qui crée un large cadre de réglementation basé sur le risque et établit une agence centralisée pour superviser la technologie de l’IA. D’autres ont soutenu qu’un tel modèle n’est pas approprié aux États-Unis, plaidant plutôt pour une réglementation et une supervision divisées par secteur et gérées au sein d’agences distinctes.
Les efforts législatifs non coordonnés actuels aux États-Unis ont abordé divers problèmes liés à l’IA.
En avril, un projet de loi bipartisan visant à soutenir l’innovation américaine dans la technologie de l’IA, le « Future of AI Innovation Act », a été présenté au Sénat, proposant plusieurs mesures, y compris la création de l’AI Safety Institute pour développer des normes volontaires et l’obligation pour les agences fédérales de rendre les ensembles de données accessibles au public ; en mai, le « Enhancing National Frameworks for Overseas Critical Exports Act » a été introduit par le Comité des affaires étrangères de la Chambre pour donner au Département du Commerce le pouvoir de contrôler le transfert de systèmes avancés d’IA et de protéger la technologie nationale ; et en juin, le Comité des services armés du Sénat a adopté le projet de loi d’autorisation de défense nationale pour l’exercice 2025, qui incluait des directives pour un programme pilote d’IA du Département de la Défense.
Ces efforts ont tendance à protéger et soutenir l’innovation en matière d’IA, d’une manière ou d’une autre, et moins à traiter les conséquences et les pratiques d’application de l’IA dans différents secteurs, tels que la santé ou l’administration.
En ce qui concerne les avantages et les risques de l’application de l’IA pour les consommateurs, les citoyens et les organisations, la législation la plus pertinente à ce jour a été au niveau des États, dans le Colorado.
En mai, le Colorado est devenu le premier État à adopter une loi protégeant ses résidents contre la discrimination liée à l’IA avec le « Colorado AI Act ». Cette loi cible les développeurs et les déployeurs de systèmes d’IA « à haut risque » pour garantir que l’IA n’influence pas les décisions basées sur la discrimination algorithmique, que la loi décrit comme une « condition dans laquelle l’utilisation d’un système d’intelligence artificielle entraîne un traitement ou un impact différentiel illégal défavorable à un individu ou à un groupe d’individus. »
Un système est considéré comme à haut risque s’il est utilisé pour prendre des décisions importantes touchant des domaines tels que le logement, la couverture médicale et l’emploi.
Le Connecticut a tenté d’adopter une loi similaire — qui a en fait précédé le Colorado AI Act — mais le gouverneur de l’État, Ned Lamont, a menacé de veto si le projet de loi passait à la Chambre des représentants, ce qui a effectivement mis fin à son parcours.
Ce qui signifie que le Colorado reste la référence en matière de réglementation de l’IA aux États-Unis.
Perspectives d’avenir
Le Bureau a noté que bien qu’il existe des désaccords sur le cadre approprié pour réglementer la technologie de l’IA, y compris le niveau de centralisation adéquat, il « surveille activement l’efficacité des différents cadres réglementaires, tels que la loi sur l’IA de l’UE, pour éclairer les futures propositions législatives et réglementaires. »
Il a conclu en ajoutant qu’il continuerait à écouter et à apprendre à mesure que l’IA évolue et à explorer « des moyens appropriés pour encourager l’innovation tout en protégeant les New-Yorkais. »
Pour que l’intelligence artificielle (IA) fonctionne correctement dans le cadre de la loi et prospère face à des défis croissants, elle doit intégrer un système de blockchain d’entreprise qui garantit la qualité et la propriété des données, permettant ainsi de sécuriser les données tout en garantissant leur immutabilité.
Vous débutez avec la blockchain ? Consultez la section Blockchain pour débutants de CoinGeek, le guide ultime pour en savoir plus sur la technologie blockchain.