Technologie
Crédit : VentureBeat réalisé avec Midjourney
Une enquête récente met en lumière la demande croissante des dirigeants d’entreprises américaines pour une réglementation et une gouvernance solides de l’IA, soulignant des préoccupations grandissantes concernant la confidentialité des données, les risques de sécurité et l’utilisation éthique des technologies d’intelligence artificielle.
Cette étude, réalisée par The Harris Poll pour le compte de la société d’intelligence des données Collibra, offre un aperçu détaillé de la manière dont les entreprises naviguent dans le paysage complexe de l’adoption et de la réglementation de l’IA.
Selon le sondage, qui a interrogé 307 adultes américains occupant des postes de direction ou supérieurs, un impressionnant 84 % des décideurs en matière de données, de confidentialité et d’IA soutiennent la mise à jour des lois sur le droit d’auteur aux États-Unis pour protéger contre l’IA. Ce sentiment reflète la tension croissante entre l’avancement technologique rapide et des cadres juridiques obsolètes.
Droit d’auteur : le défi de l’IA à la propriété intellectuelle à l’ère numérique
« L’IA a bouleversé et modifié à jamais la relation entre les fournisseurs de technologie et les créateurs », a déclaré Felix Van de Maele, co-fondateur et PDG de Collibra, lors d’une interview. « La rapidité avec laquelle les entreprises, grandes et petites, déploient des outils et des technologies d’IA générative a accéléré le besoin de redéfinir ce que signifie ‘usage équitable’ et d’appliquer rétroactivement une loi sur le droit d’auteur vieille de plusieurs siècles à des technologies et outils du XXIe siècle. »
Van de Maele a souligné la nécessité d’équité dans ce nouveau paysage. « Les créateurs de contenu méritent plus de transparence, de protection et de compensation pour leur travail », a-t-il expliqué. « Les données sont la colonne vertébrale de l’IA, et tous les modèles ont besoin de données de haute qualité et fiables, comme le contenu protégé par le droit d’auteur, pour fournir des réponses de qualité. Il semble juste que les créateurs de contenu reçoivent la compensation et la protection qu’ils méritent. »
La demande de mise à jour des lois sur le droit d’auteur survient dans un contexte de plusieurs poursuites judiciaires très médiatisées contre des entreprises d’IA pour violation présumée des droits d’auteur. Ces affaires ont mis en lumière les questions complexes entourant l’utilisation par l’IA de matériel protégé pour des fins d’entraînement.
En plus des préoccupations liées au droit d’auteur, l’enquête a révélé un fort soutien pour la compensation des individus dont les données sont utilisées pour former des modèles d’IA. Un impressionnant 81 % des répondants ont soutenu l’idée que les grandes entreprises technologiques devraient fournir une telle compensation, signalant un changement dans la manière dont les données personnelles sont valorisées à l’ère de l’IA.
« Tous les créateurs de contenu, quelle que soit leur taille, méritent d’être compensés et protégés pour l’utilisation de leurs données », a déclaré Van de Maele. « Alors que nous passons d’un talent en IA à un talent en données, que nous verrons davantage en 2025, la frontière entre un créateur de contenu et un citoyen des données — quelqu’un qui a accès aux données, les utilise pour faire son travail et a un sens des responsabilités envers ces données — s’estompera encore plus. »
Patchwork réglementaire : la poussée pour une surveillance de l’IA au niveau des États en l’absence de directives fédérales
L’enquête a également révélé une préférence pour la réglementation de l’IA au niveau fédéral et étatique plutôt que pour une supervision internationale. Ce sentiment s’aligne avec le paysage réglementaire actuel aux États-Unis, où des États comme le Colorado ont commencé à mettre en œuvre leurs propres réglementations sur l’IA en l’absence de directives fédérales complètes.
« Des États comme le Colorado, les premiers à déployer des réglementations complètes sur l’IA, ont établi un précédent — certains diraient prématurément — mais c’est un bon exemple de ce qui doit être fait pour protéger les entreprises et les citoyens dans chaque État », a déclaré Van de Maele. « En l’absence de garde-fous concrets au niveau fédéral, les entreprises se tourneront vers leurs responsables d’État pour les guider et les préparer. »
Fait intéressant, l’étude a révélé un fossé significatif entre les grandes et les petites entreprises en ce qui concerne leur soutien à la réglementation gouvernementale de l’IA. Les grandes entreprises (plus de 1000 employés) étaient beaucoup plus susceptibles de soutenir les réglementations fédérales et étatiques par rapport aux petites entreprises (1 à 99 employés).
« Je pense que cela se résume aux ressources disponibles, au temps et au retour sur investissement », a déclaré Van de Maele, expliquant cette disparité. « Les petites entreprises sont plus susceptibles d’aborder la ‘nouvelle’ technologie avec scepticisme et prudence, ce qui est compréhensible. Je pense également qu’il existe un fossé dans la compréhension des applications réelles possibles pour les petites entreprises et que l’IA est souvent présentée comme ‘créée par les grandes entreprises pour les grandes entreprises’ et nécessite un investissement significatif et une perturbation potentielle des modèles opérationnels et des processus internes actuels. »
L’enquête a également mis en évidence un manque de confiance, les répondants exprimant une grande confiance dans la direction de l’IA de leurs propres entreprises, mais une confiance plus faible envers le gouvernement et les grandes entreprises technologiques. Cela représente un défi majeur pour les décideurs et les géants de la technologie alors qu’ils s’efforcent de façonner l’avenir de la réglementation de l’IA.
Les préoccupations en matière de confidentialité et les risques de sécurité figurent en tête de liste des menaces perçues à la réglementation de l’IA aux États-Unis, 64 % des répondants citant chacune comme une préoccupation majeure. En réponse, des entreprises comme Collibra développent des solutions de gouvernance de l’IA pour aborder ces questions.
« Sans une gouvernance appropriée de l’IA, les entreprises sont plus susceptibles d’avoir des préoccupations en matière de confidentialité et des risques de sécurité », a déclaré Van de Maele. Il a poursuivi en expliquant : « Plus tôt cette année, Collibra a lancé Collibra AI Governance, qui permet aux équipes de différents domaines de collaborer efficacement, garantissant que les projets d’IA respectent les mandats légaux et de confidentialité, minimisent les risques de données et améliorent la performance des modèles ainsi que le retour sur investissement. »
L’avenir du travail : formation à l’IA et essor du citoyen des données
Alors que les entreprises continuent de faire face à l’avancement rapide des technologies d’IA, l’enquête a révélé que 75 % des répondants affirment que leurs entreprises priorisent la formation et le perfectionnement en IA. Cet accent mis sur l’éducation et le développement des compétences est susceptible de redéfinir le marché du travail dans les années à venir.
En regardant vers l’avenir, Van de Maele a énoncé les priorités clés pour la gouvernance de l’IA aux États-Unis. « En fin de compte, nous devons envisager trois à cinq ans dans le futur. C’est la vitesse à laquelle l’IA évolue », a-t-il déclaré. Il a ensuite énuméré quatre priorités principales : transformer les données en la plus grande monnaie, et non en contrainte ; créer un cadre de confiance et éprouvé ; se préparer à l’Année du Talent en Données ; et prioriser l’accès responsable avant l’IA responsable.
« Tout comme la gouvernance ne peut pas se limiter à l’informatique, la gouvernance des données ne peut pas se limiter à la quantité de données. Elle doit également se concentrer sur la qualité des données », a déclaré Van de Maele.
Alors que l’IA continue de transformer les industries et de défier les cadres réglementaires existants, le besoin de stratégies de gouvernance complètes devient de plus en plus évident. Les résultats de cette enquête suggèrent que, bien que les entreprises adoptent les technologies d’IA, elles sont également pleinement conscientes des risques potentiels et cherchent à ce que les décideurs fournissent des directives claires pour un développement et un déploiement responsables.
Les années à venir devraient être marquées par des débats intenses et des négociations alors que les parties prenantes du gouvernement, de l’industrie et de la société civile s’efforcent de créer un environnement réglementaire qui favorise l’innovation tout en protégeant les droits individuels et en promouvant l’utilisation éthique de l’IA. À mesure que ce paysage évolue, les entreprises de toutes tailles devront rester informées et adaptables, en mettant l’accent sur une gouvernance des données robuste et une éthique de l’IA pour naviguer dans les défis et les opportunités à venir.