Les passionnés d’IA se souviendront qu’il y a tout juste un an, le 21 juillet 2023, Biden posait aux côtés de sept dirigeants technologiques de premier plan à la Maison Blanche. Il venait de conclure un accord dans lequel ces derniers acceptaient de respecter huit règles strictes visant le secteur de l’IA à l’époque. Une année peut apporter de nombreux changements !
Ces engagements volontaires ont été salués comme une orientation nécessaire pour un secteur de l’IA en pleine expansion, qui développait des technologies puissantes sans véritables garde-fous. Depuis, huit autres entreprises ont adhéré à ces engagements, et la Maison Blanche a émis un décret exécutif qui les élargit, par exemple en exigeant que les développeurs partagent les résultats des tests de sécurité des nouveaux modèles d’IA avec le gouvernement américain si ces tests révèlent que la technologie pourrait représenter un risque pour la sécurité nationale.
La politique américaine est extrêmement polarisée, et il est peu probable que des réglementations sur l’IA soient adoptées dans un avenir proche. Ainsi, ces engagements, associés à certaines lois existantes telles que celles sur la concurrence et la protection des consommateurs, constituent le meilleur moyen de protéger les citoyens des dangers liés à l’IA. Pour marquer le premier anniversaire de ces engagements volontaires, j’ai décidé d’examiner ce qui s’est passé depuis. J’ai demandé aux sept entreprises initiales qui avaient signé ces engagements de partager autant d’informations que possible sur leurs actions pour s’y conformer, j’ai vérifié leurs réponses avec quelques experts externes, et j’ai tenté de donner une idée des progrès réalisés.
Silicon Valley n’apprécie guère la réglementation et soutient que cela freine l’innovation. Actuellement, les États-Unis comptent sur la bonne volonté du secteur technologique pour protéger ses consommateurs, mais ces entreprises peuvent modifier leurs politiques à tout moment sans encourir de véritables conséquences. C’est là le problème des engagements non contraignants : ils sont faciles à signer et tout aussi faciles à oublier.
Cela ne signifie pas qu’ils n’ont aucune valeur. Ils peuvent être utiles pour établir des normes autour du développement de l’IA et exercer une pression publique sur les entreprises pour qu’elles s’améliorent. En seulement un an, les entreprises technologiques ont mis en œuvre des changements positifs, tels que le red teaming en IA, le watermarking, et des investissements dans la recherche sur la sécurité des systèmes d’IA. Cependant, ces engagements sont uniquement sur une base volontaire, ce qui signifie que les entreprises peuvent toujours choisir de s’en retirer. Cela soulève la question cruciale pour l’avenir : quelle direction la politique américaine en matière d’IA prendra-t-elle sous le successeur de Biden ?
Le débat sur la réglementation de l’IA ne risque pas de disparaître si Donald Trump remporte l’élection présidentielle en novembre, déclare Brandie Nonnecke, directrice du CITRIS Policy Lab à l’UC Berkeley.
« Parfois, les partis ont des préoccupations différentes concernant l’utilisation de l’IA. L’un pourrait être plus préoccupé par les effets sur l’emploi, tandis qu’un autre pourrait se soucier davantage des biais et de la discrimination », explique Nonnecke. « Il est clair qu’il s’agit d’une question bipartisane qui nécessite des garde-fous et une supervision du développement de l’IA aux États-Unis », ajoute-t-elle.
Trump n’est pas étranger à l’IA. Alors qu’il était en fonction, il a signé un décret exécutif appelant à un investissement accru dans la recherche sur l’IA et demandant au gouvernement fédéral d’utiliser davantage l’IA, coordonné par un nouveau Bureau national de l’initiative IA. Il a également émis des directives préliminaires sur une IA responsable. S’il revenait au pouvoir, il envisagerait de supprimer le décret exécutif de Biden et de mettre en place son propre décret sur l’IA qui réduirait la réglementation et établirait un « Projet Manhattan » pour renforcer l’IA militaire. Pendant ce temps, Biden continue d’appeler le Congrès à adopter des réglementations contraignantes sur l’IA. Il n’est donc pas surprenant que les milliardaires de Silicon Valley soutiennent Trump.
Découvrez la suite de L’Algorithme
Apprentissage Approfondi
Un nouveau modèle de prévision météorologique de Google allie IA et physique traditionnelle
Les chercheurs de Google DeepMind ont développé un nouveau modèle de prévision météorologique appelé NeuralGCN. Ce modèle combine l’apprentissage automatique avec des techniques plus conventionnelles, ce qui pourrait permettre d’obtenir des prévisions précises à un coût bien inférieur à celui actuel, tout en comblant le fossé entre la physique traditionnelle et l’IA qui s’est creusé ces dernières années parmi les experts en prévision météorologique.
Quel est l’enjeu ? Bien que les nouvelles techniques d’apprentissage automatique qui prédisent la météo en apprenant à partir de données passées soient extrêmement rapides et efficaces, elles peuvent rencontrer des difficultés pour les prévisions à long terme. Les modèles de circulation générale, qui dominent la prévision météorologique depuis 50 ans, utilisent des équations complexes pour modéliser les changements dans l’atmosphère ; ils fournissent des projections précises mais sont très lents et coûteux à exécuter. Bien que les experts soient divisés sur l’outil le plus fiable à l’avenir, le nouveau modèle de Google tente de combiner les deux. Le résultat est un modèle capable de produire des prévisions de qualité plus rapidement et avec moins de puissance de calcul.
Bits et Octets
Il pourrait bientôt être légal de déverrouiller l’IA pour en comprendre le fonctionnement
Il pourrait devenir plus facile de contourner les mesures de protection technique sur les systèmes d’IA afin de les examiner pour détecter des biais et des contenus nuisibles, ainsi que pour en apprendre davantage sur les données sur lesquelles ils ont été formés, grâce à une exemption à la loi américaine sur le droit d’auteur que le gouvernement envisage actuellement. (404 Media)
Les données qui alimentent l’IA disparaissent rapidement
Au cours de l’année écoulée, de nombreuses sources en ligne essentielles pour les données d’entraînement de l’IA, telles que les sites d’actualités, ont bloqué les entreprises de l’extraction de leur contenu. Une étude du MIT a révélé que 5 % de toutes les données, et 25 % des données provenant des sources de la plus haute qualité, ont été restreintes. (The New York Times)
OpenAI est en pourparlers avec Broadcom pour développer une nouvelle puce IA
Le PDG d’OpenAI, Sam Altman, travaille sur un nouveau projet de puce qui réduirait la dépendance d’OpenAI à Nvidia, qui détient un quasi-monopole sur les puces d’IA. L’entreprise a discuté avec plusieurs concepteurs de puces, dont Broadcom, mais il reste encore un long chemin à parcourir avant que cela ne se concrétise. Si cela réussit, cela pourrait considérablement augmenter la puissance de calcul dont OpenAI dispose pour créer des modèles plus puissants. (The Information)