Technologie : Un groupe de défense de la sécurité critique dénonce les grandes entreprises technologiques pour leurs systèmes d’IA défaillants
Le groupe de défense de la sécurité, The Dawn Project, intensifie ses efforts pour mettre en lumière les lacunes des systèmes d’intelligence artificielle (IA) et les raisons pour lesquelles leur utilisation dans des contextes critiques pour la sécurité est problématique.
The Dawn Project vise à sensibiliser le public aux dangers d’une « cyberattaque cataclysmique » qui pourrait découler de l’utilisation de logiciels commerciaux vulnérables et bogués dans des applications essentielles, telles que les systèmes d’approvisionnement en eau et le réseau électrique.
Sur son site, le groupe souligne que malgré les défauts évidents des systèmes d’IA, comme les chatbots qui peinent à répondre à des questions simples ou qui déforment des faits en raison de malentendus liés à leurs données d’entraînement, les « pionniers » de l’IA continuent de vanter des progrès exagérés. Selon The Dawn Project, cela laisse entendre que les développeurs d’IA se croient prêts à déployer ces systèmes dans les infrastructures majeures à l’échelle mondiale.
« Lorsque des systèmes d’IA sont intégrés dans des technologies majeures ayant un impact potentiellement dévastateur, il est crucial qu’ils ne faillent jamais lors d’incidents critiques pour la sécurité », a déclaré le groupe. « Les risques liés à la mise en circulation de ces technologies à grande échelle, notamment pour des applications militaires ou des machines lourdes, y compris les véhicules, ne peuvent être ignorés ni sous-estimés. »
Dans le cadre de sa campagne, qui inclut des publicités dans des publications telles que le Wall Street Journal et le New York Times pour alerter sur les risques inhérents à l’IA, Dan O’Dowd, entrepreneur en logiciels et fondateur de The Dawn Project, a critiqué le logiciel Full Self-Driving de Tesla. Il a affirmé qu’après dix ans de développement, la technologie d’IA de Tesla continue de commettre des infractions, comme dépasser illégalement un bus scolaire à l’arrêt et mettre en danger des enfants traversant la route.
La National Highway Traffic Safety Administration (NHTSA) des États-Unis a précédemment examiné si l’Autopilot de Tesla présentait un défaut créant un risque déraisonnable pour la sécurité des véhicules. Cette évaluation a impliqué une analyse approfondie des accidents, une étude des facteurs humains, des évaluations de véhicules et une analyse des technologies de contrôle des véhicules et d’engagement des conducteurs.
Le bureau des enquêtes sur les défauts de la NHTSA a rapporté qu’au moins 13 accidents, impliquant un ou plusieurs décès et de nombreux autres avec des blessures graves, ont été liés à une mauvaise utilisation prévisible du système par les conducteurs.
The Dawn Project a établi une analogie entre le joueur qui croit fermement en la validité de son « système » et les partisans de l’IA qui réclament d’énormes sommes d’argent et des infrastructures pour développer des systèmes d’IA encore plus puissants.
« Ils prétendent maîtriser une technologie qui propulsera l’humanité vers un paradis où chacun obtient tout ce qu’il désire sans avoir à travailler, ou peut-être cela conduira-t-il à l’extermination de tous », a déclaré le groupe. « Ils ne sont que des prédicateurs modernes vendant des remèdes miracles. »
Les publicités dépeignent Microsoft, Google et OpenAI comme des entreprises proposant des solutions d’IA douteuses. L’annonce affirme que Microsoft a investi 13 milliards de dollars dans ChatGPT d’OpenAI, mais lorsque l’on demande de lister les États américains se terminant par la lettre ‘Y’, trois des cinq réponses fournies étaient incorrectes.
« Les chercheurs en IA reconnaissent que les ‘hallucinations’ sont une faiblesse fondamentale et insoluble des grands modèles de langage et admettent qu’ils ne peuvent pas expliquer pourquoi les IA prennent certaines décisions erronées », a déclaré O’Dowd. « Nous devons exiger cohérence et fiabilité dans nos systèmes critiques pour la sécurité. Nous devons rejeter les IA hallucination et appliquer les mêmes normes rigoureuses de sécurité logicielle que celles que nous exigeons pour la sécurité nucléaire aux infrastructures critiques dont dépendent la société et des millions de vies. »
The Dawn Project a averti que les logiciels commerciaux ne devraient pas être utilisés dans des applications où il existe un risque de nuire ou de tuer une personne. « Ces systèmes ont déjà prouvé qu’ils n’étaient pas adaptés à leur usage », a-t-il déclaré. « Comment les maîtres de la technologie peuvent-ils prétendre qu’ils sont prêts à être utilisés dans des solutions d’infrastructure potentiellement mortelles ? »
En savoir plus sur l’intelligence artificielle, l’automatisation et la robotique
-
Cadre pour aider à détecter les hallucinations en santé avec l’IA
-
Guide pratique pour gérer les hallucinations génératives de l’IA
-
Munich Re observe une forte croissance dans l’assurance liée à l’IA
-
Bristol met en service un superordinateur d’IA au Royaume-Uni