Technologie
Crédit image : VentureBeat via DALL-E, OpenAI
Une enquête récente menée par PwC auprès de 1 001 dirigeants américains dans les secteurs des affaires et de la technologie révèle que 73 % des participants utilisent actuellement ou envisagent d’utiliser l’intelligence artificielle générative au sein de leurs organisations.
Cependant, seulement 58 % des répondants ont commencé à évaluer les risques liés à l’IA. Pour PwC, une IA responsable est liée à la valeur, à la sécurité et à la confiance, et doit faire partie des processus de gestion des risques d’une entreprise.
Jenn Kosar, responsable de l’assurance IA chez PwC, a déclaré à VentureBeat qu’il y a six mois, il était acceptable que les entreprises commencent à déployer certains projets d’IA sans réfléchir à des stratégies d’IA responsable, mais ce n’est plus le cas. « Nous avons progressé dans le cycle, donc le moment de se concentrer sur l’IA responsable est maintenant », a-t-elle affirmé. « Les projets précédents étaient internes et limités à de petites équipes, mais nous assistons désormais à une adoption à grande échelle de l’IA générative. »
Elle a ajouté que les projets pilotes d’IA générative informent en réalité beaucoup de stratégies d’IA responsable, car les entreprises peuvent déterminer ce qui fonctionne le mieux avec leurs équipes et comment elles utilisent les systèmes d’IA.
La question de l’IA responsable et de l’évaluation des risques a récemment pris de l’ampleur dans l’actualité après le déploiement par xAI d’Elon Musk d’un nouveau service de génération d’images via son modèle Grok-2 sur la plateforme sociale X (anciennement Twitter). Les premiers utilisateurs rapportent que le modèle semble largement sans restrictions, permettant aux utilisateurs de créer toutes sortes de contenus controversés et inflammatoires, y compris des deepfakes de politiciens et de célébrités dans des situations violentes ou sexuellement explicites.
Priorités à développer
Les répondants à l’enquête ont été interrogés sur 11 capacités que PwC a identifiées comme « un sous-ensemble de capacités que les organisations semblent prioriser aujourd’hui ». Celles-ci incluent :
- Formation continue
- Intégration de spécialistes des risques liés à l’IA
- Formations périodiques
- Protection des données
- Gestion des données
- Sécurité informatique
- Tests de modèles
- Gestion des modèles
- Gestion des risques liés aux tiers
- Logiciels spécialisés pour la gestion des risques liés à l’IA
- Surveillance et audit
Selon l’enquête de PwC, plus de 80 % des répondants ont signalé des progrès dans ces capacités. Cependant, 11 % ont affirmé avoir mis en œuvre les 11, bien que PwC ait noté que « nous soupçonnons que beaucoup d’entre eux surestiment leurs progrès ».
Il a été ajouté que certains de ces indicateurs pour une IA responsable peuvent être difficiles à gérer, ce qui pourrait expliquer pourquoi les organisations ont du mal à les mettre en œuvre pleinement. PwC a souligné que la gestion des données devra définir l’accès des modèles d’IA aux données internes et établir des garde-fous. Les méthodes de cybersécurité « héritées » pourraient être insuffisantes pour protéger le modèle lui-même contre des attaques telles que le poisoning de modèle.
Responsabilité et IA responsable vont de pair
Pour guider les entreprises dans leur transformation liée à l’IA, PwC a proposé des moyens de construire une stratégie complète d’IA responsable.
Une des suggestions est de créer un cadre de responsabilité, que Kosar a identifié comme l’un des défis rencontrés par les personnes interrogées. Elle a souligné l’importance d’assurer que la responsabilité et la propriété de l’utilisation et du déploiement de l’IA responsable soient attribuées à un cadre unique. Cela implique de considérer la sécurité de l’IA comme quelque chose qui dépasse la technologie, en désignant un directeur de l’IA ou un responsable de l’IA responsable qui collabore avec différents acteurs au sein de l’entreprise pour comprendre les processus commerciaux.
« Peut-être que l’IA sera le catalyseur pour rapprocher la technologie et le risque opérationnel », a déclaré Kosar.
PwC suggère également de réfléchir à l’ensemble du cycle de vie des systèmes d’IA, en allant au-delà de la théorie et en mettant en œuvre des politiques de sécurité et de confiance à travers toute l’organisation, en se préparant à d’éventuelles réglementations futures en renforçant les pratiques d’IA responsable et en développant un plan pour être transparent vis-à-vis des parties prenantes.
Kosar a été particulièrement surprise par les commentaires des répondants qui considéraient l’IA responsable comme un atout commercial pour leurs entreprises, ce qui, selon elle, incitera davantage d’entreprises à y réfléchir plus en profondeur.
« L’IA responsable, en tant que concept, ne concerne pas seulement le risque, mais elle devrait également être créatrice de valeur. Les organisations ont déclaré qu’elles considéraient l’IA responsable comme un avantage concurrentiel, qu’elles pouvaient fonder des services sur la confiance », a-t-elle conclu.