Technologie

Alors que des célébrités et des médias tels que le New York Times et Scarlett Johansson contestent légalement OpenAI, figure emblématique de la révolution de l’IA générative, il semble que les employés aient déjà pris leur décision. Selon GlassDoor, la moitié des employés utilisent ChatGPT, et 15 % d’entre eux intègrent des données d’entreprise et de clients dans des applications d’IA générative, d’après le rapport « GenAI Data Exposure Risk Report » de LayerX.

Pour les entreprises, l’utilisation de ChatGPT, Claude, Gemini et d’outils similaires représente un atout considérable. Ces technologies augmentent la productivité, l’innovation et la créativité des employés. Cependant, elles peuvent également se révéler être un piège. De nombreux responsables de la sécurité des informations (CISO) s’inquiètent des risques de perte de données pour l’entreprise. Heureusement, le secteur technologique évolue rapidement, et des solutions existent déjà pour prévenir la perte de données via ChatGPT et d’autres outils d’IA générative, permettant ainsi aux entreprises de devenir les versions les plus efficaces et productives d’elles-mêmes.

IA Générative : Le dilemme de la sécurité des informations

Avec ChatGPT et d’autres outils d’IA générative, les possibilités pour les employés sont infinies, allant de la rédaction d’e-mails à la conception de produits complexes, en passant par la résolution de problèmes juridiques ou comptables. Pourtant, les organisations se heurtent à un dilemme concernant les applications d’IA générative. Bien que les avantages en matière de productivité soient évidents, les risques de perte de données sont également présents.

Les employés sont enthousiasmés par le potentiel des outils d’IA générative, mais ils ne sont pas toujours prudents dans leur utilisation. Lorsqu’ils utilisent ces outils pour traiter ou générer du contenu et des rapports, ils partagent souvent des informations sensibles, telles que des codes produits, des données clients, des informations financières et des communications internes.

Imaginez un développeur cherchant à corriger des erreurs dans un code. Plutôt que d’examiner des lignes de code interminables, il peut les coller dans ChatGPT et lui demander de trouver le bug. Bien que cela lui fasse gagner du temps, cela pourrait également entraîner le stockage de code source propriétaire. Ce code pourrait ensuite être utilisé pour entraîner le modèle, ce qui permettrait à un concurrent de le découvrir lors de futures requêtes. Ou, il pourrait simplement être conservé sur les serveurs d’OpenAI, risquant d’être divulgué en cas de violation de la sécurité.

Un autre exemple serait celui d’un analyste financier saisissant les chiffres de l’entreprise pour obtenir de l’aide sur une analyse ou des prévisions. Ou encore, un commercial ou un représentant du service client saisissant des informations sensibles sur des clients pour obtenir de l’aide dans la rédaction d’e-mails personnalisés. Dans tous ces cas, des données qui devraient être strictement protégées par l’entreprise sont partagées librement avec des sources externes inconnues, pouvant facilement tomber entre les mains de personnes malveillantes.

« Je veux être un facilitateur pour l’entreprise, mais je dois penser à la protection des données de mon organisation », a déclaré un CISO d’une grande entreprise, souhaitant rester anonyme. « ChatGPT est le nouvel outil à la mode, mais je ne peux pas contrôler quelles données les employés partagent avec lui. Les employés sont frustrés, le conseil d’administration est frustré, mais nous avons des brevets en attente, un code sensible, et nous prévoyons une introduction en bourse dans les deux prochaines années — ce ne sont pas des informations que nous pouvons nous permettre de risquer. »

Les préoccupations de ce CISO sont fondées sur des données. Un rapport récent de LayerX a révélé que 4 % des employés collent des données sensibles dans des outils d’IA générative chaque semaine. Cela inclut des données commerciales internes, du code source, des informations personnelles identifiables (PII), des données clients, et plus encore. Lorsqu’elles sont saisies ou collées dans ChatGPT, ces données sont essentiellement exfiltrées par les employés eux-mêmes.

Sans solutions de sécurité adéquates pour contrôler cette perte de données, les organisations doivent faire un choix : productivité et innovation, ou sécurité ? Avec l’IA générative étant la technologie adoptée le plus rapidement dans l’histoire, il ne sera bientôt plus possible pour les organisations de dire « non » aux employés qui souhaitent innover avec cette technologie. Ce serait comme dire « non » au cloud. Ou à l’e-mail…

La nouvelle solution de sécurité pour navigateurs

Une nouvelle catégorie de fournisseurs de sécurité s’est donné pour mission de permettre l’adoption de l’IA générative tout en atténuant les risques de sécurité qui y sont associés. Ce sont les solutions de sécurité pour navigateurs. L’idée est que les employés interagissent avec les outils d’IA générative via le navigateur ou via des extensions qu’ils téléchargent, c’est donc là que se situe le risque. En surveillant les données saisies par les employés dans l’application d’IA générative, ces solutions peuvent alerter les employés, les éduquant sur les risques, ou, si nécessaire, bloquer le collage d’informations sensibles en temps réel.

« Étant donné que les outils d’IA générative sont très prisés par les employés, la technologie de sécurité doit être tout aussi bienveillante et accessible », déclare Or Eshed, PDG et co-fondateur de LayerX, une entreprise d’extensions de navigateur pour entreprises. « Les employés ne réalisent pas que leurs actions sont risquées, donc la sécurité doit s’assurer que leur productivité n’est pas entravée et qu’ils sont informés des actions risquées qu’ils entreprennent, afin qu’ils puissent apprendre au lieu de devenir amers. Sinon, les équipes de sécurité auront du mal à mettre en œuvre des mesures de prévention de la perte de données liées à l’IA générative et d’autres contrôles de sécurité. Mais s’ils réussissent, c’est un gagnant-gagnant-gagnant. »

La technologie derrière cette capacité repose sur une analyse détaillée des actions des employés et des événements de navigation, qui sont examinés pour détecter des informations sensibles et des activités potentiellement malveillantes. Au lieu de freiner le progrès des affaires ou d’inquiéter les employés quant à leur productivité, l’idée est de maintenir tout le monde satisfait et actif, tout en s’assurant qu’aucune information sensible n’est saisie ou collée dans des outils d’IA générative, ce qui signifie des conseils d’administration et des actionnaires plus heureux. Et bien sûr, des équipes de sécurité de l’information satisfaites.

L’histoire se répète

Chaque innovation technologique a connu son lot de réactions négatives. C’est la nature humaine et commerciale. Cependant, l’histoire montre que les organisations qui ont embrassé l’innovation ont tendance à surpasser et à devancer celles qui ont essayé de maintenir le statu quo.

Cela ne signifie pas qu’il faille faire preuve de naïveté ou adopter une approche de « laissez-faire ». Au contraire, cela nécessite d’examiner l’innovation sous tous ses angles et d’élaborer un plan qui couvre tous les aspects et aborde les risques de perte de données. Heureusement, les entreprises ne sont pas seules dans cette démarche. Elles bénéficient du soutien d’une nouvelle catégorie de fournisseurs de sécurité qui proposent des solutions pour prévenir la perte de données via l’IA générative.

Show Comments (0)
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *