L’intelligence ⁢artificielle renforce la capacité des cyberattaquants à franchir ​les défenses des ⁣entreprises. Les responsables de la sécurité de l’information peuvent tirer parti des capacités spécialisées de l’IA pour⁣ se⁢ défendre contre les attaques alimentées par l’IA, sécuriser l’utilisation de l’IA par les employés et protéger leurs applications d’IA.

La pression déjà considérable sur les responsables de la⁢ sécurité des entreprises est aggravée par l’émergence de l’intelligence artificielle, de l’apprentissage automatique et de l’IA générative. Les menaces telles⁤ que les‌ logiciels malveillants, le phishing et les⁢ ransomwares connaissent une croissance rapide, ⁤renforcées ​par l’IA, qui améliore l’efficacité des attaques de phishing, crée des identités fausses convaincantes ou imite des personnes réelles.

L’accès facile à des plateformes d’IA générative en ligne, comme ChatGPT, permet aux employés de télécharger, parfois sans le vouloir, des données sensibles ou confidentielles. Dans les mains des cybercriminels, l’IA exploite deux vecteurs​ d’attaque :

  • Elle rend une variété d’attaques existantes – telles que l’ingénierie⁤ sociale, le phishing, les deep fakes et les logiciels malveillants – plus ⁤rapides et beaucoup plus efficaces.
  • Elle permet l’exploitation des applications et des modèles d’IA des entreprises‍ pendant et après leur développement, comme le déploiement d’attaques de contamination lors de la phase d’entraînement des modèles ou le détournement⁤ des modèles en leur fournissant des informations incorrectes.

Les‌ organisations réagissent à la⁣ montée de l’IA de deux manières :

  • En encourageant une ⁤utilisation généralisée, sans véritable supervision ni compréhension des risques.
  • En interdisant presque toute utilisation (sauf pour‌ un petit groupe de spécialistes), ce qui limite considérablement son potentiel.

Les responsables de la sécurité de l’information doivent adopter une approche qui soit à la fois globale, ⁢flexible et réaliste.

Utiliser l’IA⁢ pour contrer l’IA

Les responsables ⁣de⁣ la sécurité ‍s’efforcent déjà de trouver des moyens d’utiliser l’IA pour se défendre contre ces attaques, surveiller​ l’utilisation de l’IA par les employés et protéger les applications de l’organisation, y compris les applications et ‌modèles d’IA. L’adoption d’outils de sécurité individuels, intégrant désormais l’IA, est déjà en cours.

Cependant, cette approche ⁣ad ‍hoc présente des inconvénients : l’intégration est minimale ou inexistante ; la gestion centralisée est presque impossible ; le partage de données est difficile ; et la charge⁢ de travail du personnel de sécurité ⁣augmente.

Une approche alternative : des plateformes ‍de sécurité basées sur l’IA

Une ⁤meilleure option consiste à utiliser des plateformes de cybersécurité connectées, chacune dotée de‌ capacités d’IA conçues et formées pour répondre​ à une large fonction de sécurité, comme⁢ la protection du code, l’utilisation par les employés et les opérations de sécurité (SecOps). Si nécessaire, ces plateformes peuvent être complétées par des outils de ​sécurité spécialisés ciblant des vulnérabilités spécifiques.

Idéalement, ces plateformes de sécurité alimentées par l’IA sont ​conçues pour fonctionner en harmonie, permettant une gestion centralisée‍ et un partage de données, et – grâce à des API ouvertes – avec au moins certains outils de sécurité existants. Cette approche de consolidation​ peut être considérée comme la « plateformisation » de la cybersécurité des entreprises à l’ère de l’IA, dépassant le⁢ débat stérile entre « meilleure solution » et « solution unique ».

Les responsables de la sécurité des entreprises peuvent commencer par se concentrer sur quelques priorités clés.

Se défendre contre les attaques alimentées par ⁤l’IA : Bloquer les menaces sophistiquées⁣ basées sur le web, les menaces zero-day, les attaques d’évasion de commande et ⁣de contrôle, ainsi que les attaques​ de détournement DNS.

Sécuriser l’utilisation de l’IA par les employés : Classifier et prioriser les applications d’IA‌ générative pour évaluer les risques et détecter les anomalies ; créer et appliquer des⁢ politiques d’utilisation très spécifiques ; et alerter et former les employés sur l’utilisation⁤ sécurisée de l’IA.

Sécuriser le développement de l’IA : Surveiller en temps réel les flux de trafic d’IA couvrant les‍ applications, les modèles, l’accès des⁤ utilisateurs et les ​menaces d’infrastructure ; et ​permettre la ​détection d’anomalies pour⁣ protéger les modèles d’IA contre ‍la‌ manipulation.

Conclusion

L’IA confère à vos adversaires un pouvoir sans précédent. En utilisant l’IA dans des plateformes de cybersécurité connectées, vous pouvez acquérir le même pouvoir ⁢pour vous défendre contre les attaques ​alimentées par l’IA, sécuriser ⁢l’utilisation de l’IA par les employés et⁤ protéger votre chaîne d’approvisionnement logicielle d’IA.

Adoptez une approche plateforme pour lutter contre les menaces cybernétiques basées sur​ l’IA avec ‍des capacités également basées sur l’IA. Découvrez-en davantage ici.

Show Comments (0)
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *