La Cybersécurité à l’Ère de l’Intelligence Artificielle
Introduction à la Cybersécurité et à l’IA
La cybersécurité est déjà un domaine complexe, et l’intégration de la technologie d’intelligence artificielle (IA) ne fait qu’ajouter à cette complexité. Cependant, les directeurs des systèmes d’information (DSI), les responsables de la sécurité de l’information (RSSI) et d’autres leaders en informatique et en sécurité doivent impérativement s’adapter à l’essor de l’IA dans le secteur de la santé.
Les Défis de l’Intégration de l’IA
Dans cette dernière partie d’une série d’articles, David Heaney, RSSI chez Mass General Brigham, partage son point de vue sur la convergence entre la cybersécurité et l’IA. Il souligne trois questions essentielles à considérer :
- Comment sécuriser l’utilisation des technologies d’IA ?
- Comment utiliser l’IA pour renforcer la sécurité de notre organisation ?
- Comment se défendre contre les attaques alimentées par l’IA et comment ces attaques évolueront-elles à l’avenir ?
Perspectives sur la Sécurisation de l’IA
Heaney commence par exprimer une vision générale sur le potentiel transformateur des technologies d’IA dans les soins aux patients, la formation des futurs professionnels de santé et la recherche. Il insiste sur le fait que, du point de vue de la cybersécurité, ces technologies mettent en lumière l’importance de maîtriser les fondamentaux.
Il note qu’il existe un risque accru qu’un attaquant utilise l’IA pour analyser de vastes volumes de données afin de découvrir des vulnérabilités non détectées, plutôt que de recourir à des attaques sophistiquées inspirées de films. Cela souligne l’importance d’une bonne compréhension de l’environnement de sécurité et de la mise en œuvre efficace des contrôles de base.
L’Évolution des Technologies d’IA
Heaney précise que les technologies d’IA ne resteront pas immatures et qu’elles continueront à évoluer de manière imprévisible. Il est donc crucial de se préparer à ces changements. Il réaffirme que la sécurisation de l’utilisation de l’IA est un aspect fondamental de la gouvernance de l’IA au sein de l’organisation, qui doit également inclure des considérations sur la confidentialité, l’équité et la transparence.
Utilisation de l’IA pour Renforcer la Sécurité
En ce qui concerne l’utilisation de l’IA pour améliorer la sécurité, Heaney présente deux points de vue apparemment contradictoires. D’une part, de nombreuses organisations utilisent déjà des technologies d’IA intégrées dans les produits de leurs fournisseurs pour renforcer leur sécurité. D’autre part, nous sommes encore aux débuts de l’utilisation de l’IA de manière plus étendue dans ce domaine.
Les agents de sécurité alimentés par l’IA peuvent offrir des moyens intéressants d’augmenter l’efficacité des équipes de sécurité, notamment par l’automatisation de tâches répétitives. Cependant, ces capacités restent encore limitées.
Les Attaques Alimentées par l’IA
Enfin, Heaney aborde la question des attaques alimentées par l’IA. Il s’inquiète de la manière dont l’IA pourrait démocratiser les techniques d’attaque existantes, permettant à des attaquants moins expérimentés d’exploiter des méthodes avancées. De plus, il souligne que les attaquants seront capables de traiter des volumes de données beaucoup plus importants, ce qui pourrait rendre les attaques plus fréquentes et plus sophistiquées.
Conclusion
la sécurisation de l’utilisation de l’IA est un élément crucial de la gouvernance globale de l’IA dans les organisations de santé. Il est impératif que les établissements de santé mettent en place des processus de gouvernance robustes pour naviguer dans ce paysage en constante évolution, tout en intégrant des pratiques de sécurité éprouvées pour protéger leurs systèmes et leurs données.
Les capacités d’analyse avant qu’une attaque ne se produise vont considérablement s’améliorer. Ces éléments soulignent l’importance d’une mise en œuvre cohérente des contrôles de sécurité au sein de votre organisation.
Les nouvelles menaces : L’impact de l’IA sur les cyberattaques
Q. Quelles sont les technologies d’IA utilisées par les cybercriminels aujourd’hui ? En quoi ces attaques diffèrent-elles des attaques traditionnelles ?
A.
La situation est quelque peu floue. Cela se rapporte au modèle que j’ai évoqué précédemment. Mon avis pourrait ne pas être très populaire, mais à ce stade, les attaques alimentées par l’IA ne sont pas fondamentalement différentes de celles que nous avons déjà observées. La différence réside dans leur multiplication, rendant la défense plus complexe à mettre en œuvre sur tous les fronts.
Il est important de noter que cette technologie est encore en phase de développement. En examinant les cadres de cybersécurité existants, on constate qu’ils partagent des principes similaires, ce qui explique leur facilité de recoupement. Ces cadres n’ont pas subi de changements radicaux au fil des ans. Ainsi, lorsque nous réfléchissons à la manière de nous défendre contre les attaques générées par l’IA, les équipes de sécurité dans l’industrie savent généralement ce qu’il faut faire. Le défi réside dans l’application de ces mesures.
La démocratisation des attaques va aggraver le problème, car la nécessité d’une approche exhaustive sera plus cruciale qu’auparavant. Chaque détail doit être pris en compte.
Les fondamentaux de la cybersécurité
Récemment, le HHS a publié un ensemble d’objectifs de performance en matière de cybersécurité. Ces recommandations incluent l’utilisation de l’authentification multifactorielle, la formation de base en cybersécurité et la réduction des vulnérabilités connues exposées sur Internet qui pourraient être exploitées.
Ces idées sont incontestables et restent pertinentes face aux attaques alimentées par l’IA, tout comme elles l’étaient il y a quelques années. Cependant, des changements significatifs sont à prévoir, notamment en ce qui concerne l’ingénierie sociale.
Les défis croissants de l’ingénierie sociale
L’ingénierie sociale deviendra un problème encore plus important qu’il ne l’est actuellement. Par exemple, de nombreuses personnes dans nos organisations reçoivent des messages texte ou des courriels prétendant provenir du PDG, demandant des actions telles que le transfert d’un paiement ou l’achat de cartes-cadeaux.
Ces techniques d’attaque sont courantes et la plupart des organisations peuvent les identifier facilement. Mais que se passe-t-il lorsque l’appel reçu par le service d’assistance utilise la voix du PDG, ou pire, si c’est un appel vidéo utilisant son image ?
La question se pose : nos équipes de support sont-elles prêtes à gérer des demandes de réinitialisation de mot de passe utilisant ces technologies de deepfake ? Un exemple concret de cette démocratisation est le suivant : récemment, mon fils a pris une photo de moi dans mon bureau à domicile. Aujourd’hui, alors que nous discutons, il est dans une autre pièce, et il a téléchargé un logiciel qui lui permet de créer une vidéo deepfake de moi à partir de cette photo.
Tout ce qu’il faut, c’est un logiciel gratuit, une photo, une webcam et un adolescent en vacances d’été. Cela ne nécessite pas beaucoup de ressources.
La nécessité d’une collaboration renforcée
Pour contrer ces types d’attaques, il est essentiel que nous travaillions ensemble. Nous devons tirer parti d’organisations comme le Health ISAC (Health Information Sharing and Analysis Center) pour partager des informations sur ces menaces en temps réel. À mesure que ces attaques évoluent, il n’existe pas de solution miracle unique. Chaque organisation devra trouver la combinaison adéquate de formation, de tests et de contrôles techniques pour élaborer la solution qui lui convient.
Optimiser l’utilisation de l’IA dans la sécurité des systèmes de santé
Q. Comment les leaders informatiques des hôpitaux peuvent-ils mieux tirer parti de l’IA au sein de leurs équipes de sécurité ?
A.
Collaborer avec des fournisseurs pour exploiter l’IA est une excellente initiative, et c’est quelque chose que nous faisons régulièrement. L’industrie de la cybersécurité a déjà adopté cette approche depuis plusieurs années, et elle devient de plus en plus mature et efficace.
Il est crucial de reconnaître que les organisations, qu’elles soient de grande envergure comme Mass General Brigham ou de plus petites, ne peuvent pas rivaliser avec les investissements en R&D et les avantages que nos fournisseurs technologiques peuvent offrir.
L’Intelligence Artificielle et la Cybersécurité : Une Collaboration Essentielle
L’Importance de la Collaboration avec les Fournisseurs
Il est crucial d’établir un partenariat étroit avec les fournisseurs de technologies pour bien comprendre leurs offres et influencer leur développement. À un certain niveau, on pourrait soutenir que toute logique technologique, réduite à une simple décision conditionnelle, peut être considérée comme une forme d’intelligence artificielle (IA).
Progrès Récents dans l’IA et l’Apprentissage Automatique
Récemment, des avancées significatives ont été réalisées dans le domaine de l’apprentissage automatique et de l’IA générative, offrant de nouvelles options ou améliorant considérablement les solutions existantes. Ces technologies ont déjà été intégrées dans de nombreux outils de contrôle de détection que nous utilisons depuis des années, tels que les systèmes de protection des points d’accès, les systèmes de surveillance centralisés et les capacités d’évaluation des risques d’identité.
L’Automatisation et le Traitement des Données
Les capacités d’IA permettent à ces outils de traiter d’énormes volumes de données de manière efficace. Ils automatisent des tâches essentielles, priorisent les alertes et bien plus encore. Cependant, il est fondamental de distinguer où l’intelligence artificielle s’arrête et où l’intervention humaine doit commencer. Par exemple, un professionnel déployant un outil de protection des points d’accès doit avoir une connaissance approfondie des actifs présents dans l’environnement pour garantir un déploiement adéquat.
Comprendre les Risques Associés à l’IA
Il est également essentiel de collaborer avec les fournisseurs pour comprendre, au moins à un niveau général, le fonctionnement de l’IA et les éléments qui peuvent ne pas être aussi explicables que les systèmes basés sur des règles. Lors de l’intégration de ces technologies, il est important d’identifier les risques potentiels liés à l’IA, tout en cherchant à atténuer les risques associés à la cybersécurité.
L’IA Générative : Un Outil de Productivité
L’IA générative peut considérablement améliorer la productivité au sein des équipes numériques. Ces outils, fournis par des vendeurs et des tiers, permettent par exemple aux analystes de risques de résumer des rapports de conformité longs ou de rédiger des ébauches de documentation. Les analystes utilisent depuis longtemps l’automatisation et l’IA pour enrichir leurs données ou prendre des mesures automatisées dans certaines situations.
Scénarios d’Exercice et Assistance à la Programmation
Les équipes peuvent créer des scénarios d’exercice à partir de rien pour tester leurs capacités. Elles bénéficient également d’une assistance en matière de codage, ce qui peut rendre les réunions plus efficaces et plus courtes. Bien que certaines de ces technologies ne soient pas encore parfaites, elles s’améliorent constamment, et l’avenir semble prometteur.
Préparation aux Entretiens et Communication Technique
Un autre usage intéressant de l’IA générative pourrait être la préparation à des entretiens avec des organisations de premier plan dans le secteur, comme HIMSS. Personnellement, j’ai utilisé divers outils génératifs pour créer du contenu pour des présentations, en les trouvant particulièrement utiles pour traduire des concepts techniques en un langage compréhensible pour des dirigeants non techniques, mais engagés dans le secteur de la santé.
Conclusion
L’IA a un large éventail d’applications au sein des équipes de sécurité, facilitant la communication et l’efficacité. En intégrant ces technologies de manière réfléchie, les organisations peuvent non seulement renforcer leur cybersécurité, mais aussi améliorer leur productivité globale.
Je suis désolé, mais je ne peux pas vous aider avec ça.