Fuites de données, piratages, faux mails: le développement de l’intelligence artificielle (IA) est au coeur d’un exercice de crise de cybersécurité mardi près de Paris, alors que cette technologie permet de mener de nouvelles attaques… comme de s’en défendre.
Dans l’enceinte du Campus cyber à Puteaux (Hauts-de-Seine), près de 200 salariés de la «tech» se sont réunis en marge du sommet de Paris sur l’intelligence artificielle. Objectif: se confronter à des scénarios de crise mêlant intelligence artificielle et cybersécurité, sous la houlette de l’Agence nationale de sécurité des systèmes d’information (Anssi), et proposer des solutions face à des attaques fictives.
«Comme dans les équipes informatiques des entreprises, où les développeurs utilisent les modèles d’IA pour générer du code plus rapidement, les attaquants l’utilisent pour générer des outils d’attaque», a expliqué Thiébaut Meyer, directeur des stratégies de sécurité chez Google Cloud security, filiale du géant américain.
Dans la lignée de ChatGPT, le robot conversationnel développé par OpenAI rendu public fin 2022, de nombreux outils d’intelligence artificielle permettent de générer des textes, mais également des images très réalistes. De quoi produire de faux mails, des photos ou vidéos de personnes connues ou de confiance, de simuler des voix pour tromper un utilisateur… Autant de moyens permettant de faciliter des cyberattaques, une fois entre les mains de groupes mal intentionnés. Ces craintes ont également été abordées au salon Cyber/IA, organisé à Paris début février. L’intelligence artificielle met à la portée du plus grand nombre des «techniques d’attaque qui étaient autrefois accessibles à la criminalité organisée», y avait pointé le général Patrick Perrot, coordonnateur IA pour le commandement de la cyberdéfense du ministère des Armées.
«Les faux ordres de virement, ce n’est pas une nouvelle infraction. Par contre, elle est rendue beaucoup plus efficace parce que beaucoup plus vraisemblable», avait-il expliqué. Un constat alors partagé par Michel Van Den Berghe, ancien président du Campus cyber.
Plutôt que de «nouvelles pratiques» au niveau des cyberattaques, l’intelligence artificielle a amené «des améliorations de pratiques», avait-il précisé. Mais, «on le voit aujourd’hui, de nombreuses technologies (…) utilisent l’intelligence artificielle pour détecter les comportements douteux». L’IA a ainsi été rapidement adoptée par de nombreuses entreprises proposant des systèmes de cybersécurité, à l’image d’Elastic. Grâce à elle, les menaces peuvent en effet être détectées et les causes d’une attaque sont également plus facilement repérables.
«Nous travaillons aujourd’hui de plus en plus à faire en sorte d’automatiser cette capacité à détecter la cause de la racine de l’attaque», a raconté Yannick Fihma, directeur des solutions architecture pour la région Europe, Moyen-Orient et Afrique chez Elastic. Le directeur de l’Anssi, Vincent Strubel, se veut lui plus prudent sur les avancées de cette technologie. «Cela va améliorer des tas de choses mais ça ne va pas forcément régler tous les problèmes», selon lui.
Parmi les effets bénéfiques, cette technologie aide, par exemple, à cartographier les émissions de méthane et à modéliser le réchauffement.