L’intelligence artificielle grand public transformée en main d’oeuvre pour les hackeurs ?

L’intelligence artificielle grand public transformée en main d’oeuvre pour les hackeurs ?

Les attaques informatiques, autrefois réservées aux spécialistes, deviennent reproductibles à grande échelle ou accessibles à des novices, au moyen de robots conversationnels détournés de leur fonction. Le phénomène, surnommé «vibe hacking» – en référence au «vibe coding», c’est-à-dire la création de code informatique par des non initiés – marque une «évolution inquiétante de la cybercriminalité assistée par l’IA», selon l’entreprise américaine Anthropic. Dans un rapport publié mercredi, l’entreprise, concurrente d’OpenAI et de son outil phare ChatGPT, a dévoilé qu’«un cybercriminel a utilisé Claude Code pour mener une opération d’extorsion de données à grande échelle». Le robot conversationnel Claude Code, spécialisé dans le code informatique, a ainsi été exploité pour mener des attaques qui ont «potentiellement» affecté au moins 17 organisations distinctes sur un mois. Utilisé pour créer des logiciels malveillants, l’outil a permis à l’auteur des attaques, banni depuis par Anthropic, de recueillir des données personnelles, médicales, et des identifiants de connexion, puis de les classer et d’envoyer des demandes de rançon s’élevant jusqu’à 500.000 dollars. Un parcours que les «mesures de sécurité sophistiquées», qu’Anthropic assure avoir déployées, n’ont pas empêché. Le cas d’Anthropic n’est pas isolé. Il résonne avec les inquiétudes qui secouent le secteur de la cybersécurité depuis l’arrivée massive des outils d’IA générative. «Les cybercriminels ont intégré l’IA au même titre aujourd’hui que l’ensemble des utilisateurs», constate Rodrigue Le Bayon, à la tête du centre d’alerte et de réaction aux attaques informatiques (CERT) d’Orange Cyberdefense. Dans un rapport publié en juin, le géant OpenAI avait indiqué que ChatGPT avait assisté un utilisateur dans le développement d’un programme malveillant (malware). Si les modèles disposent de mesures censées empêcher l’exploitation de leurs capacités pour alimenter des activités illégales, il existe néanmoins des techniques «permettant de contourner les garde-fous des grands modèles de langage afin qu’ils produisent du contenu qu’ils ne devraient pas», détaille le spécialiste Vitaly Simonovich.

Ce chercheur, qui travaille au sein de l’entreprise de cybersécurité israélienne Cato Networks, avait indiqué en mars avoir trouvé une nouvelle approche permettant à des individus inexpérimentés de créer des logiciels capables de dérober des mots de passe. Sa technique, qu’il a baptisée «monde immersif», consistait à décrire à un chatbot un univers imaginaire où «la création de logiciels malveillants est un art», et à demander au modèle d’incarner l’un des personnages. «C’était ma façon de tester les limites des modèles de langage actuels», détaille M. Simonovich, qui a échoué face à Gemini (Google) et Claude (Anthropic), mais est parvenu à faire générer du code malveillant à ChatGPT, Deepseek, et Copilot (Microsoft). Selon lui, «l’essor des menaces venant de la part d’acteurs inexpérimentés va représenter un danger croissant pour les organisations». Pour Rodrigue Le Bayon, le risque immédiat est avant tout «d’augmenter le nombre de victimes» plutôt que de voir les acteurs malveillants se démultiplier. D’autant qu’«on ne va pas avoir de code très sophistiqué directement créé par des chatbots», souligne-t-il. La sécurité des modèles d’IA devra quant à elle être renforcée. «Aujourd’hui, les éditeurs font un travail d’analyse des usages» afin d’»être en capacité de mieux détecter les usages malveillants, pointe M. Le Bayon.

Aucun article à afficher