L’I.A. met la cyber sous pression
L’engouement pour ChatGPT n’est pas passé inaperçu aux yeux des cybercriminels. Les experts redoutent l’émergence et la multiplication rapide des piratages par des outils d’intelligence artificielle.
Mai 2023Par Thierry Bienfait
Déserté par les militaires et les gendarmes, le Forum international de la cybersécurité (FIC) a néanmoins reflété à nouveau l’évolution des dangers dans le cyberespace. Les experts réunis à ce colloque du 5 au 7 avril 2023 ont disserté sur le sujet qui fait craindre l’émergence de risques d’un nouveau genre : l’intelligence artificielle. Comment distinguer la bonne I.A. de la mauvaise, celle dont pourraient tirer parti les cybercriminels pour des attaques plus impactantes et perturbatrices ?
Le sujet inquiète notamment le ministre de la Transition numérique Jean-Noël Barrot, qui rappelle avoir saisi le Comité national d’éthique du numérique. Certains forums de piratage indiquent que des hackers auraient développé des logiciels malveillants comme des malwares voleurs d’informations grâce à du code écrit par ChatGPT. « Les cybercriminels utilisent cet outil pour concevoir des cyberattaques en générant du contenu automatisé, tels le phishing, les fraudes au président ou les spams », met en garde David Szniten, responsable du Pôle cybersécurité chez Klee Group.
Permettant de rédiger des courriels dans un langage plus naturel et plus convaincant, ChatGPT ouvrirait la voie à de l’hameçonnage plus efficace. Doté de mécanismes de sécurité toujours contournables avec une ingénierie appropriée, ChatGPT servirait également à écrire du code fonctionnel dans de nombreux langages de programmation (comme Python, JavaScript, C++, Java, etc.) et donc des scripts, programmes et algorithmes.
« Des cyberattaques créées par ChatGPT en générant du contenu automatisé »
David Szniten, responsable du Pôle cybersécurité Klee Group
Malveillance clés en main
« L’intelligence artificielle pourrait se révéler redoutablement efficace pour booster les attaques par “force brute” ou par “dictionnaire de mots de passe”, note le spécialiste de Klee. En utilisant le deep learning et des réseaux de neurones artificiels pour générer du code source, l’I.A. soumet aussi à rude épreuve les défenses informatiques comme la technologie EDR. » Ces scénarios sont loin d’être fictifs. « Je suis effrayé par les risques que ferait courir une métatechnique telle que l’I.A. si elle était utilisée pour des cyberattaques », expliquait sur ABC News, Sam Altman, le père de ChatGPT.
Mais comment faire rentrer le diable dans sa boîte ? Les solutions de cybersécurité seront-elles suffisantes dans la lutte contre une vague de cyberattaques encore plus avancées ? À ce titre, les cyberdéfenseurs au FIC ont présenté plusieurs cas d’usage de l’I.A. pour renforcer la cybersécurité. « La solution se cache dans le problème, estime Elliot Stocker, Product Expert pour Darktrace. Seule l’I.A. apportera une réponse à grande échelle à ces nouvelles attaques. » Selon le cyberexpert du groupe britannique, l’I.A. peut, grâce au machine learning, détecter les attaques et les éliminer.
« L’I.A. nous offre une analyse fine des usagers et des machines d’une organisation afin de la connaître au mieux, et d’établir une norme de fonctionnement qui identifie des anomalies et des attaques, même non répertoriées. Le meilleur moyen de se protéger contre une I.A. générative, c’est de disposer d’une I.A. qui connaît mieux l’organisation que l’I.A. offensive. L’avantage revient à celle qui aura l’algorithme le plus éprouvé. » Une autre défense, plus compliquée, consiste dans l’installation de deux moteurs d’I.A. au fonctionnement différent qui compareront leurs résultats pour détecter des tentatives d’attaques. Deux autres menaces, internes, cette fois-ci : la pénurie de main-d’œuvre et l’augmentation des coûts… Les entreprises de la cybersécurité n’avaient pas besoin de cela.