Dossier Sécurité Étude Par Cécile Dard L’IA AU SERVICE DE LA CYBERSÉCURITÉ… OU PAS ! Cybersécurité et intelligence artificielle sont intriquées. Mais l’intelligence artificielle est loin de résoudre tous les problèmes auxquels nous devons faire face. « L’IA en cybersécurité, c’est comme technologie future, qu’ils ont une voiture autonome, on donne le pourtant partiellement déployée, trajet à la voiture, mais on reste actif mais dont ils ne comprennent pas au poste de pilotage pour reprendre comprend réellement la différence tout à fait les subtilités – pour le contrôle en cas de défaillance », entre IA et machine learning. « Le beaucoup d’entre eux, en tout cas. explique Benoît Grunemwald, danger est donc de croire qu’ils sont « Le machine learning est utilisé Cybersecurity Leader d’Eset protégés par de l’IA alors que depuis 1995 et analyse les 300 000 qui vient de publier une étude1 lemachine learning, lui, remplit nouvelles menaces quotidiennes. sur la cybersécurité et l’intelligence ce rôle, et n’est pas autonome dans L’homme ne pourrait y arriver seul », artificielle. Les résultats montrent la protection des systèmes. S’ils souligne Benoît Grunemwald. que trois quarts des décideurs IT ne s’en occupent pas, les risques estiment que l’IA répond augmentent ! Les entreprises doivent Éduquer et nourrir miraculeusement à leurs défis apprendre les forceset les faiblesses le machine learning de cybersécurité. Une confiance de ces deux concepts, et comprendre D’après ce dernier, l’intelligence et un enthousiasme qui ne sont pas que l’homme atoujours un rôle à jouer artificielle en cybersécurité sans danger comme l’explique en cybersécurité », rappelle Benoît développe le besoin de nouveaux « Il faut créer des Benoît Grunemwald. « L’intelligence Grunemwald. Trop de confiance experts et de métiers inédits métiers autour artificielle est une arme à double dans l’IA pourrait donc exposer les pour protéger son entreprise tranchant, car ce qui est utilisémajoritairement dans les solutionsentreprises à de nouveaux risques.de réseaux malveillants qui utilisent de la construction les mêmes armes : « Les deux camps des algorithmes de cybersécurité n’est pas de l’IA Les décideurs IT attendent utilisent l’IA mais les adversaires mais une de ses sous-catégories: tout d’une technologie subtile n’ont pas de règles et sont prêts et des réseaux le machine learning. Or, avec de l’IA Les principaux atouts que les à tout pour arriver à leur fin. on appuie sur un bouton, ça démarre décideurs IT pensent trouver dans Ils sont hypermotivés, il faut donc de neurones pour et ça marche tout seul. On ne s’en les deux éléments sont, pour 79 % de nouveaux métiers autour se protéger » occupe plus, alors quele machine d’entre eux, une aide pour répondre de la construction des algorithmes learningdemande une surveillance plus vite aux menaces, et pour 77 %, et des réseaux de neurones pour humaine. » L’étude que l’éditeur une solution pour faire face à la se protéger. » Il rappelle que Benoît Grunemwald, de solutions de cybersécurité pénurie de compétences. L’étude le cerveau humain pourra toujours Cybersecurity Leader, a menée auprès de 900 décideurs IT d’Eset souligne que les décideurs IT trouver les failles de l’IA mais que, Eset aux États-Unis, en Allemagne attendent donc tout d’une comme avec un enfant, il faut et en Grande-Bretagne, révèle que éduquer et nourrir le machine seulement 53 % des décideurs IT learning pour qu’il soit efficace. estiment que leur organisation Il faut lui donner un set de données pour son apprentissage. Pour ne pas s’exposer à plus de risques, il faut donc d’après Eset, se demander quel est le niveau d’autonomie d’IA de son système. Et ne pas tout miser sur une technologie dont les capacités et les limites ne sont pas bien maîtrisées, et comprendre qu’IA et machine learning sont des armes nécessaires, mais insuffisantes pour L’étude d’Eset révèle aussi que 53 % seulement des décideurs IT estiment que lutter contre les cyberattaques. ■ leur organisation comprend réellement la différence entre IA et machine learning. ¹ “Is the AI hype putting businesses at risks?”, étude Eset, octobre 2018. Suite du dossier p. 98 94 E.D.I N°83 | novembre 2018 ECALLAW MIJ