L’automatisation de la cybersécurité par l’IA : une solution miracle ?

Cybersécurité Forum International de la Cybersécurité 2020 Transformation numérique

Article issu de la plénière : « Cybersecurity and Artificial Intelligence: a love-hate relationship »

Un déficit de compétence en matière de cybersécurité

De récentes études révèlent un manque de compétence en matière de cybersécurité. En effet, il manquerait 3,5 millions d’experts dans ce domaine à l’échelle mondiale. La France n’échappe donc pas à cette problématique. Cette pénurie s’inscrit dans un déficit plus global concernant la main d’oeuvre et les compétences en matière numérique. Néanmoins, des solutions sont mises en oeuvre pour y pallier tant dans le domaine numérique en général que dans la cybersécurité en particulier.

D’une part, des académies et autres campus instituées par les entreprises apportent un complément de formation aux salariés car de même que les hackers ont des profils atypiques, il n’existe pas un unique profil d’expert en cybersécurité. Les entreprises réclament de la flexibilité et agissent de façon territoriale pour s’adapter au paysage régional. Elles souhaitent réduire le délai pour que les formations soient le reflet de la situation professionnelle bien qu’émergent peu à peu des formations en corrélation avec les demandes des entreprises.

D’autre part, l’automatisation de la cybersécurité par l’intelligence artificielle (IA). Aujourd’hui, 87% des entreprises du domaine cyber disent utiliser de l’IA. L’apport de cette technologie ne fait plus aucun doute tant sur les volets de prévention et d’anticipation mais également sur les volets de détection et de réaction.

Néanmoins, l’intégration de l’IA n’est pas une solution miracle. De ce fait, croire que celle-ci remplacera complètement l’humain dans un futur proche est quelque peu optimiste. Ce postulat repose sur l’imaginaire collectif et le fantasme inspiré par l’IA. Le grand public a souvent tendance à souligner le terme « intelligence » quand il devrait au contraire souligner celui d’ « artificiel ». Il est nécessaire de distinguer l’aide à la décision de plus en plus prégnante d’une boucle dont l’humain serait absent et où la prise de décision serait autonome.

Etat de l’art de l’IA dans la cybersécurité

Afin de mettre en place un cyber Security Operation Center (SOC), la réalisation d’une analyse préalable est primordiale dans le but d’implémenter des comportements dont on sera sûr que ce seront des attaques. Ces comportements sont également appelés « use cases ». De plus, cette implémentation nécessite un délai d’apprentissage d’environ un mois pour pouvoir être assimilé et le faire évoluer dans le temps. En cas de correspondance, on est quasiment certain d’être en présence d’une attaque. Cependant, cette méthode ne couvre que les comportements implémentés. Dès lors, il suffit qu’une attaque ne faisant pas partie des use cases soit implémentées pour passer outre les stratégies de défense.

Cette méthode est efficace mais doit donc être relativisée. Ce qui fonctionne bien, c’est la limitation du champ d’application. Si on met tous les logs d’une entreprise, ils sont trop hétérogènes. Néanmoins, si on segmente par type de données cohérentes, on peut avoir une analyse beaucoup plus fiable dans la détection et donc dans le taux de faux positifs.

De nombreuses applications démontrent que l’IA est plus prompte à apprendre et détecter les schémas comportementaux des attaques précédentes. Certes, il s’agit d’une avancée mais celle-ci ne nous aidera pas à prédire ce qu’il se passera demain. C’est là l’une des erreurs de nombreuses approches dont l’idée est de penser que : si la prédiction de la nature de l’attaque ou des bons et mauvais comportements est possible, l’attaque pourra être annihilée. Ces thèses omettent la constante évolution que connaissent les techniques des attaquants pour s’adapter aux systèmes de défense existants. La potentialité d’avoir une IA en capacité d’apprendre, s’adapter et d’apprendre au fil du temps changerait réellement la donne du point de vue de la technologie défensive.

Les enjeux opérationnels soulevés par l’IA

En outre, l’IA est confrontée à de nombreux enjeux opérationnels. Le volume de données que nécessite une IA, le temps d’apprentissage, la possibilité de leurrer les algorithmes par l’introduction de déviances progressives sont autant d’enjeux auxquels on peut ajouter la capacité d’un algorithme à justifier de ses décisions. En effet, les preuves doivent être compréhensibles par l’analyste pour conduire à la remédiation. Par ailleurs, on met le doigt sur une nécessaire coopération des acteurs pour lutter du fait de la sophistication des nouvelles attaques et du volume de données à traiter. Faire cavalier seul n’est plus une option viable tant pour les entités privées que les Etats.

Replacer l’humain au cœur de la cybersécurité

Les problèmes issus de la cybersécurité sont en réalité plus complexes que de déterminer de façon binaire si quelque chose est vrai ou faux. On a donc constamment besoin des connaissances empiriques de l’homme. Dès lors, l’humain reste au centre de la boucle ne pouvant être remplacé par l’IA. Seule l’éclosion de la notion de « super intelligence » pourrait bouleverser ce paradigme en allant au-delà de nos propres modes de compréhension sans qu’on comprenne ce qu’elle fait. En effet, l’IA n’est pas encore en mesure de réellement comprendre. Il s’agit d’un simple apprentissage basé sur les données qui lui sont fournies et ce n’est pas quelque chose qui donne dans les faits une réelle signification aux données. De surcroît, ce n’est pas l’absence de la super intelligence qui fait que l’IA n’est pas encore aboutie. L’absence de compréhension complète, l’acceptation sociale, l’absence d’un régime juridique sont effectivement autant de facteurs qui ne peuvent être ignorés.

Aujourd’hui, le succès n’est pas l’apanage de l’humain ou de l’IA mais plutôt de ce duo. L’humain doit apprendre et comprendre l’IA qui ne doit pas être une boîte noire. Il doit être capable de l’appréhender, de la contrôler ou de savoir quel degré de confiance il peut avoir en elle. Il est nécessaire de prendre un certain recul sur son usage avant d’en généraliser l’intégration à nos systèmes afin de ne pas constater amèrement les conséquences d’une orientation massive vers l’IA. Le nombre de problème générés par l’ajout d’un nouveau noeud à un réseau n’est pas le fruit d’un rapport de proportionnalité. En effet, ces problèmes sont exponentiels englobant les systèmes et leurs interactions. Le maintien de notre souveraineté reposera sur notre capacité à évaluer voire à certifier un mécanisme indéterministe tout en assurant les aspects éthiques dont certains Etats concurrents font fi. L’IA doit donc être opérationnelle dans un cadre de stricte compréhension et de maîtrise des effets.


Cybersecurity and Artificial Intelligence: a love-hate relationship

Intervenants de la plénière :

  • Julia SIEGER – Journaliste France 24
  • Mariana PEREIRA – Director of Email Security Products Darktrace
  • Jake DAVIS – Hacking consultant
  • Sylvain NAVERS – Head of AI Cyber AIRBUS CyberSecurity
  • Shujun LI – Professor of Cyber Security University of Kent
  • Didier TISSEYRE – Cyber Commander Ministère des Armées – France

Rédigé par : Wilfried IME

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *