« L’intelligence artificielle est sans doute « le » buzzword de la décennie en cybersécurité. Elle est même devenue un élément clé du marketing de toute bonne solution de cybersécurité au point que 87% des entreprises disent déjà l’utiliser. Et de fait, même si l’appelation « IA » est sans doute un peu galvaudée, l’apport de ces technologies ne fait déjà aucun doute, tant sur les volets prévention (cyber résilience, correction de bugs…) et anticipation (cyber threat intelligence, cybersécurité cognitive…) qu’en matière de détection (vulnérabilités, menaces internes ou externes…) et de réaction (réponse à incident, attribution…). Pour répondre à la sophistication et à la multiplication des attaques, le SOC de demain sera donc très largement automatisé, d’autant que les compétences en cybersécurité sont encore nettement insuffisantes pour répondre à la demande. Face à l’emballement généralisé, il faut pourtant raison garder et s’interroger aussi sur ses limites. Aux plans juridique et éthique, quelle articulation avec l’Humain, qui doit rester in fine le seul arbitre, et donc le seul « responsable » au sens juridique du terme ? Quelles sont par exemple les décisions qui pourront être prises par une IA en matière de cybersécurité et celles qui devront rester « humaines » ? Comment peut-on la rendre également plus « auditable », c’est-à-dire à portée de l’Homme qui a besoin de comprendre avant de décider ? Quelles sont également ses limites techniques ? Comme tout progrès technologique, l’intelligence artificielle peut ensuite être détournée, voire utilisée par des attaquants pour concevoir et mener leurs opérations. Elle peut enfin être elle-même la cible d’attaques par empoisonnement, par inférence, par leurrage. »
Rédigé par : Wilfried IME
Continue Reading