La montée en puissance des modèles de transformateurs génératifs pré-entraînés (GPT) est déjà une source de consternation pour les professionnels de la cybersécurité. Le fait que les machines produiront bientôt un nombre massif d'attaques de phishing qui seront plus difficiles à détecter est une perspective décourageante.
Toutefois, l'intelligence artificielle (IA) offre également des raisons d'être optimiste. Il est peu probable que les plateformes d'IA, lorsqu'elles seront utilisées pour écrire du code, utilisent les mêmes langages de programmation de haut niveau que les humains utilisent aujourd'hui pour interagir avec les machines. Elles s'appuieront plutôt sur des langages de programmation de niveau inférieur pour communiquer de machine à machine. Il y aura donc moins d'erreurs de codage que les cybercriminels pourront exploiter.
La triste vérité est que la plupart des failles de sécurité qui existent aujourd'hui peuvent être attribuées à un problème lié à la manière dont une application accède à la mémoire. Les cybercriminels exploitent ensuite ces vulnérabilités pour lancer une attaque qui, par exemple, tire partie d'un dépassement de mémoire tampon pour accéder à des données. Les développeurs passent à des langages à mémoire sécurisée tels que Rust, Go, C#, Java, Swift, Python et/ou JavaScript pour éliminer bon nombre de ces vulnérabilités, mais si les machines commencent à écrire plus de code, ce changement pourrait ne pas être aussi critique qu'il n'y paraît aujourd'hui.
En fait, il n'est pas difficile d'imaginer un avenir où n'importe qui pourrait simplement décrire verbalement ce qu'il veut qu'une application fasse et attendre qu'une machine génère le code en parcourant simplement l'Internet à la recherche d'exemples similaires. Il y aurait évidemment des questions de droits d'auteur à régler, mais le volume de logiciels susceptibles d'être créés sera certainement supérieur de plusieurs ordres de grandeur à ce qu'il est aujourd'hui.
Bien entendu, tous ces logiciels auront besoin d'un lieu d'exécution qui devra encore être sécurisé. Les professionnels de la cybersécurité pourraient bientôt passer beaucoup plus de temps à verrouiller le matériel pour s'assurer que les cybercriminels n'utilisent pas, par exemple, un ensemble d'informations d'identification volées pour accéder à un environnement d'application. Il est très probable, par exemple, que les cybercriminels utilisent un jour une plateforme d'IA pour créer une application malveillante dotée d'une porte dérobée.
D'ici là, on peut espérer que les organisations seront beaucoup plus avancées qu'aujourd'hui sur la voie de l'adoption de l'informatique de confiance zéro, de sorte que les possibilités de méfaits seront bien moindres. Toutefois, il est peu probable que l’on ne parvienne jamais à une confiance zéro totale. Il y aura toujours des dépendances, des hypothèses et des biais qui pourront être exploités. Le défi consiste désormais à trouver un moyen d'armer les équipes de cybersécurité avec les outils d'IA qui seront nécessaires pour contrecarrer une attaque conçue par une machine. En effet, les plateformes d'IA s'affronteront pour la suprématie en matière de cybersécurité.
En attendant, les équipes chargées de la cybersécurité peuvent partir du principe que la situation risque d'empirer avant de s'améliorer. La chose la plus importante à faire maintenant est de réduire autant que possible la taille de la surface d'attaque qui doit être défendue. Après tout, la meilleure stratégie de cybersécurité commence toujours par l'élimination du nombre potentiel de cibles.
Par Mike Vizard
Cet article a été initialement publié sur Journey Notes, le blog de Barracuda.
Retour