Les attaques de phishing qui convainquent les utilisateurs finaux de donner leurs identifiants sont, bien sûr, le fléau de la cybersécurité, mais avec les modèles de transformation générative du langage pré-entraînés tels que GPT, les choses pourraient bientôt aller de mal en pire.
Les chercheurs ont déjà montré comment l'apprentissage automatique peut être utilisé pour générer du texte capable de mener des campagnes de phishing et de compromission de courriers électroniques professionnels (BEC) à des niveaux d'échelle sans précédent. Alors que les modèles de langage sont généralement formés à partir d'un corpus de données spécifique, les chercheurs ont été en mesure d'exposer ces modèles à un contenu supplémentaire qui pourrait être utilisé pour provoquer un résultat spécifique. Par exemple, un article contenant de fausses affirmations pourrait être utilisé pour générer un flux entier de contenu similaire nuisible ou trompeur.
Plus difficile encore, il a été démontré que ces modèles peuvent même imiter les styles d'écriture de telle sorte qu'il est difficile pour une personne moyenne de distinguer un courriel envoyé par son patron d'un courriel envoyé par une machine.
Ce potentiel de destruction suscite déjà beaucoup d'inquiétude chez les professionnels de la cybersécurité, car l'intérêt des pirates pour les plateformes d'intelligence artificielle (IA) a fortement augmenté. Il existe actuellement des restrictions quant à l'utilisation de plateformes telles que ChatGPT, mais il est probable qu'avec le temps, d'autres plateformes gérées par des entités, voire des États-nations, auront moins de scrupules à appliquer l'IA. La désinformation étant au cœur de toute campagne de propagande, tout outil facilitant la production de contenu à grande échelle sera utilisé à la fois pour le bien et pour le mal. Permettre aux cybercriminels d'accéder à une telle plateforme est une façon de financer son développement continu.
D'une manière ou d'une autre, les professionnels de la cybersécurité doivent s'attendre à ce que les attaques par hameçonnage augmentent bientôt en termes de volume et de sophistication. De nombreux processus numériques devront sans doute être réévalués, tout simplement parce que le niveau de confiance actuel n'est peut-être plus raisonnable à une époque où le courrier électronique peut être facilement compromis.
Heureusement, il existe des outils permettant de détecter si un texte a été créé par une machine. Ce n'est peut-être qu'une question de temps avant que ces types d'outils ne soient intégrés dans les plates-formes anti-hameçonnage.
En attendant, les professionnels de la cybersécurité devraient commencer à suivre l'évolution des modèles de transformation générative du langage pré-entraînés. Le rythme auquel ces plateformes d'IA sont dotées de capacités supplémentaires ne fera que s'accélérer à mesure qu'elles dépasseront le stade du texte pour inclure des images et des vidéos. Ce n'est qu'une question de temps avant que les dirigeants des organisations ne commencent à demander aux professionnels de la cybersécurité d'évaluer le niveau de risque commercial que ces plateformes représentent réellement. Les équipes de cybersécurité ne doivent pas se contenter de se concentrer sur ce que ces plateformes peuvent faire aujourd'hui. Elles seront bientôt en mesure de travailler avec des ensembles de données plus petits qui non seulement nécessitent moins d'infrastructure informatique pour former un modèle, mais peuvent
également être optimisés pour des cas d'utilisation spécifiques dans des segments verticaux de l'industrie.
Comme l'a dit William Gibson, "l'avenir est déjà là, mais il n'est pas uniformément réparti". Néanmoins, le résultat final de sa progression logique est déjà largement prévisible.
Mike Vizard
Cet article a été initialement publié sur Journey Notes, le blog de Barracuda.
Retour