avril 2024

Peser le pour et le contre du ChatGPT en matière de cybersécurité

Maintenant qu'il est devenu évident que les plateformes d'intelligence artificielle générative (IA) telles que ChatGPT font partie d'une longue lignée d'outils qui, du point de vue de la cybersécurité, sont à double tranchant, il est temps de déterminer comment les utiliser au mieux tout en mettant en place des garde-fous qui, espérons-le, limiteront les dommages qui peuvent clairement être causés.

Peser le pour et le contre du ChatGPT en matière de cybersécurité

 

Un rapport de la Cloud Security Alliance (CSA) se penche sur la menace que les plateformes d'IA générative représentent pour la cybersécurité, allant d'exemples déjà détaillés sur la façon dont les campagnes de phishing vont non seulement augmenter en sophistication et en volume, mais aussi sur la façon dont ces plateformes peuvent être utilisées pour améliorer la reconnaissance, découvrir et exploiter les vulnérabilités plus efficacement, et écrire du code polymorphe capable de modifier son apparence de manière à échapper à la détection par les scanners.

Le rapport identifie d'autres types d'attaques potentielles qui devraient être préoccupantes :

  • Injection rapide pour exposer les systèmes internes, les interfaces de programmation d'applications (API) et les sources de données.
  • Les invites et les requêtes qui provoquent des réponses volumineuses ou qui tournent en boucle jusqu'à ce que le service n'ait plus de jetons.
  • Injection rapide pour fournir des réponses de l'assistance produit à des questions que l'attaquant peut utiliser à son avantage.
  • Les invites qui génèrent des résultats juridiquement sensibles liés à la diffamation.
  • Attaques susceptibles d'injecter des données dans des modèles de formation

En outre, le rapport indique que les organisations doivent établir des politiques pour l'utilisation de plateformes telles que ChatGPT afin de s'assurer que les données contenant des informations personnelles identifiables (PII) ne sont pas partagées par inadvertance avec un service public d'informatique en nuage (cloud computing). La connexion à la plateforme doit également être sécurisée, car il est toujours possible que le résultat d'une requête ait été modifié avant d'être affiché, note le rapport.

Cependant, les plateformes d'IA générative devraient permettre aux développeurs d'utiliser plus facilement des outils tels que GitHub Copilot pour écrire un code plus sûr, tout en fournissant aux équipes de cybersécurité un outil qui leur permet de rechercher plus facilement les vulnérabilités en plus de reconnaître les cyberattaques à l'aide du cadre ATT&K de MITRE, améliorer les délais de réponse aux incidents en facilitant la chasse aux menaces et l'automatisation des playbooks, l'analyse des fichiers et du code, la création de tests, la rédaction de meilleures politiques, la fourniture aux utilisateurs finaux de meilleurs conseils sur les meilleures pratiques, et même la détection du code écrit par une plateforme d'IA générative.

OpenAI et Microsoft ont fixé des limites à l'utilisation de ChatGPT. Par exemple, les requêtes nuisibles ou identifiées comme des menaces restent sans réponse. Cependant, il est clair qu'il reste encore beaucoup

de potentiel pour faire des ravages. Le proverbial génie de l'IA est sorti de la bouteille et il n'y a aucun moyen de le remettre en place.

Les professionnels de la cybersécurité avertis savent qu'une once de prévention, quel que soit le degré d'utilisation de l'IA, vaut mieux qu'une livre de remède. Qu'on le veuille ou non, une course à l'armement en matière de cybersécurité et d'IA est en cours. Il ne reste plus qu'à déterminer comment la prochaine bataille de cybersécurité sera menée et gagnée lorsqu'il est clair que ne rien faire revient à accepter la défaite.

Par  Mike Vizard

Cet article a été initialement publié sur Journey Notes, le blog de Barracuda.

Lien vers l'article original

Retour