dim. Juin 16th, 2024
ChatGPT peut être utilisé pour lancer des cyberattaques
Rate this post

Les chercheurs en sécurité de Check Point Research ont utilisé ChatGPT pour écrire des scripts de logiciels malveillants et générer des e-mails de phishing.

ChatGPT peut être utilisé pour lancer des cyberattaques

Les chercheurs en sécurité de Check Point Research (CPR) ont demandé au chatbot d’OpenAI, ChatGPT, de créer un e-mail de phishing à partir d’une société d’hébergement et d’injecter un logiciel malveillant dans un fichier Excel dans le cadre d’une étude.

ChatGPT a récemment fait la une des journaux comme l’un des modèles d’IA les plus avancés. Cependant, Check Point Research a récemment souligné un problème possible avec les générateurs de code AI tels que ChatGPT dans un communiqué de presse. Les chercheurs en sécurité ont démontré que les outils de traitement du langage naturel (NLP) peuvent abaisser la barrière d’entrée pour les pirates ayant des intentions malveillantes.

ChatGPT offre non seulement des opportunités, mais présente également des risques

Selon l’étude de Check Point Research, les modèles d’IA peuvent être utilisés pour construire des chaînes d’infection entières qui incluent le spear phishing et l’exécution de reverse shell. Les chercheurs en sécurité ont créé du code malveillant et des e-mails de phishing à l’aide de ChatGPT. Ils ont également utilisé le Codex d’OpenAI, une technologie basée sur l’IA qui convertit le langage naturel en code.

Tout d’abord, CPR a demandé à ChatGPT de créer un e-mail de phishing prétendant provenir de la société d’hébergement Web fictive Host4u. OpenAI a averti que la demande pourrait violer sa politique de contenu. Néanmoins, le chatbot AI a fourni l’e-mail de phishing.

Après cela, les chercheurs ont ensuite demandé à ChatGPT d’améliorer l’e-mail avec une série d’entrées. Cela comprenait par ex. B. Demander aux destinataires de télécharger un fichier Excel.

Voir aussi  5 façons sensées d'obtenir plus d'abonnés sur Twitter

À l’étape suivante, le code VBA malveillant a été écrit dans le document Excel. L’étude montre qu’après quelques courtes itérations, ChatGPT a renvoyé un code amélioré. Le code original aurait été immature. Il a utilisé des bibliothèques comme WinHttpReq.

Les chercheurs ont également utilisé Codex pour créer un shell inversé simple avec une adresse IP et un port d’espace réservé, ainsi que des outils d’analyse et d’atténuation. Codex est un système basé sur l’intelligence artificielle (IA) qui traduit le langage naturel en code selon Check Point et OpenAI.

Check Point Research a noté : « Une fois de plus, nos amis IA décollent pour nous. La chaîne d’infection est complète. Nous avons créé un e-mail de phishing avec un document Excel joint contenant un code VBA malveillant qui télécharge un reverse shell sur l’ordinateur cible. Les IA ont fait le gros du travail. Tout ce que nous avons à faire est de lancer l’attaque.

Le RCR appelle à la vigilance

L’étude conclut que si l’importance croissante de l’IA dans le cybermonde offre de nombreuses opportunités, elle soulève également certaines inquiétudes. Sergey Shykevich, Threat Intelligence Group Manager chez Check Point Software, a exhorté les chercheurs en cybersécurité à rester vigilants alors que ChatGPT et Codex mûrissent en tant que technologies. Il a expliqué que des outils comme ChatGPT :

« Avoir le potentiel de modifier considérablement le paysage des cybermenaces. Les pirates peuvent également itérer du code malveillant à l’aide de ChatGPT et de Codex. Les technologies d’intelligence artificielle représentent un autre pas en avant dans l’évolution dangereuse de cybercapacités toujours plus sophistiquées et efficaces. Désormais, toute personne disposant de ressources minimales et d’une connaissance nulle du code peut facilement l’exploiter pour nuire. »

Bien que les modèles de langage open source puissent également être utilisés pour créer des outils de cyberdéfense, le manque de protection contre leur utilisation pour créer des outils malveillants est potentiellement alarmant, a noté CPR. ChatGPT déclare que l’utilisation de sa plateforme pour créer des outils de piratage est contraire à sa politique. Cependant, jusqu’à présent, aucune restriction ne l’empêche.

Voir aussi  Gagner de l'argent avec ChatGPT : pourquoi l'IA devrait nous payer