mar. Fév 7th, 2023

Même les script kiddies inexpérimentés peuvent utiliser ChatGPT pour créer des logiciels malveillants polymorphes complexes qui contournent facilement les solutions de sécurité.

Un nouveau rapport des chercheurs de CyberArk montre à quel point il est facile de créer des logiciels malveillants polymorphes complexes à l’aide de ChatGPT. Les supposés filtres d’OpenAI, censés supprimer la création de code source malveillant par le chatbot IA, pourraient facilement être contournés. C’est maintenant un vrai problème pour les experts en sécurité.

Même les développeurs inexpérimentés peuvent créer des logiciels malveillants polymorphes

Nous avons déjà expliqué dans un rapport précédent que le populaire chatbot basé sur l’IA peut être très utile même pour les simples script kiddies lors de la création de malwares. Et ce n’était qu’un des nombreux exemples de la façon dont ChatGPT peut être abusé.

Comme les chercheurs en sécurité de CyberArk l’ont maintenant découvert, la création de logiciels malveillants polymorphes complexes ne pose aucun problème, même pour les développeurs inexpérimentés avec l’IA développée par OpenAI. Ce type de malware est particulièrement efficace pour rester sous le radar.

En fait, selon les experts en cybersécurité de CrowdStrike, il est programmé «qu’il ne cesse de changer son apparence ou ses fichiers de signature avec de nouvelles routines de déchiffrement.« Par conséquent, de nombreux antivirus et autres outils de sécurité dotés d’une détection basée sur les signatures sont incapables d’identifier les logiciels malveillants.

Les filtres de sécurité d’OpenAI pour ChatGPT étaient faciles à tromper

Le chatbot dispose de filtres spéciaux destinés à empêcher la création de code malveillant. Cependant, comme le rapporte Gizmodo, les chercheurs ont pu «vaincre ces barrières simplement en insistant pour que le programme suive les instructions du prompteur.« Ils ont donc littéralement forcé ChatGPT à faire leur offre.

Voir aussi  ConsenSys permet l'achat de crypto-monnaies avec PayPal

Le logiciel malveillant polymorphe ainsi créé pourraitContourner facilement les produits de sécurité”. Et aussi indépendamment de cela, le code généré par ChatGPT est sage »compétences avancées» selon les chercheurs de CyberArk dans leur rapport.

Le logiciel malveillant polymorphe ChatGPT montre où le voyage se dirige

Avec leurs expériences, les chercheurs en sécurité ont voulu montrer que le chatbot IA est parfois capable de générer des fragments de code malveillants, qui peuvent ensuite être utilisés pour construire des logiciels malveillants polymorphes complexes qui peuvent facilement contourner les mesures de sécurité. Et cela crée des possibilités complètement nouvelles, même pour les script kiddies inexpérimentés.

La conclusion des chercheurs est donc sombre :

« Comme nous l’avons vu, l’utilisation de l’API ChatGPT dans les logiciels malveillants peut représenter un défi majeur pour les professionnels de la sécurité. Il est important de se rappeler que ce n’est pas seulement un scénario hypothétique, c’est un problème très réel. »

Chercheur CyberArk

On ne peut qu’espérer que les entreprises d’IA comme OpenAI trouveront rapidement des solutions pour maîtriser les inconvénients de leurs produits. Qui sait ce qui sera possible avec ChatGPT à l’avenir que nous n’avons pas encore soupçonné. C’est un fait bien connu que les grandes opportunités s’accompagnent toujours de grands risques.