OpenAI a confirmé que des pirates exploitent son modèle d’intelligence artificielle ChatGPT pour créer des logiciels malveillants et mener des cyberattaques. La société de recherche en IA a publié un rapport détaillant plus de 20 cas où des acteurs malveillants ont tenté d’utiliser ChatGPT à des fins malveillantes depuis le début de 2024.
Influence and Cyber Operations: An Update »
Le rapport, intitulé « Influence and Cyber Operations: An Update », révèle que des groupes de hackers parrainés par des États comme la Chine et l’Iran ont exploité les capacités de ChatGPT pour améliorer leurs cyberopérations offensives. Ces activités vont du débogage de codes malveillants à la création de contenu pour des campagnes de phishing et de désinformation sur les réseaux sociaux.
Un cas notable concerne un acteur chinois de la menace surnommé « SweetSpecter », qui a tenté d’utiliser ChatGPT à des fins de reconnaissance , de recherche de vulnérabilités et de développement de logiciels malveillants. Le groupe a même ciblé directement OpenAI avec des attaques de spear-phishing infructueuses contre les employés de l’entreprise.
Les acteurs de la menace abusent d’OpenAI
Une autre menace importante est venue de « CyberAv3ngers », un groupe iranien associé au Corps des gardiens de la révolution islamique. Cet acteur a utilisé ChatGPT pour rechercher les vulnérabilités des systèmes de contrôle industriel et générer des scripts pour des attaques potentielles sur des infrastructures critiques.
OpenAI a également identifié un troisième groupe iranien, « STORM-0817 », qui a utilisé le modèle d’IA pour développer des logiciels malveillants Android capables de voler des données utilisateur sensibles, notamment des contacts, des journaux d’appels et des informations de localisation.
Bien que ces résultats soient alarmants, OpenAI a souligné que l’utilisation de ChatGPT n’a pas conduit à des avancées significatives dans la création de logiciels malveillants ou dans la capacité de créer des audiences virales pour des opérations d’influence.
La société a déclaré que les activités observées sont cohérentes avec son évaluation des capacités de GPT-4, qui, selon elle, n’ont pas fait progresser de manière significative l’exploitation des vulnérabilités du monde réel.