OpenAI, la société créatrice de ChatGPT, affirme que son chatbot est exploité par les cybercriminels dans le cadre d’activités malveillantes ! Des efforts sont réalisés pour perturber l’utilisation malveillante de ChatGPT, comme l’évoque leur rapport mis en ligne il y a quelques jours. Faisons le point.
L’IA générative est utilisée à des fins malveillantes : ce n’est pas un secret. Mais, le rapport publié par OpenAI montre qu’il y a des efforts de faits pour lutter contre les utilisateurs malintentionnés.
« Depuis le début de l’année, nous avons interrompu plus de 20 opérations et réseaux frauduleux du monde entier qui tentaient d’utiliser nos modèles – y compris des activités que nous avons supprimées depuis notre rapport sur les menaces de mai 2024.« , c’est l’une des premières phrases que nous pouvons lire dans le nouveau rapport d’OpenAI intitulé « Influence and cyber operations: an update« .
Développement de malwares, mise en place de campagnes de phishing, recherche de vulnérabilités, ou encore propagation de fausses informations, voici des exemples d’usages malveillants de l’intelligence artificielle, et en particulier de ChatGPT.
Leur activité allait du débogage de logiciels malveillants à la rédaction d’articles pour des sites web, en passant par la création de contenus postés par de faux profils sur les réseaux sociaux.« , peut-on lire. Ceci montre bien la diversité de l’aide que peut apporter l’IA aux pirates informatiques. Ils utilisent aussi bien l’agent conversationnel pour créer ou traduire des textes, que l’outil de génération d’images.
Des acteurs malveillants chinois et iraniens
Afin de lutter contre la cybercriminalité, OpenAI surveille l’activité de son service ChatGPT. L’entreprise américaine explique avoir identifié plusieurs acteurs malveillants, et les comptes associés ont été bannis.
Le rapport d’OpenAI évoque plusieurs groupes de pirates, dont les suivants :
- SweetSpecter : ce groupe de pirates basé en Chine utilisent les services d’OpenAI pour la reconnaissance, la recherche de vulnérabilités, le développement de scripts, et la mise au point de technique d’évasion.
« Nous avons identifié et interdit des comptes qui, d’après l’évaluation d’une source crédible, appartenaient probablement à un adversaire présumé basé en Chine, qui tentait d’utiliser nos modèles pour soutenir ses cyber-opérations offensives tout en menant des attaques de spear phishing contre nos employés et les gouvernements du monde entier.« , peut-on lire. ChatGPT a, par exemple, été utilisé pour rédiger des e-mails dans le cadre de phishing.
- CyberAv3ngers : ce groupe de pirates soupçonné d’être affilié au Corps des gardiens de la révolution islamique iranienne (IRGC), utilise les modèles d’OpenAI pour mener des recherches sur les contrôleurs logiques programmables.
- Storm-0817 : ce groupe iranien développe des logiciels malveillants et des outils permettant d’explorer les réseaux sociaux.
« Cet acteur a utilisé nos modèles pour déboguer des logiciels malveillants, pour obtenir une aide au codage afin de créer un scraper pour Instagram, et pour traduire des profils LinkedIn en persan. Il a notamment travaillé sur des logiciels malveillants encore en cours de développement et cherché des informations sur des cibles potentielles.« , peut-on lire.
Pour chaque acteur malveillant, OpenAI a aussi référencé les techniques associées et les demandes effectuées par les pirates. Voici un extrait :
Une collaboration avec les autorités
En août dernier, OpenAI a banni les comptes utilisés à des fins malveillantes et les informations collectées ont été transmises aux autorités compétentes.
Les partenaires de cybersécurité d’OpenAI ont aussi eu accès à ces informations, notamment les adresses IP utilisées et les indicateurs de compromission (IOC).