ASCII smuggling, c’est le nom de la nouvelle technique utilisée pour voler des informations à partir du service Microsoft 365 Copilot. Voici ce que l’on sait sur cette vulnérabilité désormais patchée par Microsoft.
« L’ASCII smuggling est une nouvelle technique qui utilise des caractères Unicode spéciaux qui reflètent l’ASCII mais ne sont pas visibles dans l’interface utilisateur.« , précise le chercheur en sécurité Johann Rehberger dans son rapport. À l’origine de cette découverte, il a divulgué ce problème de sécurité à Microsoft en janvier dernier, ainsi qu’une chaîne d’exploitation complète en février 2024.
L’exploitation de cette vulnérabilité repose sur un processus en 3 étapes :
- Déclencher une « prompt injection » via un contenu malveillant dissimulé dans un document partagé avec le chatbot
- Utiliser un payload à destination de ce prompt pour demander à Copilot de rechercher d’autres courriels et documents
- Tirer parti de la technique ASCII smuggling pour inciter l’utilisateur à cliquer sur un lien afin d’exfiltrer des données sensibles vers un serveur tiers contrôlé par l’attaquant.
Concrètement, cela pourrait permettre de voler des informations contenues dans des e-mails, y compris des codes d’authentification MFA.
« Cela signifie qu’un attaquant peut faire en sorte que le LLM (grand modèle de langage) restitue à l’utilisateur des données invisibles et les intègre dans des liens hypertextes cliquables. Cette technique met en scène les données en vue de leur exfiltration.« , peut-on lire.
Désormais, Microsoft a corrigé cette vulnérabilité bien que l’entreprise américaine n’est pas précisée comment elle est parvenue à patcher ce problème de sécurité. Dans son rapport, Johann Rehberger confirme que cette chaine d’exploitation ne fonctionne plus.
Par ailleurs, Microsoft 365 Copilot peut s’avérer particulièrement dangereux si un attaquant parvient à compromettre un utilisateur ayant une licence d’accès à ce service. Il peut alors s’appuyer sur le chatbot pour obtenir des informations sur les échanges d’e-mails avec un autre collaborateur, et demander à l’IA de générer une réponse. De son côté, l’attaquant prend soin d’ajouter une pièce jointe malveillante.
Voici un exemple dans cette vidéo proposée par Zenity :