
Microsoft engage des poursuites judiciaires contre les cybercriminels exploitant l’IA générative
Dans une démarche décisive pour lutter contre la cybercriminalité, Microsoft a intenté une action en justice contre un groupe de cybercriminels accusés d’utiliser à mauvais escient les technologies d’IA générative, en particulier son service Azure OpenAI. Cette action en justice fait partie d’une plainte modifiée liée à un précédent litige civil lancé en janvier 2025. Le géant de la technologie identifie spécifiquement quatre principaux développeurs d’outils malveillants conçus pour violer les mesures de protection mises en place pour ses offres d’IA :
- Arian Yadegarnia (alias « Fiz ») – Iran
- Alan Krysiak (alias « Drago ») – Royaume-Uni
- Ricky Yuen (alias « cg-dot ») – Hong Kong, Chine
- Phat Phung Tan (alias « Asakuri ») – Vietnam
Comprendre la tempête 2139 : un réseau mondial de cybercriminalité
Ces individus sont au cœur d’une organisation de cybercriminalité que Microsoft appelle Storm-2139. Ce réseau aurait exploité les identifiants de clients accessibles au public pour accéder illégalement à des services d’IA générative. Ils ont non seulement modifié ces services, mais ont également redistribué l’accès à d’autres criminels, en fournissant des conseils détaillés sur la manière de produire du contenu préjudiciable, notamment du contenu intime non consensuel mettant en scène des célébrités.
L’enquête de Microsoft classe Storm-2139 comme ayant une hiérarchie structurée englobant trois niveaux principaux :
- Créateurs : Développeurs qui ont conçu les outils permettant l’exploitation des technologies de l’IA.
- Fournisseurs : Ceux qui sont responsables de la modification, de la fourniture et de la commercialisation de ces outils à travers différents niveaux de services.
- Utilisateurs : individus utilisant ces outils pour créer du contenu synthétique illégal, ciblant souvent des personnalités publiques et produisant des images explicites.

Les procédures judiciaires et leur impact
La plainte déposée par l’unité de lutte contre les cybercriminels de Microsoft (DCU) dans le district Est de Virginie témoigne d’une approche proactive contre les cybercriminels. Ciblant initialement dix « John Doe » non identifiés, elle a abouti à une ordonnance de restriction temporaire et à une injonction préliminaire accordées par le tribunal. Cette action a permis à Microsoft de saisir un site Web crucial utilisé par le réseau Storm-2139, perturbant gravement ses opérations.
La divulgation de documents juridiques en janvier 2025 a créé un effet d’entraînement au sein de la communauté de la cybercriminalité. Les membres du réseau ont commencé à spéculer sur l’identité des « John Doe », certains tentant de rejeter la faute sur les autres participants à l’opération.

Menaces persistantes et réponse de Microsoft
En plus des documents juridiques déposés, l’équipe juridique de Microsoft a reçu plusieurs courriels de personnes soupçonnées d’être affiliées à Storm-2139 qui tentaient de déplacer la responsabilité et d’impliquer d’autres membres. Des cas de doxing ciblant les avocats de Microsoft ont également été enregistrés, avec des données personnelles et des images publiées en ligne, une tactique qui présente des risques réels, notamment le vol d’identité et le harcèlement.

Un engagement pour lutter contre les abus liés à l’IA
L’action en justice de Microsoft s’inscrit dans le cadre de sa stratégie plus large visant à prévenir l’utilisation abusive des technologies d’IA génératrices. Si l’entreprise reconnaît que le démantèlement de réseaux cybercriminels profondément enracinés est un défi complexe et permanent, ses initiatives juridiques et ses perturbations opérationnelles représentent des progrès significatifs. En révélant les activités clandestines de Storm-2139, Microsoft vise non seulement à démanteler le réseau actuel, mais également à dissuader les futures tentatives d’utilisation des technologies d’IA comme arme.
Cette affaire met en lumière les défis persistants posés par les cybercriminels dans le paysage numérique actuel. Elle souligne la nécessité de déployer des efforts continus et coordonnés pour protéger les technologies innovantes contre toute utilisation abusive et maintenir des normes éthiques dans le développement de l’IA.
Laisser un commentaire ▼