
Microsoft emprende acciones legales contra cibercriminales que explotan la IA generativa
En una medida decisiva para combatir el cibercrimen, Microsoft ha presentado una demanda contra un grupo de cibercriminales que supuestamente están haciendo un uso indebido de tecnologías de inteligencia artificial generativa, en particular su servicio Azure OpenAI. Esta acción legal forma parte de una demanda modificada relacionada con un litigio civil anterior iniciado en enero de 2025. El gigante tecnológico identifica específicamente a cuatro desarrolladores principales de herramientas maliciosas diseñadas para violar las medidas de protección establecidas para sus ofertas de inteligencia artificial:
- Arian Yadegarnia (alias “Fiz”) – Irán
- Alan Krysiak (alias “Drago”) – Reino Unido
- Ricky Yuen (alias “cg-dot”) – Hong Kong, China
- Phat Phung Tan (alias “Asakuri”) – Vietnam
Entendiendo la tormenta 2139: una red global de ciberdelincuencia
Estos individuos son fundamentales para una organización de delitos cibernéticos a la que Microsoft denomina Storm-2139. Según se informa, esta red explotó las credenciales de los clientes disponibles públicamente para acceder de forma ilícita a servicios de inteligencia artificial generativa. No solo modificaron estos servicios, sino que también redistribuyeron el acceso a otros delincuentes, brindándoles instrucciones detalladas sobre cómo producir material dañino, incluido contenido íntimo no consensuado en el que aparecían celebridades.
La investigación de Microsoft clasifica a Storm-2139 como un virus con una jerarquía estructurada que abarca tres niveles principales:
- Creadores: Desarrolladores que diseñaron las herramientas que permiten la explotación de las tecnologías de IA.
- Proveedores: Aquellos responsables de modificar, suministrar y comercializar estas herramientas en varios niveles de servicio.
- Usuarios: personas que utilizan estas herramientas para crear contenido sintético ilegal, a menudo dirigido a figuras públicas y produciendo imágenes explícitas.

Los procedimientos judiciales y su impacto
La demanda iniciada por la Unidad de Delitos Digitales (DCU) de Microsoft en el Distrito Este de Virginia es un ejemplo de una estrategia proactiva contra los cibercriminales. Inicialmente, la demanda se dirigía a diez “John Doe” no identificados y ha logrado que el tribunal conceda una orden de restricción temporal y una medida cautelar. Esta acción permitió a Microsoft hacerse con un sitio web crucial utilizado por la red Storm-2139, lo que interrumpió gravemente sus operaciones.
La revelación de documentos legales en enero de 2025 ha creado un efecto dominó dentro de la comunidad de ciberdelincuentes. Los miembros de la red comenzaron a especular sobre las identidades de los “John Doe”, y algunos intentaron desviar la culpa hacia otros participantes en la operación.

Amenazas continuas y respuesta de Microsoft
Además de los documentos legales, el equipo legal de Microsoft recibió varios correos electrónicos de supuestos afiliados a Storm-2139 que intentaban desviar la culpabilidad e implicar a otros miembros. También se registraron casos de doxing dirigidos contra el abogado de Microsoft, con datos personales e imágenes publicadas en línea, una táctica que plantea riesgos reales, incluidos el robo de identidad y el acoso.

Un compromiso para combatir el abuso de la IA
La acción legal de Microsoft forma parte de su estrategia más amplia para prevenir el uso indebido de las tecnologías de inteligencia artificial generativa. Si bien la empresa reconoce que desmantelar redes de cibercriminales profundamente arraigadas es un desafío complejo y continuo, sus iniciativas legales y las interrupciones operativas representan un avance significativo. Al exponer las actividades clandestinas de Storm-2139, Microsoft pretende no solo desmantelar la red actual, sino también disuadir futuros intentos de utilizar tecnologías de inteligencia artificial como arma.
Este caso pone de relieve los desafíos persistentes que plantean los ciberdelincuentes en el panorama digital actual y pone de relieve la necesidad de realizar esfuerzos continuos y coordinados para proteger las tecnologías innovadoras del uso indebido y mantener estándares éticos en el desarrollo de la IA.
Deja una respuesta ▼