Anthropic advierte sobre un aumento alarmante de los delitos cibernéticos impulsados ​​por IA: el «hacking de vibraciones» impulsa una nueva ola de ataques avanzados.

Anthropic advierte sobre un aumento alarmante de los delitos cibernéticos impulsados ​​por IA: el «hacking de vibraciones» impulsa una nueva ola de ataques avanzados.

El panorama global de la ciberdelincuencia está evolucionando de forma alarmante, caracterizado por un aumento en la sofisticación que representa amenazas significativas tanto para individuos como para organizaciones. El auge de los ataques de ransomware ha adoptado una nueva forma, en parte debido a la accesibilidad de las herramientas de IA generativa, que, lamentablemente, se están utilizando indebidamente para perpetrar delitos. Esta tecnología avanzada no solo facilita la creación de mensajes de rescate amenazantes, sino que también es fundamental para la ejecución de operaciones cibercriminales. Un informe reciente de Anthropic subraya esta tendencia, revelando cómo los delincuentes están aprovechando la tecnología para crear malware y orquestar extensas campañas de hacking.

Amenazas emergentes impulsadas por la IA: Perspectivas del Informe Antrópico

El miércoles, Anthropic publicó un importante Informe de Inteligencia de Amenazas, publicado en Reuters, que detalla los exitosos esfuerzos de la compañía para frustrar varios intentos de hackeo que buscaban explotar sus sistemas de IA Claude. Los delincuentes pretendían implementar estos sistemas para actividades como el envío de correos electrónicos de phishing y la evasión de las medidas de seguridad existentes. Este informe destaca las tácticas innovadoras, pero preocupantes, que los ciberdelincuentes utilizan para manipular la IA generativa con fines maliciosos.

Entre los hallazgos más preocupantes se encuentra el descubrimiento de un grupo de hackers que empleaba a Claude Code, el asistente de programación de IA de Anthropic, para orquestar una campaña coordinada de ciberataques dirigida a 17 organizaciones, incluyendo organismos gubernamentales, centros de salud y servicios de emergencia. Este grupo utilizó hábilmente el modelo de IA no solo para formular demandas de rescate, sino también para ejecutar toda la estrategia de hackeo. Anthropic categorizó este alarmante nuevo método como «hacking de vibraciones», en referencia a las tácticas de coerción emocional y psicológica empleadas por los atacantes para presionar a las víctimas a obedecer, ya sea mediante rescates o divulgación injustificada de información.

El informe reveló que los rescates exigidos por este grupo de hackers superaron los 500.000 dólares, lo que pone de relieve el alto riesgo de la ciberextorsión basada en IA. Además, las implicaciones de este uso indebido van más allá del ransomware y abarcan actividades fraudulentas, como el uso de IA para asegurar puestos en empresas de la lista Fortune 500 mediante prácticas engañosas. Las barreras laborales, generalmente impuestas por la fluidez lingüística y la experiencia técnica, se superaron mediante el uso de modelos de IA para gestionar el proceso de contratación.

El informe de Anthropic también ilustró otros ejemplos preocupantes, como las estafas románticas realizadas a través de plataformas como Telegram. Los estafadores emplearon a Claude para desarrollar bots capaces de generar mensajes persuasivos en varios idiomas, incluyendo comentarios halagadores dirigidos a víctimas de diversas regiones, como Estados Unidos, Japón y Corea. En respuesta a estas actividades ilícitas, Anthropic ha tomado medidas proactivas: ha prohibido las cuentas infractoras, ha implementado protocolos de seguridad adicionales y ha colaborado con las fuerzas del orden. Las actualizaciones de la Política de Uso de la empresa prohíben explícitamente el uso de sus herramientas para crear estafas o malware.

La aparición del vibe-hacking plantea profundas preguntas sobre las implicaciones de la IA en la explotación de víctimas con una precisión cada vez mayor. Pone de relieve la urgente necesidad de que tanto los gobiernos como las empresas tecnológicas mejoren los mecanismos de detección y adapten las medidas de seguridad en consonancia con los avances tecnológicos. Esta vigilancia es crucial para evitar que la IA se utilice como arma para la manipulación y el daño en la era digital.

Fuente e imágenes

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *