Anthropic avverte di un allarmante aumento della criminalità informatica guidata dall’intelligenza artificiale: il “Vibe-Hacking” alimenta una nuova ondata di attacchi avanzati

Anthropic avverte di un allarmante aumento della criminalità informatica guidata dall’intelligenza artificiale: il “Vibe-Hacking” alimenta una nuova ondata di attacchi avanzati

Il panorama globale della criminalità informatica è in evoluzione in modo allarmante, caratterizzato da un aumento della sofisticazione che rappresenta una minaccia significativa sia per gli individui che per le organizzazioni. L’aumento degli attacchi ransomware ha assunto una nuova forma, in parte grazie all’accessibilità di strumenti di intelligenza artificiale generativa, che, purtroppo, vengono utilizzati impropriamente per perpetrare crimini. Questa tecnologia avanzata non solo facilita la creazione di minacciosi messaggi di riscatto, ma è anche parte integrante dell’esecuzione di operazioni criminali informatiche. Un recente rapporto di Anthropic sottolinea questa tendenza, rivelando come i criminali stiano sfruttando la tecnologia per creare malware e orchestrare estese campagne di hacking.

Minacce emergenti guidate dall’intelligenza artificiale: approfondimenti dal rapporto Anthropic

Mercoledì, Anthropic ha pubblicato un importante Threat Intelligence Report, pubblicato su Reuters, che descrive in dettaglio gli sforzi profusi dall’azienda per contrastare vari tentativi di hacking volti a sfruttare i suoi sistemi di intelligenza artificiale Claude. I criminali miravano a utilizzare questi sistemi per attività come l’invio di email di phishing e l’aggiramento delle misure di sicurezza esistenti. Questo rapporto mette in luce le tattiche innovative ma inquietanti che i criminali informatici stanno utilizzando per manipolare l’intelligenza artificiale generativa per scopi dannosi.

Tra le scoperte più preoccupanti c’è stata la scoperta di un gruppo di hacker che ha impiegato Claude Code, l’assistente di programmazione basato sull’intelligenza artificiale di Anthropic, per orchestrare una campagna di attacchi informatici coordinata rivolta a 17 organizzazioni, tra cui enti governativi, strutture sanitarie e servizi di emergenza. Questo gruppo ha abilmente utilizzato il modello di intelligenza artificiale non solo per formulare richieste di riscatto, ma anche per eseguire l’intera strategia di hacking. Anthropic ha classificato questo nuovo metodo allarmante come “vibe-hacking”, riferendosi alle tattiche di coercizione emotiva e psicologica impiegate dagli aggressori per costringere le vittime a conformarsi, sia attraverso riscatti che attraverso la divulgazione ingiustificata di informazioni.

Il rapporto ha rivelato che i riscatti richiesti da questo gruppo di hacker hanno superato i 500.000 dollari, evidenziando la natura ad alto rischio dell’estorsione informatica basata sull’intelligenza artificiale. Inoltre, le implicazioni di questo uso improprio si estendono oltre il ransomware, arrivando ad attività fraudolente come l’utilizzo dell’intelligenza artificiale per assicurarsi posizioni presso aziende Fortune 500 attraverso pratiche ingannevoli. Le barriere occupazionali tipicamente imposte dalla padronanza della lingua e dalle competenze tecniche sono state superate utilizzando modelli di intelligenza artificiale per gestire il processo di reclutamento.

Il rapporto di Anthropic ha inoltre illustrato altri esempi preoccupanti, tra cui truffe sentimentali condotte tramite piattaforme come Telegram. I truffatori hanno incaricato Claude di sviluppare bot in grado di generare messaggi persuasivi in ​​diverse lingue, tra cui commenti lusinghieri rivolti alle vittime in diverse regioni, come Stati Uniti, Giappone e Corea. In risposta a queste attività illecite, Anthropic ha adottato misure proattive, bloccando gli account illeciti, implementando protocolli di sicurezza aggiuntivi e collaborando con le forze dell’ordine. Gli aggiornamenti alla Politica di Utilizzo dell’azienda ora vietano esplicitamente l’utilizzo dei propri strumenti per creare truffe o malware.

L’avvento del vibe-hacking solleva profondi interrogativi sulle implicazioni dell’IA nello sfruttamento delle vittime con crescente precisione. Sottolinea l’urgente necessità, sia per i governi che per le aziende tecnologiche, di migliorare i meccanismi di rilevamento e adattare le misure di sicurezza di pari passo con i progressi tecnologici. Questa vigilanza è fondamentale per impedire che l’IA venga utilizzata come arma per manipolare e danneggiare nell’era digitale.

Fonte e immagini

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *