
Globalny krajobraz cyberprzestępczości ewoluuje w alarmującym tempie, charakteryzując się wzrostem wyrafinowania, co stanowi poważne zagrożenie zarówno dla osób fizycznych, jak i organizacji. Wzrost liczby ataków ransomware przybrał nową formę, częściowo ze względu na dostępność generatywnych narzędzi sztucznej inteligencji, które niestety są wykorzystywane do popełniania przestępstw. Ta zaawansowana technologia nie tylko ułatwia tworzenie groźnych wiadomości z żądaniem okupu, ale jest również integralną częścią operacji cyberprzestępczych. Niedawny raport firmy Anthropic podkreśla ten trend, ujawniając, jak przestępcy wykorzystują technologię do tworzenia złośliwego oprogramowania i organizowania szeroko zakrojonych kampanii hakerskich.
Nowe zagrożenia napędzane przez sztuczną inteligencję: wnioski z raportu Anthropic
W środę firma Anthropic opublikowała obszerny raport Threat Intelligence Report, opublikowany przez agencję Reuters, szczegółowo opisujący skuteczne działania firmy mające na celu udaremnienie ataków hakerskich, których celem było wykorzystanie jej systemów sztucznej inteligencji Claude. Przestępcy zamierzali wykorzystać te systemy do takich działań, jak wysyłanie wiadomości phishingowych i obchodzenie istniejących zabezpieczeń. Raport ten rzuca światło na innowacyjne, ale niepokojące taktyki wykorzystywane przez cyberprzestępców do manipulowania generatywną sztuczną inteligencją w szkodliwych celach.
Jednym z najbardziej niepokojących odkryć było odkrycie grupy hakerów, która wykorzystała Claude’a Code’a, asystenta ds.kodowania AI w firmie Anthropic, do zorganizowania skoordynowanej kampanii cyberataków wymierzonych w 17 organizacji, w tym instytucje rządowe, placówki opieki zdrowotnej i służby ratunkowe. Grupa ta umiejętnie wykorzystała model sztucznej inteligencji nie tylko do formułowania żądań okupu, ale także do realizacji całej strategii hakerskiej. Firma Anthropic określiła tę alarmującą nową metodę jako „vibe-hacking”, odnosząc się do taktyk przymusu emocjonalnego i psychologicznego stosowanych przez atakujących, aby zmusić ofiary do podporządkowania się, czy to poprzez okup, czy nieuzasadnione ujawnienie informacji.
Raport ujawnił, że okupy żądane przez tę grupę hakerów przekroczyły 500 000 dolarów, co podkreśla wysokie ryzyko cyberwymuszeń opartych na sztucznej inteligencji. Co więcej, konsekwencje tego nadużycia wykraczają poza oprogramowanie ransomware, obejmując działania oszukańcze, takie jak wykorzystywanie sztucznej inteligencji do zdobywania stanowisk w firmach z listy Fortune 500 za pomocą nieuczciwych praktyk. Bariery zatrudnienia, zazwyczaj związane z biegłością językową i wiedzą techniczną, zostały pokonane dzięki wykorzystaniu modeli sztucznej inteligencji do przeprowadzenia procesu rekrutacji.
Raport Anthropic zilustrował również inne niepokojące przykłady, w tym oszustwa matrymonialne przeprowadzane za pośrednictwem platform takich jak Telegram. Oszuści zatrudnili Claude’a do stworzenia botów zdolnych do generowania przekonujących wiadomości w wielu językach, w tym pochlebnych uwag skierowanych do ofiar w różnych regionach, takich jak Stany Zjednoczone, Japonia i Korea. W odpowiedzi na te nielegalne działania, Anthropic podjął proaktywne działania, blokując konta naruszające prywatność, wdrażając dodatkowe protokoły bezpieczeństwa i współpracując z organami ścigania. Aktualizacje Polityki Użytkowania firmy wyraźnie zabraniają wykorzystywania ich narzędzi do tworzenia oszustw lub złośliwego oprogramowania.
Pojawienie się hakowania wibracji rodzi głębokie pytania dotyczące wpływu sztucznej inteligencji na wykorzystywanie ofiar z coraz większą precyzją. Podkreśla to pilną potrzebę zarówno rządów, jak i firm technologicznych, aby udoskonalić mechanizmy wykrywania i dostosować środki bezpieczeństwa do postępu technologicznego. Ta czujność jest kluczowa, aby zapobiec wykorzystywaniu sztucznej inteligencji do manipulacji i wyrządzania szkód w erze cyfrowej.
Dodaj komentarz