조직화된 사이버 범죄자들이 새로운 종류의 공격을 위해 생성 AI 도구와 서비스를 사용하기 시작했다는 사실은 그다지 놀라운 일이 아닙니다. 오늘 우리는 국가 후원을 받는 해커들이 대규모 언어 모델을 어떻게 사용하는지에 대해 더 많은 정보를 얻었습니다.
블로그 게시물에서 Microsoft는 OpenAI와 협력하여 해커가 LLM을 사용하는 방법에 대한 새로운 연구를 발표했습니다. 여기에는 생성 AI 도구를 사용하는 것으로 확인된 특정 그룹에 대한 정보가 포함되어 있습니다.
이 그룹은 러시아, 북한, 이란, 중국과 같은 국가에 기반을 두고 있습니다. 그 중 하나는 포레스트 블리자드(Forest Blizzard)라는 라벨이 붙어 있으며 러시아 GRU 유닛 26165와 연결되어 있습니다. 마이크로소프트는 이 그룹이 현재 진행 중인 우크라이나 침공과 관련된 조직을 표적으로 삼는 데 적극적이라고 밝혔습니다.
Microsoft는 Forest Blizzard가 “위성 통신 프로토콜, 레이더 이미징 기술 및 특정 기술 매개 변수를 이해하기 위해” LLM을 사용해 왔다고 주장합니다. 연구에 따르면 이 그룹은 LLM을 사용하여 파일 선택 및 조작과 같은 작업도 자동화하려고 노력해 왔습니다.
Microsoft가 AI를 사용하고 있다고 말하는 또 다른 사이버 범죄 그룹은 Salmon Typhoon으로 분류되었습니다. 중국에 본사를 둔 이 그룹은 정부와 미국 방산업체를 표적으로 삼은 전력이 있습니다. Microsoft에 따르면 Salmon Typhoon은 LLM을 다양한 방식으로 사용했습니다. 여기에는 코딩 오류 찾기 및 기술 컴퓨팅 문서 번역이 포함됩니다.
마이크로소프트는 사이버 범죄자들의 AI 사용을 연구하기 위해 OpenAI와 계속 협력할 것이라고 밝혔습니다.
이러한 노력의 일환으로 우리는 위협 행위자와 관련된 자산 및 계정을 방해하고, OpenAI LLM 기술 및 사용자를 공격 또는 남용으로부터 보호하고, 모델 주변의 가드레일 및 안전 메커니즘을 형성하기 위한 조치를 취했습니다.
회사는 이러한 LLM 기반 사이버 위협을 처리하기 위해 자체 Copilot for Security 서비스를 사용할 것이라고 덧붙였습니다 .
답글 남기기