Microsoft와 OpenAI는 해커들이 생성 AI를 사용하여 사이베어 공격을 개선하고 있다고 주장합니다.

Microsoft와 OpenAI는 해커들이 생성 AI를 사용하여 사이베어 공격을 개선하고 있다고 주장합니다.

조직화된 사이버 범죄자들이 새로운 종류의 공격을 위해 생성 AI 도구와 서비스를 사용하기 시작했다는 사실은 그다지 놀라운 일이 아닙니다. 오늘 우리는 국가 후원을 받는 해커들이 대규모 언어 모델을 어떻게 사용하는지에 대해 더 많은 정보를 얻었습니다.

블로그 게시물에서 Microsoft는 OpenAI와 협력하여 해커가 LLM을 사용하는 방법에 대한 새로운 연구를 발표했습니다. 여기에는 생성 AI 도구를 사용하는 것으로 확인된 특정 그룹에 대한 정보가 포함되어 있습니다.

이 그룹은 러시아, 북한, 이란, 중국과 같은 국가에 기반을 두고 있습니다. 그 중 하나는 포레스트 블리자드(Forest Blizzard)라는 라벨이 붙어 있으며 러시아 GRU 유닛 26165와 연결되어 있습니다. 마이크로소프트는 이 그룹이 현재 진행 중인 우크라이나 침공과 관련된 조직을 표적으로 삼는 데 적극적이라고 밝혔습니다.

Microsoft는 Forest Blizzard가 “위성 통신 프로토콜, 레이더 이미징 기술 및 특정 기술 매개 변수를 이해하기 위해” LLM을 사용해 왔다고 주장합니다. 연구에 따르면 이 그룹은 LLM을 사용하여 파일 선택 및 조작과 같은 작업도 자동화하려고 노력해 왔습니다.

Microsoft가 AI를 사용하고 있다고 말하는 또 다른 사이버 범죄 그룹은 Salmon Typhoon으로 분류되었습니다. 중국에 본사를 둔 이 그룹은 정부와 미국 방산업체를 표적으로 삼은 전력이 있습니다. Microsoft에 따르면 Salmon Typhoon은 LLM을 다양한 방식으로 사용했습니다. 여기에는 코딩 오류 찾기 및 기술 컴퓨팅 문서 번역이 포함됩니다.

마이크로소프트는 사이버 범죄자들의 AI 사용을 연구하기 위해 OpenAI와 계속 협력할 것이라고 밝혔습니다.

이러한 노력의 일환으로 우리는 위협 행위자와 관련된 자산 및 계정을 방해하고, OpenAI LLM 기술 및 사용자를 공격 또는 남용으로부터 보호하고, 모델 주변의 가드레일 및 안전 메커니즘을 형성하기 위한 조치를 취했습니다.

회사는 이러한 LLM 기반 사이버 위협을 처리하기 위해 자체 Copilot for Security 서비스를 사용할 것이라고 덧붙였습니다 .

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다