
AMD는 최신 드라이버 업데이트로 개인용 컴퓨터를 위한 엣지 AI 기능을 크게 발전시켜 사용자에게 대규모 언어 모델(LLM)에 대한 지원을 제공했습니다.
AMD, Strix Halo 플랫폼으로 소비자 AI 혁신 강화
업계의 선도 기업인 AMD는 혁신적인 XDNA 엔진을 통해 고성능 AI 컴퓨팅을 소비자 시스템에 통합하는 데 있어 괄목할 만한 진전을 이루었습니다.특히 Strix Point 및 Strix Halo 라인업에 탑재된 AMD의 가속 처리 장치(APU)는 탁월한 AI 성능을 보여줍니다.최신 Adrenalin Edition 25.8.1 드라이버는 최대 1, 280억 개의 매개변수에 도달할 수 있는 LLM 모델을 지원하여 소비자 기기가 Meta의 최첨단 Llama 4 Scout를 비롯한 고급 AI 모델을 활용할 수 있는 길을 열어줍니다.

AMD 기술의 가장 두드러진 특징 중 하나는 가변 그래픽 메모리(VGM)로, 사용자는 내장 GPU(iGPU)에 최대 96GB의 그래픽 메모리를 할당할 수 있습니다.이 기능을 통해 대규모 AI 모델을 로컬에서 실행할 수 있습니다.예를 들어, Llama 모델은 전문가 혼합(MoE) 설계로 작동하며 런타임 동안 170억 개의 매개변수만 사용합니다.결과적으로 사용자는 뛰어난 초당 트랜잭션(TPS)을 달성하여 LLM이 정교한 AI 비서로서 효율적으로 작동할 수 있도록 지원합니다.

AMD의 발전은 단순한 연산 능력 그 이상으로 확장됩니다.컨텍스트 크기 또한 크게 개선되었습니다.기존 소비자용 프로세서는 약 4, 096개의 토큰으로 구성된 컨텍스트 길이를 지원했습니다.그러나 AMD는 256, 000개의 토큰이라는 놀라운 컨텍스트 길이를 달성하여 사용자의 워크플로우 제어력을 크게 향상시키고 지속적으로 강력한 성능을 보장합니다.이러한 발전은 개인용 컴퓨터에서 “AI 컴퓨팅” 기술의 급속한 발전을 보여주며, 업계에 주목할 만한 변화를 가져왔습니다.
현재 Strix Halo 플랫폼은 제한된 수의 기기에서만 사용 가능하며, 일부 시스템의 가격은 2, 000달러를 넘기 때문에 많은 소비자에게 접근성은 여전히 어려운 과제입니다.이러한 최첨단 기기를 구매하려면 상당한 재정적 투자가 필요하지만, 높은 비용에도 불구하고 AI 역량의 대중화를 향한 AMD의 의지는 분명합니다.
답글 남기기