
A AMD está prevendo uma mudança da inferência tradicional de data center para um futuro em que dispositivos de consumo, como smartphones e laptops, se tornarão as principais plataformas para essas operações.
Diretor de Tecnologia da AMD descreve a próxima onda de IA: migração de inferência para dispositivos de ponta
O início da “febre da IA” concentrou-se inicialmente no treinamento de modelos, com diversas empresas acumulando recursos computacionais significativos para o treinamento de modelos de linguagem de grande porte (LLMs).No entanto, uma tendência notável está emergindo, indicando uma mudança em direção às capacidades de inferência. Em uma entrevista recente ao Business Insider, Mark Papermaster, Diretor de Tecnologia da AMD, compartilhou insights sobre essa transição, destacando que a inferência está cada vez mais sendo direcionada para dispositivos de ponta. A AMD está preparada para desafiar a NVIDIA neste crescente segmento de mercado.
Pergunta: OK, digamos que seja 2030 — quanta inferência é feita na borda?
CTO da AMD: Com o tempo, será a maioria. Não sei dizer quando a transição ocorrerá, porque ela é impulsionada pelos aplicativos — o desenvolvimento de aplicativos incríveis que podem ser executados em dispositivos de ponta. Estamos apenas vendo a ponta da lança agora, mas acho que isso evolui rapidamente.
Papermaster sugere que o aumento das despesas relacionadas ao processamento de IA em data centers obrigará gigantes da tecnologia como Microsoft, Meta e Google a reconsiderar suas estratégias, levando a uma adoção mais ampla de soluções de IA de ponta. Ele enfatiza que a AMD leva o potencial dos “PCs com IA” mais a sério do que concorrentes como Intel e Qualcomm. Essa perspectiva se reflete nas linhas mais recentes de APUs da AMD, incluindo Strix Point e Strix Halo, projetadas para integrar recursos de IA em sistemas compactos, mantendo a relação custo-benefício.

Ao discutir a evolução dos recursos computacionais, a Papermaster destacou a importância de aprimorar a precisão e a eficiência dos modelos de IA. Com a introdução do DeepSeek, os principais players de tecnologia estão adotando cada vez mais alternativas otimizadas para seus processos de IA. O objetivo a longo prazo é que os dispositivos executem modelos sofisticados de IA localmente, maximizando assim a experiência do usuário na utilização da IA.
Os sentimentos expressos pelo CTO da AMD ecoam afirmações anteriores de Pat Gelsinger, ex-CEO da Intel, sobre a necessidade de focar em inferência para avanços futuros. Isso indica que as empresas que competem com a NVIDIA têm encontrado dificuldades para penetrar no setor de “treinamento em IA”, onde a NVIDIA estabeleceu uma liderança formidável. Em vez disso, a AMD parece preparada para fazer avanços significativos no mercado de IA de ponta, oferecendo processadores projetados especificamente para essas aplicações emergentes.
Deixe um comentário