
La Radeon RX 7900 XTX de AMD se ha convertido en una poderosa contendiente en el campo de la inferencia de IA, superando a la GeForce RTX 4090 de NVIDIA en pruebas comparativas con el modelo de IA R1 de DeepSeek. Este desarrollo señala un cambio significativo en el panorama informático, ya que hace que las capacidades avanzadas de IA sean más accesibles para los usuarios cotidianos.
El modelo de inteligencia artificial R1 de DeepSeek: la ventaja competitiva de AMD
El lanzamiento del último modelo de IA de DeepSeek ha generado un gran entusiasmo en la comunidad tecnológica. Para aquellos que cuestionan las demandas computacionales de ejecutar este modelo, la GPU AMD Radeon RX 7900 XTX, que utiliza su arquitectura «RDNA 3», demuestra ser suficiente para la tarea. Los últimos benchmarks demuestran una marcada ventaja de rendimiento de la serie insignia RX 7000 de AMD sobre su contraparte NVIDIA en varios modelos.
DeepSeek funciona muy bien en @AMDRadeon 7900 XTX. Aprende a ejecutarlo en GPU Radeon y APU Ryzen AI aquí: https://t.co/FVLDLJ18Ov pic.twitter.com/5OKEkyJjh3
— David McAfee (@McAfeeDavid_AMD) 29 de enero de 2025
Ventajas del procesamiento de IA local con GPU AMD
Para las personas que utilizan GPU de consumo para tareas de IA, la serie AMD Radeon presenta una opción atractiva, ya que ofrece un rendimiento excelente en relación con el precio en comparación con los aceleradores de IA tradicionales. La ejecución de modelos de IA de forma local no solo mejora el rendimiento, sino que también aborda importantes problemas de privacidad asociados con el uso de servicios en la nube, en particular en lo que respecta a los datos que manejan las soluciones de IA de DeepSeek.
Guía paso a paso para ejecutar DeepSeek R1 en su hardware AMD
Comenzar a utilizar el modelo R1 de DeepSeek es sencillo. Siga estos pasos para obtener un rendimiento óptimo:
Paso 1: Asegúrese de estar utilizando la versión 25.1.1 Opcional del controlador Adrenalin o posterior.
Paso 2: Descargue la versión 0.3.8 o superior de LM Studio desde lmstudio.ai/ryzenai.
Paso 3: Instale LM Studio y omita la pantalla de incorporación.
Paso 4: Haga clic en la pestaña “descubrir”.
Paso 5: Seleccione el destilado DeepSeek R1 que desee. Se recomiendan modelos más pequeños, como Qwen 1.5B, por su velocidad, mientras que los modelos más grandes ofrecen capacidades de razonamiento mejoradas.
Paso 6: En el lado derecho, seleccione la cuantificación “Q4 KM” y haga clic en “Descargar”.
Paso 7: Después de la descarga, regrese a la pestaña de chat, elija el destilado DeepSeek R1 del menú desplegable y asegúrese de que la opción “seleccionar parámetros manualmente” esté marcada.
Paso 8: En las capas de descarga de GPU, mueva el control deslizante a la configuración máxima.
Paso 9: Haga clic en “cargar modelo”.
Paso 10: ¡Comienza a interactuar con tu modelo de razonamiento que se ejecuta localmente!
Recursos adicionales y tendencias futuras
Si tiene dificultades, AMD también ha creado un tutorial detallado en YouTube que explica el proceso de configuración para ejecutar los modelos de lenguaje de gran tamaño de DeepSeek en máquinas AMD locales. Esto resulta especialmente beneficioso para los usuarios preocupados por la seguridad y la privacidad de los datos.
De cara al futuro, el lanzamiento previsto de nuevas GPU de AMD y NVIDIA promete avances sustanciales en las capacidades de inferencia, gracias en parte a motores de IA dedicados diseñados para manejar cargas de trabajo exigentes de manera más eficiente.
Fuente e imágenes
Deja una respuesta ▼