Des rumeurs entourent le modèle d’IA DeepSeek R2 : il devrait réduire les coûts de 97 % par rapport à GPT-4, entièrement formé sur les puces Ascend de Huawei

Des rumeurs entourent le modèle d’IA DeepSeek R2 : il devrait réduire les coûts de 97 % par rapport à GPT-4, entièrement formé sur les puces Ascend de Huawei

L’entreprise technologique chinoise DeepSeek semble prête à lancer prochainement son dernier modèle d’IA, le « DeepSeek R2 ».Les premiers détails ont été dévoilés, suscitant l’intérêt de la communauté technologique.

DeepSeek R2 : une révolution dans l’IA grâce à la technologie Huawei

Le premier modèle d’IA grand public de DeepSeek, le R1, a démontré la capacité de la Chine à rivaliser dans le paysage de l’IA haut de gamme, remettant en cause la suprématie technologique perçue des entreprises occidentales. Le lancement du R1 a provoqué des remous sur le marché boursier américain, entraînant des pertes de plusieurs milliards de dollars, tout en révélant que le développement d’une IA avancée ne nécessite pas toujours les budgets importants évoqués par des entreprises comme OpenAI. Récemment, des médias chinois ont commencé à diffuser des rumeurs concernant le prochain modèle R2, laissant entendre que le secteur occidental de l’IA pourrait une fois de plus être pris au dépourvu par les innovations chinoises.

Bien que l’engouement autour du modèle R2 soit enthousiasmant, il est crucial d’aborder ces rapports avec prudence, DeepSeek n’ayant encore officiellement confirmé aucun détail. Selon certaines sources, DeepSeek R2 utilisera une architecture hybride Mixture of Experts (MoE), une itération améliorée qui intégrera potentiellement des mécanismes de déclenchement avancés aux couches denses traditionnelles. Cette architecture devrait presque doubler le nombre de paramètres, pour atteindre le chiffre impressionnant de 1 200 milliards de paramètres.

Modèle d'IA DeepSeek R2

Le nombre de paramètres à lui seul positionne R2 comme un concurrent redoutable face à des modèles comme GPT-4 Turbo d’OpenAI et Gemini 2.0 Pro de Google. Cependant, les implications financières sont tout aussi importantes ; des rapports suggèrent que DeepSeek R2 offrira des coûts de traitement des jetons jusqu’à 97, 4 % inférieurs à ceux de GPT-4, avec un prix fixé à environ 0, 07 $ par million de jetons d’entrée et 0, 27 $ par million de jetons de sortie. Cette stratégie tarifaire indique que R2 pourrait facilement devenir la solution d’IA la plus rentable du marché, transformant ainsi la dynamique du marché.

Il convient également de noter que le modèle R2 devrait exploiter 82 % des ressources de calcul du cluster de puces Ascend 910B de Huawei, affichant une capacité de calcul robuste de 512 pétaflops avec la précision FP16. Ce choix stratégique d’exploiter les puces internes témoigne de l’engagement de DeepSeek à consolider sa chaîne d’approvisionnement en IA et à optimiser la gestion des ressources.

Bien que ces développements autour de DeepSeek R2 restent spéculatifs, les premières informations dressent le portrait d’un produit susceptible de poser des défis considérables aux acteurs établis du secteur de l’IA. Son lancement anticipé pourrait bien marquer un tournant, influençant non seulement les avancées technologiques, mais aussi l’économie de l’IA sur les marchés mondiaux.

Source et images

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *