NVIDIA fait face à un double défi dans la concurrence des puces d’IA alors que Google intensifie ses plans pour remplacer ses processeurs – Rapport

NVIDIA fait face à un double défi dans la concurrence des puces d’IA alors que Google intensifie ses plans pour remplacer ses processeurs – Rapport

Cet article ne constitue pas un conseil financier. L’auteur ne détient aucune position sur les actions mentionnées.

Google développe activement ses unités de traitement tenseur (TPU) pour l’IA, se positionnant ainsi face à NVIDIA dans le paysage en constante évolution du matériel d’IA. Le marché débat entre investir dans les GPU IA onéreux de NVIDIA et envisager des alternatives internes plus abordables. Des rapports récents ont indiqué une forte baisse de l’action Amazon, perdant 9, 8 % après la publication des résultats du deuxième trimestre. Cette baisse est attribuée à une baisse des revenus du cloud computing, qui, selon les analystes, résulte du choix d’Amazon d’utiliser ses propres puces d’IA Trainium au lieu des offres de NVIDIA. En réponse, Google collaborerait avec des entreprises de cloud computing plus petites pour intégrer ses puces TPU aux GPU de NVIDIA.

Google cible l’intégration du TPU avec les GPU NVIDIA dans les centres de données

Un rapport de juin soulignait qu’OpenAI exploitait les TPU de Google pour améliorer ChatGPT et divers services d’IA. Bien que cette affirmation repose sur une source unique, même si elle est exacte, elle représente probablement une augmentation marginale de la dépendance d’OpenAI au matériel de Google. The Information a ensuite fait état d’une initiative dans le cadre de laquelle Google contacte des fournisseurs d’infrastructure cloud plus petits pour proposer l’inclusion de ses TPU aux côtés des GPU NVIDIA, plus largement reconnus. Cette décision stratégique semble destinée à stimuler la demande du marché pour les produits Google dans un environnement concurrentiel.

Fonctionnalités d'IA d'Apple
Les fonctionnalités d’IA embarquées et cloud d’Apple s’appuient sur des techniques d’entraînement dérivées de l’AFM et des TPU de Google. Source de l’image : Apple Intelligence Foundation

Selon The Information, l’intention de Google de promouvoir les TPU va au-delà de la simple remise en cause de la domination de NVIDIA. Un facteur crucial pourrait être les contraintes de capacité de Google ; bien que disposant d’un stock suffisant de puces, l’entreprise est incapable d’étendre rapidement son infrastructure de centres de données pour exploiter pleinement les GPU. Par conséquent, Google pourrait dépendre de centres de données tiers équipés de ses TPU pour répondre à ses besoins internes en matière de calcul d’IA.

La surveillance des GPU d’IA de NVIDIA et des stratégies des géants technologiques concernant la fabrication interne de puces s’est intensifiée suite à la publication des derniers résultats d’Amazon. Cette publication a initialement entraîné une baisse de près de 10 % du cours de l’action Amazon, les investisseurs exprimant leurs inquiétudes quant à une possible stagnation de la croissance du cloud computing, alimentée par la dépendance à Trainium. Un récent rapport de New Street souligne la persistance des difficultés d’adoption d’Amazon Web Services (AWS), indiquant une préférence pour les GPU par rapport à Trainium, notamment chez Anthropic, acteur clé du développement de modèles d’IA.

Si les avantages financiers des puces propriétaires séduisent les grandes entreprises technologiques, NVIDIA affirme que ses GPU offrent des performances et une efficacité inégalées. La concurrence dans le domaine des puces d’IA ne cesse de s’intensifier, chaque entreprise s’efforçant de prouver sa supériorité dans un domaine de plus en plus important.

Source et images

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *