L’ancien responsable de la politique d’OpenAI affirme que l’entreprise a changé son discours sur la sécurité de l’IA

L’ancien responsable de la politique d’OpenAI affirme que l’entreprise a changé son discours sur la sécurité de l’IA

OpenAI intensifie ses efforts en matière d’intelligence artificielle générale (AGI), notamment dans le sillage de la concurrence croissante de DeepSeek, qui s’est imposé comme un acteur redoutable dans le paysage de l’IA. L’entreprise a articulé sa vision des agents d’IA avancés, qu’elle considère comme la prochaine étape importante. Cependant, cet engagement intervient dans un contexte de surveillance continue concernant l’équilibre délicat entre sécurité et progrès concurrentiel. Récemment, l’approche d’OpenAI en matière de sécurité de l’IA a fait l’objet de réactions négatives, en particulier de la part d’anciens employés qui remettent en question l’évolution du discours de l’entreprise.

Critiques d’un ancien responsable politique concernant le discours d’OpenAI sur la sécurité de l’IA

Dans un effort pour mobiliser la communauté, OpenAI a présenté sa méthodologie pour le déploiement progressif de ses technologies d’IA, citant le déploiement prudent de GPT-2 comme référence. Cependant, cette approche n’a pas été universellement adoptée. Miles Brundage, ancien chercheur en politique chez OpenAI, a publiquement critiqué l’entreprise pour avoir prétendument déformé le récit entourant son historique de sécurité de l’IA.

Le document publié par OpenAI souligne son engagement en faveur d’une approche itérative et réfléchie du déploiement de l’IA. Ce document évoque l’importance de tirer les leçons des pratiques passées pour améliorer les mesures de sécurité futures. Il cite notamment GPT-2 comme exemple de la stratégie prudente de l’entreprise, affirmant qu’elle vise à traiter les systèmes actuels avec une vigilance accrue dans un environnement complexe. Le document précise que :

Dans un monde discontinu […] les leçons de sécurité viennent de la prudence dont nous faisons preuve à l’égard des systèmes actuels par rapport à leur puissance apparente, [ce qui] est l’approche que nous avons adoptée pour [notre modèle d’IA] GPT-2. Nous considérons désormais la première IA comme un simple point parmi une série de systèmes d’utilité croissante […] Dans un monde continu, la façon de rendre le prochain système sûr et bénéfique est d’apprendre du système actuel.

Brundage, qui a été responsable de la recherche sur les politiques d’OpenAI, souligne que le déploiement de GPT-2 a suivi une trajectoire méthodique, OpenAI fournissant des informations tout au long de son développement. Les experts en sécurité ont reconnu le caractère responsable de ce déploiement progressif. Il maintient que l’approche prudente était essentielle, plutôt que trop hésitante.

Brundage a également exprimé son malaise face à l’affirmation d’OpenAI selon laquelle l’AGI se développerait par étapes progressives plutôt que comme une percée soudaine. Il critique l’entreprise pour avoir potentiellement déformé les calendriers des versions précédentes et pour avoir redéfini les normes de sécurité, ce qui, selon lui, pourrait compromettre les discussions critiques sur les risques de l’IA à mesure que la technologie progresse.

Cet incident constitue un autre exemple de la façon dont OpenAI est confronté à des questions quant à son engagement à privilégier la sécurité à long terme plutôt que l’innovation rapide et le profit. Des experts comme Brundage continuent d’exprimer leurs inquiétudes quant à l’importance d’une approche mesurée de la sécurité de l’IA, en particulier à mesure que le rythme des progrès s’accélère.

Source et images

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *