
OpenAI intensiviert sein Streben nach künstlicher allgemeiner Intelligenz (AGI), insbesondere angesichts der zunehmenden Konkurrenz durch DeepSeek, das sich zu einem beeindruckenden Akteur in der KI-Landschaft entwickelt hat. Das Unternehmen hat seine Vision für fortschrittliche KI-Agenten formuliert, die es als nächsten bedeutenden Meilenstein betrachtet. Dieses Engagement erfolgt jedoch vor dem Hintergrund einer anhaltenden Prüfung hinsichtlich des empfindlichen Gleichgewichts zwischen Sicherheit und Wettbewerbsvorteilen. In letzter Zeit stieß OpenAIs Ansatz zur KI-Sicherheit auf Gegenwind, insbesondere von ehemaligen Mitarbeitern, die die sich entwickelnde Darstellung des Unternehmens in Frage stellen.
Kritik des ehemaligen politischen Leiters an OpenAIs KI-Sicherheitsnarrativ
Um die Community einzubeziehen, hat OpenAI seine Methodik für die schrittweise Einführung seiner KI-Technologien dargelegt und dabei die vorsichtige Einführung von GPT-2 als Maßstab genannt. Dieser Ansatz wurde jedoch nicht allgemein angenommen. Miles Brundage, ein ehemaliger Politikforscher bei OpenAI, hat das Unternehmen öffentlich dafür kritisiert, die Darstellung seiner KI-Sicherheitsgeschichte angeblich zu verzerren.
Das von OpenAI veröffentlichte Dokument unterstreicht sein Engagement für einen iterativen und durchdachten Ansatz bei der Bereitstellung von KI. In diesem Dokument wird die Bedeutung des Lernens aus früheren Praktiken zur Verbesserung zukünftiger Sicherheitsmaßnahmen erörtert. Insbesondere wird GPT-2 als Beispiel für die vorsichtige Strategie des Unternehmens angeführt und erklärt, dass es darauf abzielt, aktuelle Systeme in einer komplexen Landschaft mit erhöhter Wachsamkeit zu behandeln. Das Dokument formuliert Folgendes:
In einer diskontinuierlichen Welt […] lassen sich Sicherheitslektionen daraus ziehen, die heutigen Systeme im Verhältnis zu ihrer scheinbaren Leistung mit übermäßiger Vorsicht zu behandeln, [was] der Ansatz ist, den wir für [unser KI-Modell] GPT-2 gewählt haben. Wir betrachten die erste AGI jetzt nur als einen Punkt in einer Reihe von Systemen mit zunehmender Nützlichkeit […] In der kontinuierlichen Welt besteht der Weg, das nächste System sicher und nützlich zu machen, darin, vom aktuellen System zu lernen.
Brundage, der als Leiter der politischen Forschung bei OpenAI tätig war, betont, dass die Einführung von GPT-2 einer methodischen Entwicklung folgte und OpenAI während der gesamten Entwicklung Erkenntnisse lieferte. Sicherheitsexperten erkannten den verantwortungsvollen Charakter dieser schrittweisen Einführung an. Er betont, dass der vorsichtige Ansatz unerlässlich und nicht übermäßig zögerlich war.
Der Großteil dieses Beitrags ist gut und ich applaudiere den Leuten, die an der inhaltlichen Arbeit arbeiten, die hier besprochen wird.
Aber ich bin ziemlich verärgert/besorgt über den Abschnitt „AGI in vielen Schritten statt einem großen Sprung“, der die Geschichte von GPT-2 auf besorgniserregende Weise umschreibt.https://t.co/IQOdKczJeT
– Miles Brundage (@Miles_Brundage) , 5. März 2025
Brundage äußerte sich außerdem unwohl über die Behauptung von OpenAI, dass sich AGI in kleinen Schritten und nicht als plötzlicher Durchbruch entwickeln werde. Er kritisiert, dass das Unternehmen möglicherweise die Zeitpläne früherer Veröffentlichungen falsch darstellt und Sicherheitsstandards neu definiert, was seiner Meinung nach kritische Diskussionen über KI-Risiken im Zuge des technologischen Fortschritts untergraben könnte.
Dieser Vorfall ist ein weiteres Beispiel dafür, dass OpenAI in Frage gestellt wird, ob es langfristiger Sicherheit Vorrang vor schneller Innovation und Profit einräumt. Experten wie Brundage äußern weiterhin Bedenken hinsichtlich der Bedeutung eines maßvollen Ansatzes für die KI-Sicherheit, insbesondere angesichts der zunehmenden Geschwindigkeit des Fortschritts.
Schreibe einen Kommentar