
OpenAI intensyfikuje swoje dążenia do sztucznej inteligencji ogólnej (AGI), szczególnie w obliczu rosnącej konkurencji ze strony DeepSeek, który stał się groźnym graczem w krajobrazie AI. Firma przedstawiła swoją wizję zaawansowanych agentów AI, którą uważa za kolejny znaczący kamień milowy. Jednak zobowiązanie to pojawia się pośród trwającej kontroli dotyczącej delikatnej równowagi między bezpieczeństwem a postępem konkurencyjnym. Ostatnio podejście OpenAI do bezpieczeństwa AI spotkało się z reakcją, zwłaszcza ze strony byłych pracowników kwestionujących ewoluującą narrację firmy.
Krytyka byłego szefa polityki dotycząca narracji OpenAI na temat bezpieczeństwa sztucznej inteligencji
W celu zaangażowania społeczności OpenAI przedstawiło swoją metodologię stopniowego wdrażania technologii AI, powołując się na ostrożne wdrożenie GPT-2 jako punkt odniesienia. Jednak podejście to nie zostało powszechnie przyjęte. Miles Brundage, były badacz polityki w OpenAI, publicznie skrytykował firmę za rzekome zniekształcanie narracji otaczającej historię bezpieczeństwa AI.
Dokument opublikowany przez OpenAI podkreśla zaangażowanie w iteracyjne i przemyślane podejście do wdrażania AI. W dokumencie tym omówiono znaczenie uczenia się z przeszłych praktyk w celu ulepszenia przyszłych środków bezpieczeństwa. W szczególności przytacza GPT-2 jako przykład ostrożnej strategii firmy, twierdząc, że zamierza traktować obecne systemy ze zwiększoną czujnością w złożonym krajobrazie. Dokument stanowi, że:
W świecie nieciągłym […] lekcje bezpieczeństwa wynikają z traktowania dzisiejszych systemów z nadmierną ostrożnością w stosunku do ich pozornej mocy, [co] jest podejściem, które przyjęliśmy w przypadku [naszego modelu AI] GPT‑2. Obecnie postrzegamy pierwszą AGI jako tylko jeden punkt w serii systemów o rosnącej użyteczności […] W świecie ciągłym sposobem na uczynienie kolejnego systemu bezpiecznym i korzystnym jest uczenie się od obecnego systemu.
Brundage, który pełnił funkcję szefa badań nad polityką w OpenAI, podkreśla, że wdrożenie GPT-2 przebiegało metodycznie, a OpenAI dostarczało spostrzeżeń w trakcie całego procesu rozwoju. Eksperci ds.bezpieczeństwa uznali odpowiedzialny charakter tego stopniowego wdrożenia. Twierdzi, że ostrożne podejście było niezbędne, a nie nadmiernie nieśmiałe.
Większa część tego wpisu jest dobra i wyrażam uznanie osobom, które pracują nad merytoryczną pracą, którą omawia.
Ale jestem dość zirytowany/zaniepokojony sekcją „AGI w wielu krokach, a nie jednym wielkim skoku”, która w niepokojący sposób przepisuje historię GPT-2.https://t.co/IQOdKczJeT
— Miles Brundage (@Miles_Brundage) 5 marca 2025 r.
Brundage wyraził ponadto zaniepokojenie twierdzeniem OpenAI, że AGI będzie się rozwijać stopniowo, a nie jako nagły przełom. Krytykuje firmę za potencjalne błędne przedstawienie harmonogramów poprzednich wydań i za ponowne zdefiniowanie standardów bezpieczeństwa, co jego zdaniem może podważyć krytyczne dyskusje na temat ryzyka związanego ze sztuczną inteligencją w miarę postępu technologicznego.
Ten incydent oznacza kolejny przypadek, w którym OpenAI staje w obliczu pytań o swoje zaangażowanie w priorytetowe traktowanie długoterminowego bezpieczeństwa ponad szybką innowację i zysk. Eksperci tacy jak Brundage nadal wyrażają obawy dotyczące znaczenia wyważonego podejścia do bezpieczeństwa AI, zwłaszcza w miarę wzrostu tempa postępu.
Dodaj komentarz