Były lider polityki OpenAI twierdzi, że firma zmieniła swoją narrację dotyczącą bezpieczeństwa AI

Były lider polityki OpenAI twierdzi, że firma zmieniła swoją narrację dotyczącą bezpieczeństwa AI

OpenAI intensyfikuje swoje dążenia do sztucznej inteligencji ogólnej (AGI), szczególnie w obliczu rosnącej konkurencji ze strony DeepSeek, który stał się groźnym graczem w krajobrazie AI. Firma przedstawiła swoją wizję zaawansowanych agentów AI, którą uważa za kolejny znaczący kamień milowy. Jednak zobowiązanie to pojawia się pośród trwającej kontroli dotyczącej delikatnej równowagi między bezpieczeństwem a postępem konkurencyjnym. Ostatnio podejście OpenAI do bezpieczeństwa AI spotkało się z reakcją, zwłaszcza ze strony byłych pracowników kwestionujących ewoluującą narrację firmy.

Krytyka byłego szefa polityki dotycząca narracji OpenAI na temat bezpieczeństwa sztucznej inteligencji

W celu zaangażowania społeczności OpenAI przedstawiło swoją metodologię stopniowego wdrażania technologii AI, powołując się na ostrożne wdrożenie GPT-2 jako punkt odniesienia. Jednak podejście to nie zostało powszechnie przyjęte. Miles Brundage, były badacz polityki w OpenAI, publicznie skrytykował firmę za rzekome zniekształcanie narracji otaczającej historię bezpieczeństwa AI.

Dokument opublikowany przez OpenAI podkreśla zaangażowanie w iteracyjne i przemyślane podejście do wdrażania AI. W dokumencie tym omówiono znaczenie uczenia się z przeszłych praktyk w celu ulepszenia przyszłych środków bezpieczeństwa. W szczególności przytacza GPT-2 jako przykład ostrożnej strategii firmy, twierdząc, że zamierza traktować obecne systemy ze zwiększoną czujnością w złożonym krajobrazie. Dokument stanowi, że:

W świecie nieciągłym […] lekcje bezpieczeństwa wynikają z traktowania dzisiejszych systemów z nadmierną ostrożnością w stosunku do ich pozornej mocy, [co] jest podejściem, które przyjęliśmy w przypadku [naszego modelu AI] GPT‑2. Obecnie postrzegamy pierwszą AGI jako tylko jeden punkt w serii systemów o rosnącej użyteczności […] W świecie ciągłym sposobem na uczynienie kolejnego systemu bezpiecznym i korzystnym jest uczenie się od obecnego systemu.

Brundage, który pełnił funkcję szefa badań nad polityką w OpenAI, podkreśla, że ​​wdrożenie GPT-2 przebiegało metodycznie, a OpenAI dostarczało spostrzeżeń w trakcie całego procesu rozwoju. Eksperci ds.bezpieczeństwa uznali odpowiedzialny charakter tego stopniowego wdrożenia. Twierdzi, że ostrożne podejście było niezbędne, a nie nadmiernie nieśmiałe.

Brundage wyraził ponadto zaniepokojenie twierdzeniem OpenAI, że AGI będzie się rozwijać stopniowo, a nie jako nagły przełom. Krytykuje firmę za potencjalne błędne przedstawienie harmonogramów poprzednich wydań i za ponowne zdefiniowanie standardów bezpieczeństwa, co jego zdaniem może podważyć krytyczne dyskusje na temat ryzyka związanego ze sztuczną inteligencją w miarę postępu technologicznego.

Ten incydent oznacza kolejny przypadek, w którym OpenAI staje w obliczu pytań o swoje zaangażowanie w priorytetowe traktowanie długoterminowego bezpieczeństwa ponad szybką innowację i zysk. Eksperci tacy jak Brundage nadal wyrażają obawy dotyczące znaczenia wyważonego podejścia do bezpieczeństwa AI, zwłaszcza w miarę wzrostu tempa postępu.

Źródło i obrazy

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *