Ex-OpenAI Policy Leader sostiene che l’azienda ha cambiato la sua narrativa sulla sicurezza dell’intelligenza artificiale

Ex-OpenAI Policy Leader sostiene che l’azienda ha cambiato la sua narrativa sulla sicurezza dell’intelligenza artificiale

OpenAI sta intensificando la sua ricerca di intelligenza artificiale generale (AGI), in particolare sulla scia della crescente concorrenza di DeepSeek, che è emersa come un formidabile attore nel panorama dell’IA. L’azienda ha articolato la sua visione per gli agenti di IA avanzati, che considera la prossima pietra miliare significativa. Tuttavia, questo impegno arriva in mezzo a un continuo controllo riguardante il delicato equilibrio tra sicurezza e avanzamento competitivo. Di recente, l’approccio di OpenAI alla sicurezza dell’IA ha incontrato reazioni negative, in particolare da parte di ex dipendenti che hanno messo in discussione la narrativa in evoluzione dell’azienda.

Critiche da parte dell’ex responsabile delle politiche in merito alla narrativa sulla sicurezza dell’IA di OpenAI

Nel tentativo di coinvolgere la comunità, OpenAI ha delineato la sua metodologia per l’implementazione graduale delle sue tecnologie AI, citando il cauto lancio di GPT-2 come punto di riferimento. Tuttavia, questo approccio non è stato universalmente adottato. Miles Brundage, un ex ricercatore politico presso OpenAI, ha pubblicamente criticato l’azienda per aver presumibilmente distorto la narrazione che circonda la sua storia di sicurezza AI.

Il documento pubblicato da OpenAI sottolinea il suo impegno per un approccio iterativo e ponderato all’implementazione dell’IA. Questo documento discute l’importanza di imparare dalle pratiche passate per migliorare le misure di sicurezza future. In particolare, cita GPT-2 come esempio della strategia cauta dell’azienda, affermando che mira a trattare i sistemi attuali con maggiore vigilanza in un panorama complesso. Il documento afferma che:

In un mondo discontinuo […] le lezioni di sicurezza derivano dal trattare i sistemi odierni con eccessiva cautela rispetto alla loro apparente potenza, [che] è l’approccio che abbiamo adottato per [il nostro modello di intelligenza artificiale] GPT-2. Ora consideriamo la prima AGI solo come un punto lungo una serie di sistemi di crescente utilità […] Nel mondo continuo, il modo per rendere il sistema successivo sicuro e vantaggioso è imparare dal sistema attuale.

Brundage, che ha ricoperto il ruolo di responsabile della ricerca politica di OpenAI, sottolinea che il lancio di GPT-2 ha seguito una traiettoria metodica, con OpenAI che ha fornito approfondimenti durante tutto il suo sviluppo. Gli esperti di sicurezza hanno riconosciuto la natura responsabile di questa distribuzione graduale. Sostiene che l’approccio cauto era essenziale, piuttosto che eccessivamente esitante.

Brundage ha inoltre espresso disagio per l’affermazione di OpenAI secondo cui l’AGI si svilupperà attraverso passaggi incrementali piuttosto che come una svolta improvvisa. Critica l’azienda per aver potenzialmente travisato le tempistiche delle release passate e per aver ridefinito gli standard di sicurezza, il che, a suo avviso, potrebbe minare le discussioni critiche sui rischi dell’IA man mano che la tecnologia avanza.

Questo incidente segna un altro esempio di OpenAI che si trova ad affrontare domande sul suo impegno a dare priorità alla sicurezza a lungo termine rispetto all’innovazione rapida e al profitto. Esperti come Brundage continuano a esprimere preoccupazioni riguardo all’importanza di un approccio misurato alla sicurezza dell’IA, soprattutto con l’aumento del ritmo dei progressi.

Fonte e immagini

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *