
OpenAI sta intensificando la sua ricerca di intelligenza artificiale generale (AGI), in particolare sulla scia della crescente concorrenza di DeepSeek, che è emersa come un formidabile attore nel panorama dell’IA. L’azienda ha articolato la sua visione per gli agenti di IA avanzati, che considera la prossima pietra miliare significativa. Tuttavia, questo impegno arriva in mezzo a un continuo controllo riguardante il delicato equilibrio tra sicurezza e avanzamento competitivo. Di recente, l’approccio di OpenAI alla sicurezza dell’IA ha incontrato reazioni negative, in particolare da parte di ex dipendenti che hanno messo in discussione la narrativa in evoluzione dell’azienda.
Critiche da parte dell’ex responsabile delle politiche in merito alla narrativa sulla sicurezza dell’IA di OpenAI
Nel tentativo di coinvolgere la comunità, OpenAI ha delineato la sua metodologia per l’implementazione graduale delle sue tecnologie AI, citando il cauto lancio di GPT-2 come punto di riferimento. Tuttavia, questo approccio non è stato universalmente adottato. Miles Brundage, un ex ricercatore politico presso OpenAI, ha pubblicamente criticato l’azienda per aver presumibilmente distorto la narrazione che circonda la sua storia di sicurezza AI.
Il documento pubblicato da OpenAI sottolinea il suo impegno per un approccio iterativo e ponderato all’implementazione dell’IA. Questo documento discute l’importanza di imparare dalle pratiche passate per migliorare le misure di sicurezza future. In particolare, cita GPT-2 come esempio della strategia cauta dell’azienda, affermando che mira a trattare i sistemi attuali con maggiore vigilanza in un panorama complesso. Il documento afferma che:
In un mondo discontinuo […] le lezioni di sicurezza derivano dal trattare i sistemi odierni con eccessiva cautela rispetto alla loro apparente potenza, [che] è l’approccio che abbiamo adottato per [il nostro modello di intelligenza artificiale] GPT-2. Ora consideriamo la prima AGI solo come un punto lungo una serie di sistemi di crescente utilità […] Nel mondo continuo, il modo per rendere il sistema successivo sicuro e vantaggioso è imparare dal sistema attuale.
Brundage, che ha ricoperto il ruolo di responsabile della ricerca politica di OpenAI, sottolinea che il lancio di GPT-2 ha seguito una traiettoria metodica, con OpenAI che ha fornito approfondimenti durante tutto il suo sviluppo. Gli esperti di sicurezza hanno riconosciuto la natura responsabile di questa distribuzione graduale. Sostiene che l’approccio cauto era essenziale, piuttosto che eccessivamente esitante.
La maggior parte di questo post è buona + applaudo le persone che lavorano al lavoro sostanziale di cui tratta.
Ma sono piuttosto seccato/preoccupato dalla sezione “AGI in molti passaggi piuttosto che in un unico grande balzo”, che riscrive la storia di GPT-2 in modo preoccupante.https://t.co/IQOdKczJeT
— Miles Brundage (@Miles_Brundage) 5 marzo 2025
Brundage ha inoltre espresso disagio per l’affermazione di OpenAI secondo cui l’AGI si svilupperà attraverso passaggi incrementali piuttosto che come una svolta improvvisa. Critica l’azienda per aver potenzialmente travisato le tempistiche delle release passate e per aver ridefinito gli standard di sicurezza, il che, a suo avviso, potrebbe minare le discussioni critiche sui rischi dell’IA man mano che la tecnologia avanza.
Questo incidente segna un altro esempio di OpenAI che si trova ad affrontare domande sul suo impegno a dare priorità alla sicurezza a lungo termine rispetto all’innovazione rapida e al profitto. Esperti come Brundage continuano a esprimere preoccupazioni riguardo all’importanza di un approccio misurato alla sicurezza dell’IA, soprattutto con l’aumento del ritmo dei progressi.
Lascia un commento