L’addestramento di Google sull’intelligenza artificiale Gemini solleva qualche perplessità
Un recente rapporto di TechCrunch ha svelato alcune interessanti metodologie impiegate da Google nell’addestramento della sua Gemini AI. Come parte di questo processo di sviluppo, Google ha arruolato appaltatori incaricati di valutare gli output dell’IA in base a vari criteri, tra cui accuratezza, chiarezza e sicurezza. Ciò che rende questa situazione degna di nota è il fatto che questi appaltatori stanno utilizzando il modello linguistico di grandi dimensioni (LLM) di Anthropic, Claude, come parametro di riferimento per confrontare le risposte generate da Gemini.
Risultati insoliti durante i confronti
In recenti osservazioni, i contractor che lavoravano nella piattaforma di analisi interna di Google hanno scoperto un problema inaspettato: uno degli output attribuiti a Claude è stato presentato come la risposta di Gemini. Un ulteriore esame ha rivelato che diverse risposte mostravano le caratteristiche di Claude, in particolare in termini di sicurezza. Ad esempio, un esempio degno di nota riguardava Claude che rifiutava di impegnarsi in scenari di gioco di ruolo come un altro assistente AI, attirando l’attenzione sull’approccio cauto del modello.
Implicazioni dei Termini di servizio di Anthropic
Ad aggiungere un livello di complessità a questa situazione sono i termini di servizio espliciti stabiliti da Anthropic. Questi termini proibiscono chiaramente l’uso degli output di Claude per lo sviluppo di prodotti concorrenti:
Limitazioni d’uso. Il Cliente non può e non deve tentare di (a) accedere ai Servizi per creare un prodotto o servizio concorrente, incluso addestrare modelli di intelligenza artificiale concorrenti, salvo quanto espressamente approvato da Anthropic; (b) effettuare reverse engineering o duplicare i Servizi; o (c) supportare qualsiasi tentativo di terze parti di una qualsiasi delle condotte limitate in questa frase. Il Cliente e i suoi Utenti possono utilizzare i Servizi solo nei paesi e nelle regioni attualmente supportati da Anthropic.
La risposta non impegnativa di Google
Quando TechCrunch ha chiesto se avessero ottenuto i permessi necessari da Anthropic per utilizzare gli output di Claude, la risposta di Google è stata tutt’altro che definitiva. Shira McNamara, portavoce di DeepMind, ha commentato:
Naturalmente, in linea con le prassi standard del settore, in alcuni casi confrontiamo i risultati dei modelli come parte del nostro processo di valutazione.
Orientarsi nel panorama dell’intelligenza artificiale
Mentre i confronti tra modelli sono una pratica diffusa nello sviluppo dell’IA, dove le aziende confrontano i loro modelli con quelli dei rivali per valutare le prestazioni e ideare miglioramenti, l’atto di utilizzare o imitare direttamente gli output di un altro modello senza esplicito consenso pone importanti questioni etiche. Questa situazione si sviluppa man mano che il settore dell’IA diventa sempre più competitivo. Google ha recentemente introdotto una versione sperimentale di Gemini che, a quanto si dice, supera GPT-4o di OpenAI in diverse categorie di valutazione. Nel frattempo, Anthropic continua a far progredire Claude, con recenti miglioramenti che consentono stili di conversazione versatili e uno strumento integrato per scrivere ed eseguire codice JavaScript direttamente all’interno della sua interfaccia.
Lascia un commento