Google aggiorna l’impegno sull’uso dell’intelligenza artificiale negli armamenti militari

Google aggiorna l’impegno sull’uso dell’intelligenza artificiale negli armamenti militari

L’ascesa dell’intelligenza artificiale: implicazioni e sviluppi

L’intelligenza artificiale (IA) è salita alla ribalta, catturando l’attenzione globale in seguito all’immensa popolarità dei chatbot con modelli linguistici di grandi dimensioni (LLM) come ChatGPT dagli Stati Uniti e DeepSeek dalla Cina, che hanno avuto un impatto notevole sul mercato azionario. Questo nuovo interesse solleva domande pertinenti riguardo all’influenza dell’IA su vari settori, in particolare tra gli individui che potrebbero non avere familiarità con il termine “Intelligenza artificiale”.

Preoccupazioni sulle tecnologie AI

Nonostante i vantaggi offerti dall’IA, ci sono rischi intrinseci che non possono essere ignorati. Problemi come la disinformazione, le violazioni della privacy, l’eccessiva dipendenza dalla tecnologia e le potenziali applicazioni militari presentano serie preoccupazioni. La responsabilità di mitigare tali pericoli ricade direttamente sui pionieri dell’IA e sui leader del settore.

L’impegno di Google per un’intelligenza artificiale responsabile

In risposta a queste sfide, Google ha costantemente dato priorità alla sicurezza nell’ambito dello sviluppo dell’IA. Negli ultimi sei anni, l’azienda ha pubblicato un “Responsible AI Progress Report” annuale. Più di recente, hanno pubblicato il loro progress report del 2024, un documento che delinea i loro sforzi in corso per rafforzare la sicurezza dell’IA.

Un aggiornamento significativo dell’ultimo rapporto è la modifica del Frontier Safety Framework di Google. Questo framework, avviato da Google DeepMind, mira a identificare e affrontare in modo proattivo i potenziali rischi legati ai sistemi di intelligenza artificiale avanzati. Alcuni miglioramenti chiave includono:

  • Raccomandazioni per una maggiore sicurezza : proporre strategie per migliorare le misure di sicurezza contro le violazioni dei dati.
  • Procedura di mitigazione della distribuzione : definizione di linee guida per prevenire l’uso improprio delle potenti funzionalità dell’intelligenza artificiale.
  • Rischio di allineamento ingannevole : affrontare la minaccia rappresentata dai sistemi autonomi che potrebbero manipolare la supervisione umana.

Leadership democratica nello sviluppo dell’intelligenza artificiale

Insieme agli aggiornamenti dei protocolli di sicurezza, Google ha ribadito la sua posizione secondo cui le democrazie dovrebbero guidare lo sviluppo delle tecnologie AI, sottolineando valori come libertà, uguaglianza e rispetto dei diritti umani. L’azienda ha anche annunciato revisioni ai suoi principi AI originali, pubblicati per la prima volta nel 2018.

Modifiche ai principi di intelligenza artificiale di Google

Una visita alla pagina AI Principles rivela una notevole assenza per quanto riguarda l’uso dell’IA negli armamenti. Una versione archiviata della pagina del 22 febbraio 2024 includeva un impegno ad astenersi dal creare o distribuire tecnologie di IA progettate per arrecare danno:

Armi o altre tecnologie il cui scopo principale o la cui attuazione sia quella di causare o facilitare direttamente danni alle persone.

Tuttavia, questo impegno è stato omesso nei principi rivisti, che ora si concentrano su tre principi fondamentali:

  • Innovazione audace : il nostro obiettivo è sviluppare tecnologie di intelligenza artificiale che diano potere alle persone e stimolino il progresso in vari campi, migliorando il benessere economico e sociale.
  • Sviluppo e implementazione responsabili : riconoscendo la natura trasformativa dell’intelligenza artificiale, ci impegniamo a garantirne lo sviluppo e l’implementazione sicuri attraverso test rigorosi e considerazioni etiche.
  • Progresso collaborativo, insieme : diamo valore alle partnership e ci impegniamo a creare tecnologie che consentano ad altri di utilizzare l’intelligenza artificiale per ottenere risultati positivi.

Preoccupazioni dei dipendenti e considerazioni etiche

È interessante notare che Google non ha ancora affrontato la rimozione del suo precedente impegno contro l’uso dell’IA per scopi militari, una decisione che ha incontrato una forte resistenza da parte della sua forza lavoro. Nel 2018, circa 4.000 dipendenti hanno firmato una petizione che richiedeva la risoluzione del contratto dell’azienda con il Dipartimento della Difesa degli Stati Uniti, noto come Progetto Maven, che utilizzava l’IA per analizzare le immagini dei droni.

Più di recente, i dipendenti di Google DeepMind hanno espresso preoccupazioni simili, esortando l’azienda tecnologica a tagliare i legami con le entità militari. Questa chiamata all’azione faceva riferimento ai principi di intelligenza artificiale dell’azienda, sostenendo che tali relazioni sono in conflitto con il loro precedente impegno ad astenersi dallo sviluppare tecnologie militari.

Per saperne di più, visita Depositphotos.com.

Fonte e immagini

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *