Google CodeMender: correzioni automatiche per le vulnerabilità di sicurezza nel tuo codice

Google CodeMender: correzioni automatiche per le vulnerabilità di sicurezza nel tuo codice
Immagine originale tramite Google

L’ondata di innovazioni dell’intelligenza artificiale nelle aziende tecnologiche

In un’epoca in cui la tecnologia è in rapida evoluzione, le aziende, indipendentemente dalle loro dimensioni, investono sempre di più nell’intelligenza artificiale (IA) per rimanere competitive.È emersa una partnership di rilievo tra OpenAI e AMD, che mira a fornire 6 gigawatt di potenza GPU per migliorare le capacità di IA, concedendo a OpenAI un’opzione per acquisire una quota del 10% in AMD a determinate condizioni. Parallelamente, Google ha svelato interessanti progressi nelle sue iniziative di IA.

Introduzione di CodeMender: un nuovo agente di sicurezza AI

Google ha introdotto un innovativo agente di intelligenza artificiale chiamato CodeMender. Fedele al suo nome, CodeMender è progettato per identificare e correggere autonomamente le vulnerabilità di sicurezza all’interno del codice. Questo strumento di intelligenza artificiale nasce dalle precedenti esperienze di Google con BigSleep e OSS-Fuzz, con l’obiettivo di semplificare il processo di patching per il codice non sicuro. Utilizzando le funzionalità avanzate di Gemini per l’analisi delle cause profonde (RCA), CodeMender genera patch di sicurezza che vengono sottoposte a rigorose revisioni tra pari tramite “agenti critici” prima della convalida finale da parte di esperti umani.

Programma di ricompensa per le vulnerabilità (VRP) di Google

Oltre a CodeMender, Google ha lanciato un programma di premi per le vulnerabilità (Vulnerability Reward Program, VRP) specializzato per i suoi prodotti di intelligenza artificiale. Questo programma di incentivi offre ricompense fino a 20.000 dollari per la scoperta di bug critici. Per ulteriori dettagli, potete consultare l’annuncio qui.

Secure AI Framework 2.0: misure di sicurezza avanzate

Inoltre, Google ha rilasciato una versione aggiornata del suo Secure AI Framework (SAIF), ora alla versione 2.0. Questo framework aggiornato introduce tre componenti significativi:

  • Una mappa dei rischi degli agenti progettata per identificare potenziali minacce agentiche,
  • Distribuire aggiornamenti di sicurezza cruciali nell’intera suite di agenti di intelligenza artificiale di Google e
  • Una donazione dei dati della mappa dei rischi alla Coalition for Secure AI Risk Map a beneficio della comunità più ampia.

L’impegno di Google per la sicurezza informatica

Google mira a sfruttare la tecnologia dell’intelligenza artificiale per migliorare la sicurezza globale, proteggendo da attacchi informatici dannosi e minacce di natura governativa. Le tre iniziative qui descritte rappresentano un passo strategico verso il rafforzamento dei professionisti della sicurezza informatica e il rafforzamento delle difese contro le minacce digitali in continua evoluzione.

Fonte e immagini

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *