Apple chiede l’aiuto di Google per creare Gemini LLM personalizzato per Siri

Apple chiede l’aiuto di Google per creare Gemini LLM personalizzato per Siri

In un notevole cambiamento di strategia, Apple sembra aver riconosciuto le sfide nel suo rinnovamento interno di Siri e ora sta collaborando con Google per creare un Large Language Model (LLM) personalizzato basato su Gemini per supportare la versione aggiornata di Siri nel cloud.

Mark Gurman segnala la partnership tra Apple e Google per il miglioramento dell’intelligenza artificiale di Siri

Secondo il rinomato analista Apple Mark Gurman, che ha scritto nella sua ultima newsletter “Power On”, Apple avrebbe apparentemente ammesso che sviluppare un modello di intelligenza artificiale interno efficace per Siri non è al momento fattibile. Le funzionalità rinnovate, collettivamente denominate Apple Intelligence, saranno ora supportate dall’esperienza di Google in materia di intelligenza artificiale.

Con questo nuovo accordo, Apple prevede di utilizzare le funzionalità avanzate di Google per progettare un modello di intelligenza artificiale basato su Gemini da integrare nel suo framework Private Cloud Compute. Questo progetto consentirà l’elaborazione locale delle attività più semplici, mentre le operazioni più complesse saranno trasferite ai server sicuri di Apple utilizzando dati crittografati.

Caratteristiche principali del prossimo rinnovamento di Siri

L’aggiornamento previsto di Siri sarà composto da tre componenti principali:

  1. Query Planner: questo livello critico gestisce il modo in cui Siri soddisfa le richieste degli utenti scegliendo il percorso più efficiente, che potrebbe includere ricerche sul Web, l’accesso a dati personali come eventi del calendario o l’utilizzo di applicazioni di terze parti tramite App Intents, un’interfaccia che consente l’integrazione perfetta delle app con Siri.
  2. Sistema di ricerca della conoscenza: Siri includerà un database di conoscenza completo che le consentirà di rispondere in modo indipendente a domande di carattere generale, eliminando la dipendenza da risorse di intelligenza artificiale esterne come ChatGPT.
  3. Summarizer: elemento fondamentale di Apple Intelligence, questo strumento consentirà a Siri di utilizzare modelli di intelligenza artificiale esterni come ChatGPT per riassumere vari tipi di contenuti, tra cui:
    • Riepiloghi delle notifiche
    • Riepiloghi di e-mail e messaggi
    • Riepiloghi delle pagine web in Safari
    • Assistenza alla scrittura
    • Riepiloghi dei contenuti audio

In questa futura architettura, l’elaborazione on-device di Siri sfrutterà i modelli fondamentali proprietari di Apple o integrerà IA di terze parti, come ChatGPT. Per le richieste più complesse, i dati verranno inviati ai server privati ​​di Apple, dove il modello Gemini prenderà il sopravvento, garantendo la privacy dell’utente con crittografia stateless.

I report di inizio anno indicavano che il team di sviluppo di Apple aveva difficoltà a garantire l’efficacia di Siri, in particolare per quanto riguarda l’integrazione delle app e le funzioni critiche in settori sensibili come quello bancario.

Funzionalità previste in iOS 26 e iOS 27

Apple è sulla buona strada per introdurre funzionalità significative nell’aggiornamento iOS della primavera 2026 (probabilmente iOS 26.4).Le principali funzionalità previste includono:

  1. Azioni in-app:
    • Siri eseguirà attività contestuali all’interno delle applicazioni supportate tramite comandi vocali: saranno possibili azioni come aggiungere elementi a una lista della spesa, inviare messaggi o riprodurre musica.
  2. Consapevolezza del contesto personale:
    • Siri utilizzerà i dati personali in modo più efficace per offrire servizi personalizzati, come ad esempio la localizzazione dei podcast menzionati nei messaggi di testo.
  3. Consapevolezza sullo schermo:
    • Siri acquisirà la capacità di comprendere i contenuti visualizzati sullo schermo, consentendole di eseguire le attività pertinenti in modo più fluido.

Inoltre, diverse funzionalità di intelligenza artificiale sono già presenti in iOS 26, seppur con portata limitata. Tra queste:

  1. Traduzione in tempo reale per l’app Messaggi e durante le chiamate FaceTime.
  2. Sfondi personalizzati per le conversazioni nell’app Messaggi tramite Image Playground.
  3. Riepiloghi dei messaggi della segreteria telefonica.
  4. Funzioni di traduzione in tempo reale per AirPods.
  5. Scorciatoie dedicate alle azioni AI.
  6. Gli sviluppatori di terze parti possono utilizzare i modelli fondamentali di Apple per funzionalità avanzate.
  7. Creazione di immagini personalizzate tramite ChatGPT in Image Playground.
  8. Combinazione di emoji per creare un “Genmoji” nell’app Image Playground.
  9. Informazioni visive per gli screenshot.
  10. Riepiloghi delle notifiche.

Gurman ipotizza inoltre che, oltre alle nuove funzionalità di intelligenza artificiale introdotte con iOS 26.4, Apple presenterà “aggiornamenti significativi” in iOS 27 durante la Worldwide Developers Conference di giugno 2026.

Nota: questo articolo è stato aggiornato con informazioni aggiuntive sulle funzionalità AI in iOS 26.

Fonte e immagini

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *