Meta assume un dirigente Apple AI per lo sviluppo della ricerca web in stile ChatGPT per Siri

Meta assume un dirigente Apple AI per lo sviluppo della ricerca web in stile ChatGPT per Siri

La recente partenza di un importante dirigente Apple per Meta segna una battuta d’arresto significativa per le fiorenti iniziative di intelligenza artificiale del colosso tecnologico. Ke Yang, che aveva assunto da poco la guida del team Answers, Knowledge and Information (AKI) di Apple, avrebbe accettato un’allettante posizione presso Meta Platforms Inc.

Il passaggio di Ke Yang a Meta: un cambiamento nella strategia di Apple per l’intelligenza artificiale

Secondo Mark Gurman di Bloomberg, la recente promozione di Yang lo ha posto in un ruolo fondamentale volto a migliorare le capacità di Siri, consentendogli di recuperare informazioni specifiche dell’utente direttamente dal web, in modo simile alle funzionalità fornite dai grandi modelli linguistici (LLM) di OpenAI.

Questo sviluppo rappresenta senza dubbio un duro colpo per le ambizioni di Apple in materia di intelligenza artificiale, ancora in una fase iniziale. L’azienda ha compiuto i primi passi nell’ottobre 2024 introducendo diverse funzionalità di intelligenza artificiale, sebbene non abbia ancora implementato le funzionalità più attese, come le azioni contestuali in-app e la consapevolezza personalizzata.

Per colmare il divario nella sua offerta di intelligenza artificiale, Apple ha intrapreso diverse iniziative strategiche, tra cui:

  1. Collaborazione con OpenAI per integrare i suoi grandi modelli linguistici nel framework di intelligenza artificiale di Apple.
  2. Acquisizione di tre startup come TrueMeeting e WhyLabs per ampliare le proprie capacità di sviluppo dell’intelligenza artificiale.
  3. Implementazione di operazioni di intelligenza artificiale incentrate sulla privacy tramite Private Apple Intelligence, che elabora localmente attività di intelligenza artificiale più semplici, gestendo al contempo funzioni complesse su server cloud privati ​​crittografati.
  4. Sviluppo di un modello di intelligenza artificiale personalizzato, composto da 3 miliardi di parametri, che funzioni efficacemente su iPhone e iPad.
  5. Creazione di un LLM basato su server, insieme alla generazione di immagini di diffusione e ausili per la codifica destinati all’ambiente di sviluppo Xcode.
  6. Apertura dei suoi modelli fondamentali di intelligenza artificiale a sviluppatori terzi per migliorare la funzionalità dell’intelligenza artificiale in varie applicazioni.

Guardando al futuro, Apple ha in programma di lanciare diverse interessanti funzionalità nei prossimi mesi:

  1. Integrazione di soluzioni di intelligenza artificiale di terze parti
    • Ciò consentirà a Siri di utilizzare LLM specifici, come GPT di OpenAI o Gemini di Google, per eseguire attività designate.
  2. Azioni in-app migliorate
    • Siri acquisirà la capacità di eseguire attività contestuali nelle applicazioni supportate tramite comandi vocali, come l’aggiunta di articoli a una lista della spesa o l’invio di messaggi.
  3. Maggiore consapevolezza del contesto personale
    • Siri sfrutterà i dati degli utenti per fornire servizi personalizzati, come l’individuazione di podcast specifici menzionati nelle conversazioni di testo all’interno dell’app Messaggi.

Fonte e immagini

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *