I modelli di intelligenza artificiale di Apple sono in ritardo rispetto a GPT-4o di OpenAI dopo l’ultimo aggiornamento

I modelli di intelligenza artificiale di Apple sono in ritardo rispetto a GPT-4o di OpenAI dopo l’ultimo aggiornamento

Apple svela importanti progressi nell’intelligenza artificiale al WWDC 2025

Durante la recente WWDC 2025, Apple ha compiuto passi da gigante nelle sue capacità di intelligenza artificiale, lanciando aggiornamenti pensati sia per gli sviluppatori che per i consumatori. Tra questi, l’introduzione del framework Foundation Models, che consente agli sviluppatori di integrare funzionalità di intelligenza artificiale nelle loro applicazioni, dando priorità alla privacy degli utenti. Questo framework sfrutta i modelli di intelligenza artificiale proprietari di Apple ed è disponibile gratuitamente.

Modelli di fondamenti linguistici di nuova generazione

Apple ha inoltre presentato una nuova linea di modelli di base linguistica, pubblicizzati come più veloci ed efficienti dei loro predecessori. Questi modelli sono progettati per migliorare l’utilizzo degli strumenti, potenziare le capacità di ragionamento e supportare input multimodali, inclusi sia immagini che testo, in 15 lingue diverse.

Panoramica dei modelli di intelligence di Apple

Apple Intelligence incorpora due modelli di base distinti:

  • Un modello da 3 miliardi di parametri ottimizzato per le prestazioni sui dispositivi utilizzando Apple Silicon.
  • Un modello misto di esperti basato su server, studiato appositamente per il Private Cloud Computing.

Il modello on-device è specificamente focalizzato sull’esecuzione di attività testuali. Le sue funzionalità includono la sintesi, l’estrazione di entità, la comprensione del testo, il perfezionamento dei contenuti, dialoghi brevi e la generazione di contenuti creativi, anziché funzionare come un chatbot generico.

Benchmark e confronti delle prestazioni

La domanda fondamentale riguarda le prestazioni dei modelli Apple rispetto ai principali concorrenti. Invece di affidarsi ai benchmark di intelligenza artificiale convenzionali, Apple ha condiviso i risultati delle proprie valutazioni interne che valutano le capacità linguistiche e di ragionamento.

Modello di intelligenza Apple

Secondo le valutazioni di Apple, il modello 3B integrato nel dispositivo compete bene con il Qwen-2.5-3B e mostra risultati competitivi rispetto ai più grandi Qwen-3-4B e Gemma-3-4B per le attività in lingua inglese. Sebbene il suo modello basato su server mostri un leggero vantaggio rispetto a Llama-4-Scout, non si comporta altrettanto bene rispetto a Qwen-3-235B e all’avanzato GPT-4o di OpenAI.

Valutazioni dell’input dell’immagine

Nella valutazione delle capacità di input delle immagini, il modello on-device di Apple supera InternVL e Qwen, dimostrando prestazioni competitive rispetto a Gemma. Il suo modello server, sebbene migliore di Qwen-2.5-VL, è inferiore a Llama-4-Scout e GPT-4o.

La strada che Apple dovrà percorrere nell’intelligenza artificiale

Questi risultati rivelano che Apple ha ancora molto da fare nello sviluppo delle sue tecnologie di intelligenza artificiale fondamentali. Sembra che i confronti con GPT-4o siano stati effettuati per presentare una prospettiva prestazionale più favorevole. Un confronto con gli ultimi modelli della serie O di OpenAI o con il Gemini 2.5 Pro di Google potrebbe potenzialmente evidenziare un divario prestazionale maggiore. Man mano che Apple continua a sviluppare le sue capacità interne, sarà interessante osservare come si posizionerà nel panorama dell’intelligenza artificiale in rapida evoluzione nei prossimi anni.

Fonte e immagini

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *