Apple è in ritardo rispetto a ChatGPT e Gemini di Google sotto molti aspetti. Tuttavia, l’azienda ha investito molto nell’intelligenza artificiale in quanto mira a portare la tecnologia sulla linea iPhone 16 entro la fine dell’anno con il rilascio di iOS 18. È stato ora riferito che i ricercatori Apple hanno rilasciato un nuovo modello di intelligenza artificiale in grado di modificare le immagini basate comandi in linguaggio naturale da parte dell’utente. La tecnologia sarà probabilmente presentata all’evento WWDC 2024 dell’azienda a giugno.
Il nuovo modello di intelligenza artificiale di Apple può interpretare l’input del linguaggio naturale e manipolare le immagini
Il nuovo modello di intelligenza artificiale di Apple, chiamato ” MGIE ” o MLLM-Guided Image Editing , è un modello linguistico multimodale di grandi dimensioni in grado di interpretare ed eseguire comandi utente a livello di pixel (tramite VentureBeat ). Lo strumento può manipolare e modificare numerose aree di un’immagine, tra cui luminosità, nitidezza, contrasto e molto altro. Può anche manipolare un’immagine per aggiungere effetti artistici.
Oltre a ciò, la modifica locale potrebbe alterare la forma, il colore, le dimensioni e la trama del soggetto in una foto. La modifica simile a Photoshop include il ridimensionamento dell’immagine o il ritaglio, la rotazione e l’aggiunta di filtri. Gli utenti possono anche modificare lo sfondo dell’immagine. Il nuovo modello di intelligenza artificiale di Apple comprende il contesto e il ragionamento comune. Ad esempio, puoi aggiungere l’immagine di una pizza e un suggerimento per renderla più sana. Il modello AI aggiungerà automaticamente le verdure all’immagine, comprendendo che la salute è associata alle verdure nel cibo.
Utilizzando le richieste di ottimizzazione globale, lo strumento può manipolare l’illuminazione e il contrasto di un’immagine. Inoltre, l’editing simile a Photoshop può anche eliminare oggetti dallo sfondo su richiesta dell’utente. Puoi vedere il modello AI di Apple in azione nell’immagine aggiunta di seguito. L’azienda ha collaborato con i ricercatori dell’Università della California per creare MGIE e, una volta che la tecnologia sarà pronta, l’azienda creerà varie applicazioni per i suoi dispositivi. Il documento è stato presentato alla Conferenza internazionale sulle rappresentazioni dell’apprendimento (ICLR) 2024.
Se sei interessato a verificare il modello AI, il codice e i dati con modelli preaddestrati sono disponibili su GitHub. Apple lavora sull’intelligenza artificiale ormai da un po’ di tempo e, anche se è tardi per l’implementazione, le funzionalità potrebbero essere diverse da quelle del settore. Lo scorso dicembre, l’azienda ha inventato la tecnica di utilizzo della memoria flash, consentendo a grandi modelli linguistici di funzionare sull’iPhone e su altri prodotti Apple.
Apple annuncerà alcune funzionalità AI entro la fine dell’anno, potenzialmente all’evento WWDC 2024 insieme a iOS 18 e altri aggiornamenti software. Rapporti precedenti hanno menzionato che Apple implementerà funzionalità di intelligenza artificiale generativa con il lancio dei nuovi modelli di iPhone entro la fine dell’anno. iOS 18 utilizzerà l’intelligenza artificiale per mettere Siri sotto steroidi poiché attualmente è indietro rispetto a Google Assistant e Alexa di Amazon.
Lascia un commento