Apple è molto indietro rispetto a Google e OpenAI quando si tratta di offrire l’intelligenza artificiale nei suoi prodotti. L’azienda è fortemente impegnata nell’introduzione di utilità uniche sull’iPhone e su altri prodotti entro la fine dell’anno. Abbiamo precedentemente riferito che l’azienda ha fatto vari passi avanti nell’offrire funzionalità di intelligenza artificiale basate sui futuri modelli linguistici di grandi dimensioni dell’azienda. Ora, Apple ha apportato un’altra aggiunta al suo repository AI, che consente agli utenti di animare un’immagine tramite comandi e istruzioni.
Apple sviluppa un nuovo strumento AI in grado di animare un’immagine utilizzando i prompt dei comandi
All’inizio di questo mese, abbiamo riferito che Apple ha fatto un importante passo avanti nei suoi sforzi sull’intelligenza artificiale, che può consentire agli utenti di modificare e manipolare un’immagine in base alle istruzioni del linguaggio naturale. Ora, l’azienda sta facendo un altro passo avanti con il suo nuovo strumento intitolato ” Keyframer : Empowering Animation Design Using Large Language Models”. La funzionalità funziona in modo simile allo strumento precedente che si rivolge alle immagini. Con Keyframer, gli utenti possono animare le immagini in base alla descrizione utilizzando i grandi modelli linguistici di Apple.
“Mentre le interfacce di prompt one-shot sono comuni nei sistemi commerciali text-to-image come Dall·E e Midjourney, noi sosteniamo che le animazioni richiedono una serie più complessa di considerazioni da parte dell’utente, come tempistica e coordinazione, che sono difficili da specificare completamente in un unico prompt: pertanto, potrebbero essere necessari approcci alternativi che consentano agli utenti di costruire e perfezionare in modo iterativo i progetti generati, soprattutto per le animazioni.
“Abbiamo combinato i principi di progettazione emergenti per la guida basata sul linguaggio degli artefatti di progettazione con le capacità di generazione di codice degli LLM per creare un nuovo strumento di animazione basato sull’intelligenza artificiale chiamato Keyframer. Con Keyframer, gli utenti possono creare illustrazioni animate da immagini 2D statiche tramite suggerimenti in linguaggio naturale. Utilizzando GPT-4 3, Keyframer genera codice di animazione CSS per animare un input Scalable Vector Graphic (SVG).”
Come puoi vedere nell’immagine incorporata di seguito, gli utenti possono creare un’animazione caricando un’immagine in formato SVG, in questo caso un razzo. Utilizzando istruzioni come “genera tre disegni in cui il cielo sfuma in diversi colori e le stelle brillano”. Lo strumento genererà un codice CSS che può essere ulteriormente modificato dall’utente o esteso tramite ulteriori istruzioni. Gli autori hanno spiegato che i prompt sequenziali consentivano agli utenti di perfezionare i propri progetti. L’approccio è abbastanza simile a come utilizziamo i prompt in ChatGPT per ottenere risposte pertinenti.
Secondo il documento, il processo è fluido e molto più veloce rispetto alla creazione di animazioni in modo tradizionale. Il nuovo strumento AI di Apple potrebbe rivelarsi un’aggiunta stimolante per i futuri creatori. L’ultima innovazione fa parte degli sforzi di Apple per sviluppare l’intelligenza artificiale per i suoi futuri dispositivi. Apple potrebbe mostrare alcuni di questi strumenti al suo evento WWDC 2024 a giugno.
Abbiamo notato in precedenza che iOS 18 porterà sul tavolo varie aggiunte AI, che funzioneranno a livello di sistema. Inoltre, la gamma iPhone 16 offrirà anche strumenti AI, ma importanti aggiunte saranno evidenti nei dispositivi futuri. Apple sta anche cercando di rendere Siri più avanzato con l’integrazione dell’intelligenza artificiale, permettendogli di competere meglio con artisti del calibro di Google Assistant e Amazon Alexa. Vi terremo aggiornati sugli sforzi di Apple nel campo dell’intelligenza artificiale, quindi assicuratevi di restare.
Lascia un commento