
Apple hinkt Unternehmen wie Google und OpenAI weit hinterher, wenn es darum geht, KI in seinen Produkten anzubieten. Das Unternehmen investiert stark in die Bereitstellung einzigartiger Dienstprogramme für das iPhone und weiterer Produkte im Laufe dieses Jahres. Wir haben bereits darüber berichtet, dass das Unternehmen verschiedene Durchbrüche bei der Bereitstellung von KI-Funktionen erzielt hat, die auf den kommenden großen Sprachmodellen des Unternehmens basieren. Jetzt hat Apple sein KI-Repository um eine weitere Erweiterung erweitert, die es Benutzern ermöglicht, ein Bild durch Ihre Befehle und Eingabeaufforderungen zu animieren.
Apple entwickelt ein neues KI-Tool, das mithilfe Ihrer Eingabeaufforderungen ein Bild animieren kann
Anfang dieses Monats haben wir berichtet, dass Apple einen großen Durchbruch bei seinen KI-Bemühungen erzielt hat, der es Benutzern ermöglichen kann, ein Bild basierend auf Eingabeaufforderungen in natürlicher Sprache zu bearbeiten und zu manipulieren. Jetzt macht das Unternehmen mit seinem neuen Tool mit dem Titel „ Keyframer : Empowering Animation Design Using Large Language Models“ einen weiteren Schritt nach vorne. Die Funktion funktioniert ähnlich wie das frühere Tool, das sich mit Bildern befasst. Mit Keyframer können Benutzer Bilder basierend auf der Beschreibung mithilfe der großen Sprachmodelle von Apple animieren.
„Während One-Shot-Prompting-Schnittstellen in kommerziellen Text-zu-Bild-Systemen wie Dall·E und Midjourney üblich sind, argumentieren wir, dass Animationen eine komplexere Reihe von Benutzerüberlegungen wie Timing und Koordination erfordern, die sich nur schwer vollständig spezifizieren lassen eine einzige Eingabeaufforderung – daher sind möglicherweise alternative Ansätze erforderlich, die es Benutzern ermöglichen, generierte Designs iterativ zu konstruieren und zu verfeinern, insbesondere für Animationen.
„Wir haben neue Designprinzipien für die sprachbasierte Eingabeaufforderung von Designartefakten mit den Codegenerierungsfunktionen von LLMs kombiniert, um ein neues KI-gestütztes Animationstool namens Keyframer zu entwickeln. Mit Keyframer können Benutzer mithilfe natürlicher Sprachanweisungen animierte Illustrationen aus statischen 2D-Bildern erstellen. Mithilfe von GPT-4 3 generiert Keyframer CSS-Animationscode, um eine eingegebene skalierbare Vektorgrafik (SVG) zu animieren.“
Wie Sie im unten eingebetteten Bild sehen können, können Benutzer eine Animation erstellen, indem sie ein Bild im SVG-Format hochladen, in diesem Fall eine Rakete. Mithilfe von Eingabeaufforderungen wie „Generieren Sie drei Designs, bei denen der Himmel in verschiedene Farben übergeht und die Sterne funkeln“ generiert das Tool einen CSS-Code, der vom Benutzer weiter bearbeitet oder durch weitere Eingabeaufforderungen erweitert werden kann. Die Autoren erklärten, dass sequentielle Eingabeaufforderungen es Benutzern ermöglichten, ihre Designs zu verfeinern. Der Ansatz ähnelt ziemlich der Art und Weise, wie wir in ChatGPT Eingabeaufforderungen verwenden, um relevante Antworten zu erhalten.

Der Prozess verläuft laut Papier nahtlos und viel schneller als die Erstellung von Animationen auf herkömmliche Weise. Apples neues KI-Tool könnte sich als inspirierende Ergänzung für zukünftige Entwickler erweisen. Die neueste Innovation ist Teil der Bemühungen von Apple, KI für seine zukünftigen Geräte zu entwickeln. Apple könnte einige dieser Tools auf seiner WWDC 2024-Veranstaltung im Juni vorstellen.
Wir haben bereits darauf hingewiesen, dass iOS 18 verschiedene KI-Ergänzungen mit sich bringen wird, die auf Systemebene funktionieren. Darüber hinaus wird die iPhone 16-Reihe auch KI-Tools bieten, aber in zukünftigen Geräten werden größere Ergänzungen erkennbar sein. Apple möchte Siri außerdem durch die KI-Integration weiter ausbauen , damit es besser mit Unternehmen wie Google Assistant und Amazon Alexa konkurrieren kann. Wir werden euch über die KI-Bemühungen von Apple auf dem Laufenden halten, also bleibt dran.
Schreibe einen Kommentar