Apple verbessert das iPhone mit intelligenter Bildschirmanalyse und Live-Übersetzungsfunktionen

Apple verbessert das iPhone mit intelligenter Bildschirmanalyse und Live-Übersetzungsfunktionen

Apple stellt auf der WWDC 2025 spannende Verbesserungen für Apple Intelligence vor

Auf der Worldwide Developers Conference 2025 stellte Apple eine Reihe innovativer Funktionen seiner Betriebssysteme vor, darunter iOS 26, iPadOS 26, macOS 26, watchOS 26 und tvOS 26, sowie Weiterentwicklungen von Apple Intelligence. Eine herausragende Neuerung der Veranstaltung ist die Verfügbarkeit von On-Device-Foundation-Modellen für Entwickler, die App-Funktionalitäten mit KI-basierten Funktionen erweitern sollen.

Potenzial freisetzen mit den Foundation-Modellen von Apple

Das neue Foundation Models Framework ermöglicht Entwicklern, KI-gestützte Funktionen direkt in ihre Anwendungen zu integrieren und unterstützt Offline-Funktionen. Wie Apple betont, ist das Framework mit nativer Swift-Unterstützung ausgestattet. Entwickler können so mit minimalem Programmieraufwand – oft nur drei Zeilen – kostenlos auf die Apple Intelligence-Modelle zugreifen.

Live-Übersetzung: Ein Wendepunkt für die Kommunikation

Eine wichtige Neuerung für Nutzer ist die Live-Übersetzungsfunktion, die plattformübergreifend wie Nachrichten, FaceTime und Telefonanrufe verfügbar ist. Diese Funktion nutzt von Apple entwickelte Modelle, die vollständig auf dem Gerät ausgeführt werden und eine nahtlose Übersetzung von Nachrichten und Untertiteln in die bevorzugte Sprache des Nutzers ermöglichen.

Apple Intelligence Live-Übersetzung

Diese Funktion stellt sicher, dass geschriebener Text in Nachrichten und Live-Untertitel in FaceTime während Gesprächen mühelos übersetzt werden, während übersetzte Sprache bei Telefongesprächen hörbar bereitgestellt wird.

Visuelle Intelligenz: Eine neue Ära der Interaktion

Apples Visual Intelligence revolutioniert die Interaktion mit Bildschirminhalten. Sie ermöglicht es Nutzern, Fragen zu bestimmten Objekten auf dem Bildschirm zu stellen und Antworten zu erhalten. Das fördert ein besseres Verständnis und mehr Engagement.

Beispielsweise können Benutzer diese Funktion nutzen, um auf Plattformen wie Google und Etsy nach ähnlichen Bildern oder Produkten zu suchen und auf ihrem Bildschirm angezeigte Ereignisse zu identifizieren, um sie umgehend ihrem Kalender hinzuzufügen.

Apple Intelligence Genmoji-Update WWDC 2025

Kreativer Ausdruck mit Genmoji und Image Playground

Die aktualisierte Genmoji-Funktion ermöglicht es Nutzern, Emojis mit Textbeschreibungen zu kombinieren und so einzigartige visuelle Darstellungen zu erstellen, indem sie Ausdrücke und persönliche Eigenschaften basierend auf Freunden oder Familie anpassen. Darüber hinaus wurde der Image Playground verbessert und ermöglicht es Nutzern nun, Kunstwerke in neuen Stilen zu erstellen, darunter Ölgemälde und Vektorgrafiken. Für individuelle Kreationen steht die Einstellung „Jeder Stil“ zur Verfügung.

Apple Intelligence Image Playground

Produktivitätssteigerung mit der Shortcuts-App

Darüber hinaus verbessert Apple Intelligence die Shortcuts-App. Durch die Nutzung der geräteinternen Verarbeitung und Private Cloud Compute können Nutzer relevante Antworten generieren, die ihren Workflow verbessern, ohne die Privatsphäre zu gefährden. Studierende können beispielsweise Shortcuts erstellen, um Audiotranskriptionen von Vorlesungen mit ihren Notizen zu vergleichen und so wichtige Punkte zu identifizieren, die sie möglicherweise übersehen haben.

Neue Funktionen in Apple Intelligence Juni 2025

Integration im gesamten Apple-Ökosystem

Apple integriert KI-Funktionen auch in zukünftigen Betriebssystem-Updates in weitere Anwendungen. Die Wallet-App bietet beispielsweise jetzt Zusammenfassungen zur Auftragsverfolgung aus E-Mails, sodass Nutzer stets über den Status ihrer Bestellungen informiert sind. Darüber hinaus verbessern in der Nachrichten-App vorgeschlagene Umfragen und anpassbare Chat-Hintergründe mit Image Playground das Benutzererlebnis zusätzlich.

Verfügbarkeit und zukünftige Sprachunterstützung

Diese innovativen Funktionen stehen derzeit über das Apple Developer Program für iPhone, iPad, Mac, Apple Watch und Apple Vision Pro zum Testen bereit. Bis zum Jahresende wird Apples KI-Suite ihr Sprachangebot erweitern und unter anderem Dänisch, Niederländisch, Norwegisch, Portugiesisch (Portugal), Schwedisch, Türkisch, Chinesisch (traditionell) und Vietnamesisch unterstützen.

Ausführlichere Informationen zu Apple Intelligence und seinen Funktionen finden Sie in der offiziellen Ankündigung im Apple Newsroom.

Quelle & Bilder

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert