Apple bittet Google um Hilfe bei der Entwicklung eines benutzerdefinierten Gemini LLM für Siri

Apple bittet Google um Hilfe bei der Entwicklung eines benutzerdefinierten Gemini LLM für Siri

In einem bemerkenswerten Strategiewechsel scheint Apple die Herausforderungen bei der internen Überarbeitung von Siri erkannt zu haben und arbeitet nun mit Google zusammen, um ein maßgeschneidertes, auf Gemini basierendes Large Language Model (LLM) zu erstellen, das die aktualisierte Siri in der Cloud unterstützen soll.

Mark Gurman berichtet über Apples Partnerschaft mit Google zur Verbesserung der KI von Siri.

Laut dem renommierten Apple-Analysten Mark Gurman, der in seinem aktuellen Newsletter „Power On“ schreibt, hat Apple offenbar eingeräumt, dass die Entwicklung eines leistungsfähigen, hauseigenen KI-Modells für Siri derzeit nicht realisierbar ist. Die überarbeiteten Funktionen, die unter dem Namen Apple Intelligence zusammengefasst werden, nutzen nun die KI-Expertise von Google.

Im Rahmen dieser neuen Vereinbarung plant Apple, Googles fortschrittliche Technologien zu nutzen, um ein auf Gemini basierendes KI-Modell für die Integration in sein Private-Cloud-Compute-Framework zu entwickeln. Dieses Design ermöglicht die lokale Verarbeitung einfacherer Aufgaben, während komplexere Operationen mithilfe verschlüsselter Daten an Apples sichere Server ausgelagert werden.

Hauptmerkmale der bevorstehenden Siri-Überarbeitung

Das erwartete Siri-Update wird aus drei Hauptkomponenten bestehen:

  1. Abfrageplaner: Diese wichtige Ebene steuert, wie Siri Benutzeranfragen erfüllt, indem sie den effizientesten Weg auswählt. Dies kann Websuchen, den Zugriff auf persönliche Daten wie Kalenderereignisse oder die Nutzung von Drittanbieteranwendungen über App Intents umfassen – eine Schnittstelle, die eine nahtlose App-Integration mit Siri ermöglicht.
  2. Wissenssuchsystem: Siri wird über eine umfassende Wissensdatenbank verfügen, die es ihr ermöglicht, allgemeine Wissensfragen selbstständig zu beantworten, wodurch die Abhängigkeit von externen KI-Ressourcen wie ChatGPT entfällt.
  3. Zusammenfassungsfunktion: Dieses Tool ist ein grundlegendes Element von Apple Intelligence und ermöglicht Siri die Nutzung externer KI-Modelle wie ChatGPT zur Zusammenfassung verschiedener Inhaltstypen, darunter:
    • Zusammenfassungen der Benachrichtigungen
    • Zusammenfassungen von E-Mails und Nachrichten
    • Webseiten-Zusammenfassungen in Safari
    • Schreibhilfe
    • Zusammenfassungen von Audioinhalten

In dieser zukünftigen Architektur wird Siri für die Verarbeitung auf dem Gerät entweder Apples eigene Basismodelle nutzen oder KI-Systeme von Drittanbietern wie ChatGPT integrieren. Bei komplexen Anfragen werden die Daten an Apples private Server gesendet, wo das Gemini-Modell die Verarbeitung übernimmt und die Privatsphäre der Nutzer durch zustandslose Verschlüsselung gewährleistet.

Berichte Anfang dieses Jahres deuteten darauf hin, dass Apples Entwicklungsteam vor Herausforderungen stand, die Effektivität von Siri sicherzustellen, insbesondere bei App-Integrationen und kritischen Funktionen in sensiblen Bereichen wie dem Bankwesen.

Erwartete Funktionen in iOS 26 und iOS 27

Apple wird voraussichtlich im Rahmen seines iOS-Updates im Frühjahr 2026 (voraussichtlich iOS 26.4) bedeutende neue Funktionen einführen. Zu den wichtigsten erwarteten Features gehören:

  1. In-App-Aktionen:
    • Siri wird kontextbezogene Aufgaben innerhalb unterstützter Anwendungen per Sprachbefehl ausführen – Aktionen wie das Hinzufügen von Artikeln zu einer Einkaufsliste, das Senden von Nachrichten oder das Abspielen von Musik werden möglich sein.
  2. Persönliches Kontextbewusstsein:
    • Siri wird persönliche Daten effektiver nutzen, um maßgeschneiderte Dienste anzubieten, wie beispielsweise das Auffinden von in Textnachrichten erwähnten Podcasts.
  3. Aufmerksamkeit auf dem Bildschirm:
    • Siri wird die Fähigkeit erhalten, angezeigte Inhalte auf dem Bildschirm zu verstehen, wodurch es relevante Aufgaben reibungsloser ausführen kann.

Darüber hinaus sind in iOS 26 bereits einige KI-Funktionen vorhanden, wenn auch mit begrenztem Umfang. Dazu gehören:

  1. Live-Übersetzung für die Nachrichten-App und während FaceTime-Anrufen.
  2. Benutzerdefinierte Hintergründe für Konversationen in der Nachrichten-App mithilfe von Image Playground.
  3. Zusammenfassungen von Voicemail-Nachrichten.
  4. Echtzeit-Übersetzungsfunktionen für AirPods.
  5. Spezielle KI-Aktionsverknüpfungen.
  6. Drittanbieter können Apples Basismodelle für erweiterte Funktionen nutzen.
  7. Erstellung benutzerdefinierter Bilder über ChatGPT im Image Playground.
  8. Emojis kombinieren, um in der Image Playground App ein „Genmoji“ zu erstellen.
  9. Visuelle Einblicke in Screenshots.
  10. Benachrichtigungsübersichten.

Gurman spekuliert außerdem, dass Apple neben den neuen KI-Funktionen, die mit iOS 26.4 eingeführt werden, auf der Worldwide Developers Conference im Juni 2026 auch „bedeutende Aktualisierungen“ in iOS 27 vorstellen wird.

Hinweis: Dieser Artikel wurde mit zusätzlichen Informationen zu den KI-Funktionen in iOS 26 aktualisiert.

Quellen & Bilder

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert