
Der kürzliche Abgang eines prominenten Apple-Managers zu Meta stellt einen erheblichen Rückschlag für die aufstrebenden KI-Initiativen des Technologieriesen dar. Ke Yang, der erst kürzlich die Leitung des Answers, Knowledge and Information (AKI)-Teams von Apple übernommen hatte, hat Berichten zufolge eine verlockende Position bei Meta Platforms Inc.angenommen.
Ke Yangs Wechsel zu Meta: Eine Änderung in Apples KI-Strategie
BREAKING: Apples KI-Manager, der für das Answers-, Knowledge- und Information-Team verantwortlich ist und Siri um eine ChatGPT-ähnliche Websuche erweitert, wechselt zu Meta. Er wurde vor einigen Wochen in die Apple-Position befördert und berichtet nun an KI-Chef John Giannandrea.https://t.co/QfnIU006xj
— Mark Gurman (@markgurman) 15. Oktober 2025
Laut Mark Gurman von Bloomberg hat Yang durch seine jüngste Beförderung eine Schlüsselrolle inne, die darauf abzielt, die Fähigkeiten von Siri zu verbessern und es der Software zu ermöglichen, benutzerspezifische Informationen direkt aus dem Internet abzurufen – ähnlich den Funktionen, die die großen Sprachmodelle (LLMs) von OpenAI bieten.
Diese Entwicklung ist zweifellos ein schwerer Schlag für Apples KI-Ambitionen, die sich noch in der Anfangsphase befinden. Das Unternehmen hat im Oktober 2024 mit der Einführung mehrerer KI-Funktionen erste Fortschritte gemacht, die mit Spannung erwarteten Funktionen wie kontextbezogene In-App-Aktionen und personalisierte Aufmerksamkeit stehen jedoch noch aus.
Um die Lücke in seinem KI-Angebot zu schließen, hat Apple mehrere strategische Initiativen ergriffen, darunter:
- Zusammenarbeit mit OpenAI, um dessen große Sprachmodelle in das KI-Framework von Apple zu integrieren.
- Übernahme von drei Startups wie TrueMeeting und WhyLabs zur Erweiterung der KI-Entwicklungskapazitäten.
- Implementierung datenschutzorientierter KI-Operationen durch Private Apple Intelligence, das einfachere KI-Aufgaben lokal verarbeitet, während komplexe Funktionen auf verschlüsselten privaten Cloud-Servern abgewickelt werden.
- Entwicklung eines personalisierten KI-Modells, das effektiv auf iPhones und iPads funktioniert und aus 3 Milliarden Parametern besteht.
- Erstellen eines serverbasierten LLM sowie Diffusionsbildgenerierung und Codierungshilfen für die Xcode-Entwicklerumgebung.
- Öffnung der grundlegenden KI-Modelle für externe Entwickler, um die KI-Funktionalität in verschiedenen Anwendungen zu verbessern.
Mit Blick auf die Zukunft plant Apple, in den kommenden Monaten mehrere spannende Funktionen einzuführen:
- Integration von KI-Lösungen von Drittanbietern
- Dadurch kann Siri bestimmte LLMs wie GPT von OpenAI oder Gemini von Google nutzen, um bestimmte Aufgaben auszuführen.
- Verbesserte In-App-Aktionen
- Siri erhält die Möglichkeit, kontextbezogene Aufgaben in unterstützten Anwendungen über Sprachbefehle auszuführen, beispielsweise das Hinzufügen von Artikeln zu einer Einkaufsliste oder das Senden von Nachrichten.
- Größeres persönliches Kontextbewusstsein
- Siri nutzt Benutzerdaten, um benutzerdefinierte Dienste bereitzustellen, beispielsweise das Auffinden bestimmter Podcasts, die in Textkonversationen in der Nachrichten-App erwähnt werden.
Schreibe einen Kommentar