Meta stellt Apple-KI-Manager für die Entwicklung einer Websuche im ChatGPT-Stil für Siri ein

Meta stellt Apple-KI-Manager für die Entwicklung einer Websuche im ChatGPT-Stil für Siri ein

Der kürzliche Abgang eines prominenten Apple-Managers zu Meta stellt einen erheblichen Rückschlag für die aufstrebenden KI-Initiativen des Technologieriesen dar. Ke Yang, der erst kürzlich die Leitung des Answers, Knowledge and Information (AKI)-Teams von Apple übernommen hatte, hat Berichten zufolge eine verlockende Position bei Meta Platforms Inc.angenommen.

Ke Yangs Wechsel zu Meta: Eine Änderung in Apples KI-Strategie

Laut Mark Gurman von Bloomberg hat Yang durch seine jüngste Beförderung eine Schlüsselrolle inne, die darauf abzielt, die Fähigkeiten von Siri zu verbessern und es der Software zu ermöglichen, benutzerspezifische Informationen direkt aus dem Internet abzurufen – ähnlich den Funktionen, die die großen Sprachmodelle (LLMs) von OpenAI bieten.

Diese Entwicklung ist zweifellos ein schwerer Schlag für Apples KI-Ambitionen, die sich noch in der Anfangsphase befinden. Das Unternehmen hat im Oktober 2024 mit der Einführung mehrerer KI-Funktionen erste Fortschritte gemacht, die mit Spannung erwarteten Funktionen wie kontextbezogene In-App-Aktionen und personalisierte Aufmerksamkeit stehen jedoch noch aus.

Um die Lücke in seinem KI-Angebot zu schließen, hat Apple mehrere strategische Initiativen ergriffen, darunter:

  1. Zusammenarbeit mit OpenAI, um dessen große Sprachmodelle in das KI-Framework von Apple zu integrieren.
  2. Übernahme von drei Startups wie TrueMeeting und WhyLabs zur Erweiterung der KI-Entwicklungskapazitäten.
  3. Implementierung datenschutzorientierter KI-Operationen durch Private Apple Intelligence, das einfachere KI-Aufgaben lokal verarbeitet, während komplexe Funktionen auf verschlüsselten privaten Cloud-Servern abgewickelt werden.
  4. Entwicklung eines personalisierten KI-Modells, das effektiv auf iPhones und iPads funktioniert und aus 3 Milliarden Parametern besteht.
  5. Erstellen eines serverbasierten LLM sowie Diffusionsbildgenerierung und Codierungshilfen für die Xcode-Entwicklerumgebung.
  6. Öffnung der grundlegenden KI-Modelle für externe Entwickler, um die KI-Funktionalität in verschiedenen Anwendungen zu verbessern.

Mit Blick auf die Zukunft plant Apple, in den kommenden Monaten mehrere spannende Funktionen einzuführen:

  1. Integration von KI-Lösungen von Drittanbietern
    • Dadurch kann Siri bestimmte LLMs wie GPT von OpenAI oder Gemini von Google nutzen, um bestimmte Aufgaben auszuführen.
  2. Verbesserte In-App-Aktionen
    • Siri erhält die Möglichkeit, kontextbezogene Aufgaben in unterstützten Anwendungen über Sprachbefehle auszuführen, beispielsweise das Hinzufügen von Artikeln zu einer Einkaufsliste oder das Senden von Nachrichten.
  3. Größeres persönliches Kontextbewusstsein
    • Siri nutzt Benutzerdaten, um benutzerdefinierte Dienste bereitzustellen, beispielsweise das Auffinden bestimmter Podcasts, die in Textkonversationen in der Nachrichten-App erwähnt werden.

Quelle & Bilder

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert