Apples KI-Modelle hinken nach dem neuesten Update OpenAIs GPT-4o hinterher

Apples KI-Modelle hinken nach dem neuesten Update OpenAIs GPT-4o hinterher

Apple stellt auf der WWDC 2025 wichtige Fortschritte im Bereich KI vor

Auf der WWDC 2025 hat Apple seine KI-Fähigkeiten deutlich verbessert und Updates veröffentlicht, die sowohl Entwicklern als auch Verbrauchern zugutekommen. Dazu gehörte die Einführung des Foundation Models Frameworks, das es Entwicklern ermöglicht, KI-Funktionen in ihre Anwendungen zu integrieren und gleichzeitig die Privatsphäre der Nutzer zu wahren. Dieses Framework nutzt Apples proprietäre KI-Modelle und ist kostenlos verfügbar.

Sprachgrundlagenmodelle der nächsten Generation

Darüber hinaus stellte Apple eine neue Reihe von Sprachmodellen vor, die schneller und effizienter als ihre Vorgänger sein sollen. Diese Modelle sollen die Tool-Nutzung verbessern, das Denkvermögen verbessern und multimodale Eingaben, darunter Bilder und Text, in 15 verschiedenen Sprachen unterstützen.

Übersicht über Apple Intelligence-Modelle

Apple Intelligence umfasst zwei unterschiedliche Basismodelle:

  • Ein 3-Milliarden-Parameter-Modell, das für die Leistung auf dem Gerät mit Apple Silicon optimiert ist.
  • Ein serverbasiertes Experten-Mix-Modell, zugeschnitten auf Private Cloud Computing.

Das On-Device-Modell ist speziell auf die Ausführung textbezogener Aufgaben ausgerichtet. Zu seinen Funktionen gehören Zusammenfassung, Entitätsextraktion, Textverständnis, Inhaltsverfeinerung, kurze Dialoge und kreative Generierung, anstatt als allgemeiner Chatbot zu fungieren.

Leistungsbenchmarks und Vergleiche

Die Kernfrage betrifft die Leistung der Apple-Modelle im Vergleich zu führenden Wettbewerbern. Anstatt sich auf herkömmliche KI-Benchmarks zu verlassen, veröffentlichte Apple die Ergebnisse seiner internen Evaluierungen, die Sprach- und Denkfähigkeiten bewerten.

Apple Intelligence-Modell

Laut Apples Einschätzungen kann das geräteinterne 3B-Modell gut mit dem Qwen-2.5-3B mithalten und zeigt bei englischsprachigen Aufgaben konkurrenzfähige Ergebnisse gegenüber den größeren Modellen Qwen-3-4B und Gemma-3-4B. Das serverbasierte Modell weist zwar einen leichten Vorteil gegenüber Llama-4-Scout auf, schneidet aber gegenüber Qwen-3-235B und OpenAIs fortschrittlichem GPT-4o nicht so gut ab.

Bildeingabeauswertungen

Bei der Bewertung der Bildeingabefunktionen übertrifft Apples On-Device-Modell InternVL und Qwen und zeigt eine konkurrenzfähige Leistung gegenüber Gemma. Das Servermodell ist zwar besser als Qwen-2.5-VL, liegt aber hinter Llama-4-Scout und GPT-4o.

Der Weg vor Apple im Bereich KI

Diese Ergebnisse zeigen, dass Apple bei der Entwicklung seiner grundlegenden KI-Technologien noch viel Nachholbedarf hat. Vergleiche mit GPT-4o wurden offenbar angestellt, um eine positivere Leistungsprognose zu präsentieren. Ein Vergleich mit den neuesten Modellen der O-Serie von OpenAI oder Googles Gemini 2.5 Pro könnte möglicherweise eine größere Leistungslücke aufdecken. Da Apple seine internen Kapazitäten weiterentwickelt, bleibt es spannend zu beobachten, wie sich das Unternehmen in den kommenden Jahren in der sich rasant entwickelnden KI-Landschaft positioniert.

Quelle & Bilder

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert