Apple strategicznie wykorzystuje zaawansowane możliwości Google, aby zwiększyć funkcjonalność swojej nowej aplikacji Siri, wprowadzając zaawansowany, niestandardowy model sztucznej inteligencji Gemini w chmurze.
Wnioski Marka Gurmana: Apple wdroży niestandardowy model sztucznej inteligencji Gemini z 1, 2 biliona parametrów w celu modernizacji Siri
Z ostatnich raportów Marka Gurmana z Bloomberga wynika, że Apple planuje zintegrować niestandardowy model sztucznej inteligencji Gemini, oferujący imponującą liczbę 1, 2 biliona parametrów. Ten dostosowany model znacznie przewyższa opatentowaną sztuczną inteligencję o 1, 5 miliarda parametrów, która obecnie działa w chmurze za Siri.
Przed sfinalizowaniem tego unikalnego podejścia, Apple przeanalizowało inne wiodące modele sztucznej inteligencji, w tym ChatGPT firmy OpenAI i Claude firmy Anthropic. Ostatecznie podjęto decyzję o wdrożeniu zmodyfikowanej wersji Gemini firmy Google, aby ułatwić bardziej złożone interakcje użytkowników, a wszystko to w ramach systemu Private Cloud Compute firmy Apple, który kładzie nacisk na prywatność użytkowników poprzez wykorzystanie szyfrowanych i bezstanowych danych.
Ponadto, w ramach tej umowy, Apple ma inwestować około 1 miliarda dolarów rocznie w dostęp do najnowocześniejszej technologii sztucznej inteligencji Google. Umowa ta stanowi najnowszy rozdział w długofalowej współpracy handlowej między Apple i Google, w ramach której Google wypłaca Apple 20 miliardów dolarów rocznie za prawa do domyślnej wyszukiwarki w Safari i innych platformach Apple.
Wewnętrznie Apple nadało inicjatywie udoskonalenia Siri wewnętrzną nazwę kodową Glenwood. Projektem tym kierują wybitne osobistości, takie jak Mike Rockwell, architekt stojący za goglami Vision Pro, oraz Craig Federighi, szef działu inżynierii oprogramowania.
Kompleksowa przebudowa Siri: kluczowe komponenty
Nadchodząca nowa wersja Siri firmy Apple będzie zawierać trzy podstawowe elementy:
- Planer zapytań – Ten segment reprezentuje warstwę operacyjną Siri, której zadaniem jest określenie optymalnej ścieżki odpowiedzi na żądanie użytkownika. Może to obejmować wyszukiwanie w internecie, dostęp do danych osobowych (takich jak kalendarz czy zdjęcia) lub interakcję z aplikacjami innych firm za pośrednictwem App Intents, platformy umożliwiającej Siri wykonywanie działań w aplikacji bez ingerencji użytkownika.
- System wyszukiwania wiedzy – Siri będzie zawierać kompleksową bazę danych wiedzy, która umożliwi niezależne zarządzanie zapytaniami dotyczącymi ciekawostek, minimalizując konieczność korzystania ze sztucznej inteligencji stron trzecich lub wyników wyszukiwania online.
- Summarizer – ta integralna funkcja w ramach Apple Intelligence umożliwia Siri korzystanie z zewnętrznych modeli sztucznej inteligencji, takich jak ChatGPT, w celu streszczania różnych danych tekstowych lub dźwiękowych, a także udostępnia takie funkcjonalności, jak podsumowania powiadomień i analizy stron internetowych.
W kontekście ewoluującego krajobrazu technologicznego Apple, dostosowany model Google Gemini ma przede wszystkim zarządzać funkcjonalnościami Planera Zapytań i Summarizera, natomiast System Wyszukiwania Wiedzy będzie oparty na opatentowanych przez Apple platformach LLM zainstalowanych na urządzeniach. Co ważne, takie rozwiązanie ma na celu zachowanie niezależnej funkcjonalności bez pozycjonowania sztucznej inteligencji wyszukiwania Google w czołówce ekosystemu Apple.
Chociaż ta współpraca stanowi kluczowy krok naprzód, Apple planuje z czasem rozwijać swoje ekskluzywne rozwiązanie. Na razie model Gemini odegra kluczową rolę we wprowadzeniu ulepszonego interfejsu Siri wraz z premierą systemu iOS 26.4, który wprowadzi ulepszone działania w aplikacjach, świadomość kontekstową i ulepszone interakcje wizualne z asystentem głosowym.
Dodaj komentarz