W znaczącej zmianie strategii firma Apple najwyraźniej uznała, że modernizacja wewnętrznej aplikacji Siri wiąże się z wyzwaniami i obecnie współpracuje z Google w celu stworzenia niestandardowego modelu dużego języka (LLM) opartego na technologii Gemini, który będzie obsługiwał zaktualizowaną aplikację Siri w chmurze.
Mark Gurman informuje o partnerstwie Apple z Google w celu ulepszenia sztucznej inteligencji Siri
Według znanego analityka Apple, Marka Gurmana, w swoim najnowszym biuletynie „Power On”, Apple najwyraźniej przyznało, że opracowanie skutecznego, wewnętrznego modelu sztucznej inteligencji dla Siri nie jest obecnie możliwe. Zmodernizowane funkcje, określane zbiorczo mianem Apple Intelligence, będą teraz wspierane przez specjalistyczną wiedzę Google w dziedzinie sztucznej inteligencji.
Apple podobno płaci Google za opracowanie niestandardowego LLM opartego na Gemini, który będzie działał w oparciu o własną platformę Apple Private Cloud Compute. Te LLM będą obsługiwać nową spersonalizowaną wyszukiwarkę Siri i AI, a także pozostaną całkowicie prywatne, zgodnie z pierwotnymi planami.Źródło – @markgurman pic.twitter.com/KaRH0n0lof
— AppleLeaker (@LeakerApple) 3 listopada 2025 r
W ramach tego nowego porozumienia Apple planuje wykorzystać zaawansowane możliwości Google do zaprojektowania modelu sztucznej inteligencji opartego na platformie Gemini, który zostanie zintegrowany z platformą Private Cloud Compute. Taka konstrukcja umożliwi lokalne przetwarzanie prostszych zadań, a bardziej złożone operacje zostaną przeniesione na bezpieczne serwery Apple z wykorzystaniem zaszyfrowanych danych.
Kluczowe funkcje nadchodzącej odświeżonej wersji Siri
Oczekiwana aktualizacja Siri będzie składać się z trzech głównych komponentów:
- Query Planner: Ta krytyczna warstwa zarządza sposobem, w jaki Siri spełnia żądania użytkowników, wybierając najefektywniejszą ścieżkę. Może to obejmować wyszukiwanie w Internecie, dostęp do danych osobowych, takich jak wydarzenia w kalendarzu, lub korzystanie z aplikacji innych firm za pośrednictwem App Intents — interfejsu umożliwiającego bezproblemową integrację aplikacji z Siri.
 - System wyszukiwania wiedzy: Siri będzie zawierać kompleksową bazę danych wiedzy, która umożliwi jej samodzielne udzielanie odpowiedzi na ogólne pytania, eliminując potrzebę korzystania z zewnętrznych zasobów sztucznej inteligencji, takich jak ChatGPT.
 -  Summarizer: To podstawowe narzędzie Apple Intelligence, które umożliwi Siri korzystanie z zewnętrznych modeli sztucznej inteligencji, takich jak ChatGPT, w celu podsumowywania różnych typów treści, w tym: 
- Podsumowania powiadomień
 - Podsumowania wiadomości e-mail i wiadomości
 - Podsumowania stron internetowych w Safari
 - Pomoc w pisaniu
 - Podsumowania treści audio
 
 
W tej przyszłej architekturze przetwarzanie danych na urządzeniu przez Siri będzie wykorzystywać autorskie modele bazowe Apple lub integrować sztuczne inteligencje innych firm, takie jak ChatGPT. W przypadku złożonych zapytań dane będą przesyłane na prywatne serwery Apple, gdzie przejmie je model Gemini, zapewniając prywatność użytkownika dzięki bezstanowemu szyfrowaniu.
Doniesienia z początku tego roku wskazywały, że zespół programistów Apple napotkał trudności w zapewnieniu efektywności Siri, w szczególności w przypadku integracji aplikacji i kluczowych funkcji w newralgicznych obszarach, takich jak bankowość.
Oczekiwane funkcje w iOS 26 i iOS 27
Apple jest na dobrej drodze do wprowadzenia istotnych funkcjonalności w ramach aktualizacji iOS na wiosnę 2026 roku (prawdopodobnie iOS 26.4).Kluczowe oczekiwane funkcje to:
-  Akcje w aplikacji: 
- Siri będzie wykonywać zadania zależne od kontekstu w obsługiwanych aplikacjach za pomocą poleceń głosowych — możliwe będą takie działania, jak dodawanie pozycji do listy zakupów, wysyłanie wiadomości lub odtwarzanie muzyki.
 
 -  Świadomość kontekstu osobistego: 
- Siri będzie efektywniej wykorzystywać dane osobowe, aby oferować usługi dostosowane do potrzeb użytkowników, np.wyszukiwanie podcastów wspomnianych w wiadomościach tekstowych.
 
 -  Świadomość na ekranie: 
- Siri zyska możliwość rozumienia treści wyświetlanych na ekranie, co pozwoli jej na płynniejsze wykonywanie odpowiednich zadań.
 
 
Co więcej, w systemie iOS 26 jest już obecnych kilka funkcji sztucznej inteligencji, choć o ograniczonym zakresie. Należą do nich:
- Tłumaczenie na żywo w aplikacji Wiadomości i podczas połączeń FaceTime.
 - Niestandardowe tła do konwersacji w aplikacji Wiadomości przy użyciu Image Playground.
 - Podsumowania wiadomości poczty głosowej.
 - Funkcje tłumaczenia w czasie rzeczywistym dla AirPods.
 - Dedykowane skróty akcji AI.
 - Zewnętrzni programiści mogą wykorzystać podstawowe modele firmy Apple w celu opracowania rozszerzonych funkcji.
 - Tworzenie niestandardowych obrazów za pośrednictwem ChatGPT w Image Playground.
 - Łączenie emotikonów w celu utworzenia „Genmoji” w aplikacji Image Playground.
 - Wizualne informacje na temat zrzutów ekranu.
 - Podsumowania powiadomień.
 
Gurman spekuluje również, że oprócz nowych funkcji sztucznej inteligencji, które pojawią się wraz z systemem iOS 26.4, Apple zaprezentuje „znaczące aktualizacje” w systemie iOS 27 podczas konferencji Worldwide Developers Conference w czerwcu 2026 r.
Uwaga: Ten artykuł został zaktualizowany o dodatkowe informacje dotyczące funkcji sztucznej inteligencji w systemie iOS 26.
		  
		  
		  
		  
Dodaj komentarz