
Niedawne odejście prominentnego dyrektora Apple do Meta oznacza poważny krok wstecz dla rozwijających się inicjatyw giganta technologicznego w dziedzinie sztucznej inteligencji. Ke Yang, który niedawno objął kierownictwo zespołu ds.odpowiedzi, wiedzy i informacji (AKI) w Apple, podobno przyjął kuszącą posadę w Meta Platforms Inc.
Przejście Ke Yang na Meta: zmiana w strategii Apple dotyczącej sztucznej inteligencji
PILNE: Dyrektor ds.sztucznej inteligencji w Apple, odpowiedzialny za zespół ds.odpowiedzi, wiedzy i informacji, który ma dodać wyszukiwarkę internetową podobną do ChatGPT do Siri, odchodzi do Meta. Kilka tygodni temu awansował na stanowisko w Apple i podlega szefowi ds.sztucznej inteligencji, Johnowi Giannandrei.https://t.co/QfnIU006xj
— Mark Gurman (@markgurman) 15 października 2025
Według Marka Gurmana z Bloomberga niedawny awans Yanga umieścił go w kluczowej roli, której celem jest rozszerzenie możliwości Siri, umożliwiając pobieranie informacji specyficznych dla użytkownika bezpośrednio z sieci — na wzór funkcjonalności zapewnianych przez duże modele językowe (LLM) OpenAI.
Ten rozwój sytuacji to niewątpliwie poważny cios dla ambicji Apple w zakresie sztucznej inteligencji, które wciąż znajdują się w początkowej fazie. Firma poczyniła pierwsze kroki w październiku 2024 roku, wprowadzając szereg funkcji sztucznej inteligencji, choć nie wdrożyła jeszcze długo oczekiwanych funkcji, takich jak kontekstowe działania w aplikacji i spersonalizowana świadomość.
Aby zniwelować lukę w ofercie rozwiązań AI, firma Apple podjęła szereg inicjatyw strategicznych, w tym:
- Współpraca z OpenAI w celu zintegrowania obszernych modeli językowych z inteligencją firmy Apple.
- Przejęcie trzech startupów, takich jak TrueMeeting i WhyLabs, w celu rozszerzenia możliwości rozwoju sztucznej inteligencji.
- Wdrażanie operacji AI skoncentrowanych na prywatności poprzez Private Apple Intelligence, które przetwarzają prostsze zadania AI lokalnie, jednocześnie obsługując złożone funkcje na szyfrowanych serwerach prywatnej chmury.
- Opracowanie spersonalizowanego modelu sztucznej inteligencji, który skutecznie działa na iPhone’ach i iPadach, składającego się z 3 miliardów parametrów.
- Tworzenie serwerowego LLM, generowanie obrazów dyfuzyjnych i pomoce kodujące przeznaczone dla środowiska programistycznego Xcode.
- Udostępnienie podstawowych modeli sztucznej inteligencji zewnętrznym programistom w celu zwiększenia funkcjonalności sztucznej inteligencji w różnych aplikacjach.
Patrząc w przyszłość, Apple planuje wprowadzić w nadchodzących miesiącach kilka ekscytujących funkcji:
- Integracja rozwiązań AI innych firm
- Dzięki temu Siri będzie mogła wykorzystywać konkretne LLM-y, takie jak GPT firmy OpenAI lub Gemini firmy Google, do wykonywania wyznaczonych zadań.
- Ulepszone działania w aplikacji
- Siri zyska możliwość wykonywania zadań zależnych od kontekstu w obsługiwanych aplikacjach za pomocą poleceń głosowych, np.dodawania pozycji do listy zakupów lub wysyłania wiadomości.
- Większa świadomość kontekstu osobistego
- Siri będzie wykorzystywać dane użytkownika w celu świadczenia spersonalizowanych usług, na przykład lokalizowania konkretnych podcastów wspomnianych w konwersacjach tekstowych w aplikacji Wiadomości.
Dodaj komentarz