Meta zatrudnia dyrektora ds. sztucznej inteligencji Apple, który odpowiada za rozwój wyszukiwarki internetowej w stylu ChatGPT dla Siri

Meta zatrudnia dyrektora ds. sztucznej inteligencji Apple, który odpowiada za rozwój wyszukiwarki internetowej w stylu ChatGPT dla Siri

Niedawne odejście prominentnego dyrektora Apple do Meta oznacza poważny krok wstecz dla rozwijających się inicjatyw giganta technologicznego w dziedzinie sztucznej inteligencji. Ke Yang, który niedawno objął kierownictwo zespołu ds.odpowiedzi, wiedzy i informacji (AKI) w Apple, podobno przyjął kuszącą posadę w Meta Platforms Inc.

Przejście Ke Yang na Meta: zmiana w strategii Apple dotyczącej sztucznej inteligencji

Według Marka Gurmana z Bloomberga niedawny awans Yanga umieścił go w kluczowej roli, której celem jest rozszerzenie możliwości Siri, umożliwiając pobieranie informacji specyficznych dla użytkownika bezpośrednio z sieci — na wzór funkcjonalności zapewnianych przez duże modele językowe (LLM) OpenAI.

Ten rozwój sytuacji to niewątpliwie poważny cios dla ambicji Apple w zakresie sztucznej inteligencji, które wciąż znajdują się w początkowej fazie. Firma poczyniła pierwsze kroki w październiku 2024 roku, wprowadzając szereg funkcji sztucznej inteligencji, choć nie wdrożyła jeszcze długo oczekiwanych funkcji, takich jak kontekstowe działania w aplikacji i spersonalizowana świadomość.

Aby zniwelować lukę w ofercie rozwiązań AI, firma Apple podjęła szereg inicjatyw strategicznych, w tym:

  1. Współpraca z OpenAI w celu zintegrowania obszernych modeli językowych z inteligencją firmy Apple.
  2. Przejęcie trzech startupów, takich jak TrueMeeting i WhyLabs, w celu rozszerzenia możliwości rozwoju sztucznej inteligencji.
  3. Wdrażanie operacji AI skoncentrowanych na prywatności poprzez Private Apple Intelligence, które przetwarzają prostsze zadania AI lokalnie, jednocześnie obsługując złożone funkcje na szyfrowanych serwerach prywatnej chmury.
  4. Opracowanie spersonalizowanego modelu sztucznej inteligencji, który skutecznie działa na iPhone’ach i iPadach, składającego się z 3 miliardów parametrów.
  5. Tworzenie serwerowego LLM, generowanie obrazów dyfuzyjnych i pomoce kodujące przeznaczone dla środowiska programistycznego Xcode.
  6. Udostępnienie podstawowych modeli sztucznej inteligencji zewnętrznym programistom w celu zwiększenia funkcjonalności sztucznej inteligencji w różnych aplikacjach.

Patrząc w przyszłość, Apple planuje wprowadzić w nadchodzących miesiącach kilka ekscytujących funkcji:

  1. Integracja rozwiązań AI innych firm
    • Dzięki temu Siri będzie mogła wykorzystywać konkretne LLM-y, takie jak GPT firmy OpenAI lub Gemini firmy Google, do wykonywania wyznaczonych zadań.
  2. Ulepszone działania w aplikacji
    • Siri zyska możliwość wykonywania zadań zależnych od kontekstu w obsługiwanych aplikacjach za pomocą poleceń głosowych, np.dodawania pozycji do listy zakupów lub wysyłania wiadomości.
  3. Większa świadomość kontekstu osobistego
    • Siri będzie wykorzystywać dane użytkownika w celu świadczenia spersonalizowanych usług, na przykład lokalizowania konkretnych podcastów wspomnianych w konwersacjach tekstowych w aplikacji Wiadomości.

Źródło i obrazy

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *