Outbyte PC Repair

RSF reaguje na raport Apple Intelligence dotyczący doniesień o samobójstwie Luigiego Mangione

RSF reaguje na raport Apple Intelligence dotyczący doniesień o samobójstwie Luigiego Mangione

Apple spotyka się z negatywną reakcją za błąd powiadomienia AI

W niedawnym błędzie Apple jest pod lupą z powodu nieścisłości generowanych przez funkcję Apple Intelligence. Wprowadzone wraz z najnowszymi aktualizacjami w iOS 18.1, iPadOS 18.1 i macOS Sequoia 15.1, to narzędzie oparte na sztucznej inteligencji oferuje takie funkcjonalności, jak podsumowania powiadomień, dostosowane zapytania Siri, narzędzie do organizacji zdjęć, podsumowania wiadomości e-mail i możliwość tworzenia spersonalizowanych emotikonów za pośrednictwem Genmoji. Jedną z jego wyróżniających się funkcji jest zaawansowane rozpoznawanie obrazu w iPhonie 16, które poprawia interakcję użytkownika.

Omówienie incydentu: Niepokojące powiadomienie

Kontrowersje wybuchły, gdy Apple Intelligence dostarczyło podsumowanie powiadomień z aplikacji BBC News, które zawierało poważny błąd. AI poinformowało, że Luigi Mangione się zastrzelił, co było kategorycznie fałszywe. Błędna interpretacja nagłówków wiadomości wywołała obawy co do niezawodności AI w przekazywaniu krytycznych informacji.

Zrzut ekranu kłopotliwego powiadomienia
Zdjęcie: BBC

Kontekst błędu

Ten incydent jest szczególnie niepokojący w kontekście, w jakim się wydarzył. Na początku tego miesiąca Brian Thompson, CEO UnitedHealthcare, zginął tragicznie, a jego domniemany napastnik, Luigi Mangione, został aresztowany. Zaangażowanie Mangione stało się głównym tematem doniesień medialnych, ale system Apple Intelligence błędnie pomylił szczegóły, co doprowadziło do wysoce mylącego podsumowania, które mogło wywołać zamieszanie i niepokój wśród użytkowników.

Odpowiedź i implikacje

Skutki tej pomyłki były szybkie. BBC złożyło skargę do Apple, co skłoniło globalną grupę rzeczniczą Reporterów bez Granic (RSF) do wezwania do dezaktywacji funkcji powiadomień Apple Intelligence. RSF podkreśliło ten incydent jako główny przykład niedociągnięć AI w dokładnym przetwarzaniu wrażliwych treści informacyjnych. Stwierdzili:

Ten wypadek uwypukla niezdolność systemów AI do systematycznego publikowania informacji wysokiej jakości, nawet gdy opierają się one na źródłach dziennikarskich. Prawdopodobny sposób działania systemów AI automatycznie dyskwalifikuje je jako niezawodną technologię dla mediów informacyjnych, która może być wykorzystywana w rozwiązaniach skierowanych do ogółu społeczeństwa.

Szersze zagadnienia dotyczące sztucznej inteligencji

Nie jest to odosobniony przypadek w dziedzinie sztucznej inteligencji. Na początku tego roku chatbot Gemini firmy Google spotkał się z krytyką za generowanie kontrowersyjnych obrazów, które niewłaściwie przedstawiały postacie historyczne. W odpowiedzi na te problemy Google tymczasowo zawiesiło możliwość generowania obrazów osób w Gemini, przyznając, że „nie osiągnęli celu”.

Źródło i obrazy

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *