Meta wprowadza ostrzeżenie o prywatności po nieumyślnym udostępnieniu przez użytkowników poufnych czatów w aplikacji AI. Eksperci twierdzą, że nie rozwiązuje to podstawowych problemów

Meta wprowadza ostrzeżenie o prywatności po nieumyślnym udostępnieniu przez użytkowników poufnych czatów w aplikacji AI. Eksperci twierdzą, że nie rozwiązuje to podstawowych problemów

Gwałtowny rozwój technologii sztucznej inteligencji (AI) skłonił organizacje do nadania priorytetu odpowiedzialnemu użytkowaniu i kontroli udostępnianych informacji. Użytkownicy często nadmiernie polegają na tych platformach, co prowadzi do niezamierzonego nadmiernego udostępniania informacji w publicznych kanałach. W odpowiedzi Meta wprowadza wyłączenie odpowiedzialności mające na celu ograniczenie nadmiernego ujawniania informacji, w szczególności w odniesieniu do poufnych lub prywatnych danych udostępnianych na swoich platformach AI.

Meta podejmuje działania: nowe wyłączenie odpowiedzialności dotyczące obaw związanych z nadmiernym udostępnianiem informacji w aplikacjach AI

W miarę jak narzędzia AI nadal się rozprzestrzeniają, organy regulacyjne podkreślają znaczenie etycznego korzystania z AI i ochrony danych. Wielu użytkowników nieświadomie ujawnia dane osobowe na tych platformach, co powoduje poważne obawy dotyczące prywatności i sprzeciw wobec treści cyfrowych. Aby złagodzić potencjalne problemy prawne i szkody dla swojej reputacji, Meta zaktualizowała swoje aplikacje, aby zawierały wyraźne ostrzeżenia dotyczące udostępniania danych osobowych.

Raport Business Insider podkreślił, że aplikacja stała się kłopotliwą przestrzenią, prezentując mnóstwo prywatnych i potencjalnie zawstydzających postów. Użytkownicy nie byli świadomi, że ich wiadomości mogą być wyświetlane w publicznym kanale „Discover”, co prowadziło do przypadkowego ujawnienia prywatnych konwersacji. Chociaż czaty użytkowników nie są automatycznie upubliczniane w aplikacji Meta AI, wiele osób nieumyślnie ujawniło te wrażliwe dialogi szerszej publiczności.

Od czasu premiery aplikacji w kwietniu, wiele osobistych rozmów, od obaw finansowych po zapytania dotyczące zdrowia, pojawiło się publicznie bez wiedzy użytkowników. Stało się to jasne, gdy zrzuty ekranu nietypowych dialogów pojawiły się w kanale „Discover” i zostały rozpowszechnione w mediach społecznościowych, przyciągając uwagę społeczności i korporacji. Obrońcy prywatności wyrazili poważne obawy dotyczące domyślnego nadmiaru kanałów społecznościowych Meta, co ostro kontrastuje z praktykami obserwowanymi na innych platformach czatów AI.

Specjalistka ds.bezpieczeństwa Rachel Tobac, która ma już doświadczenie z platformą Meta, wyraziła zaniepokojenie potencjalnymi zagrożeniami związanymi z tym środowiskiem użytkownika, stwierdzając:

Ludzie stworzyli schemat wokół botów czatowych ze sztuczną inteligencją i nie oczekują, że komunikaty botów czatowych ze sztuczną inteligencją będą pojawiać się w kanale Discover w stylu mediów społecznościowych — inne narzędzia tak nie działają.

Podobnie Mozilla Foundation wezwała Meta do ponownego rozważenia układu aplikacji i zapewnienia, że ​​użytkownicy będą powiadamiani za każdym razem, gdy ich posty zostaną upublicznione. Meta szybko odpowiedziała na te obawy, wdrażając jednorazowy znak ostrzegawczy dla rozmów udostępnianych publicznie w swojej aplikacji AI. Ostrzeżenie brzmi następująco:

Monity, które publikujesz, są publiczne i widoczne dla wszystkich. Twoje monity mogą być sugerowane przez Meta w innych aplikacjach Meta. Unikaj udostępniania informacji osobistych lub poufnych.

Chociaż inicjatywa Meta mająca na celu rozwiązanie problemu rosnących obaw dotyczących prywatności jest godna pochwały, firma powinna przeprowadzić bardziej kompleksową przebudowę sposobu korzystania z aplikacji, kładąc większy nacisk na prywatność i kontrolę.

Źródło i obrazy

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *