Google aktualizuje zobowiązanie dotyczące wykorzystania sztucznej inteligencji w broni wojskowej

Google aktualizuje zobowiązanie dotyczące wykorzystania sztucznej inteligencji w broni wojskowej

Rozwój sztucznej inteligencji: implikacje i rozwój

Sztuczna inteligencja (AI) znalazła się w centrum uwagi, przyciągając globalną uwagę po ogromnej popularności chatbotów opartych na dużym modelu językowym (LLM), takich jak ChatGPT ze Stanów Zjednoczonych i DeepSeek z Chin, które znacząco wpłynęły na giełdę. To nowo odkryte zainteresowanie rodzi istotne pytania dotyczące wpływu AI na różne branże, szczególnie wśród osób, które mogą nie znać terminu „sztuczna inteligencja”.

Obawy związane z technologiami AI

Pomimo korzyści, jakie oferuje AI, istnieją nieodłączne ryzyka, których nie można ignorować. Kwestie takie jak dezinformacja, naruszenia prywatności, nadmierne poleganie na technologii i potencjalne zastosowania wojskowe budzą poważne obawy. Odpowiedzialność za łagodzenie takich zagrożeń spoczywa całkowicie na pionierach AI i liderach branży.

Zaangażowanie Google w odpowiedzialną sztuczną inteligencję

W odpowiedzi na te wyzwania Google konsekwentnie stawia bezpieczeństwo na pierwszym miejscu w obszarze rozwoju AI. Przez ostatnie sześć lat firma publikowała coroczny „Raport o postępach w zakresie odpowiedzialnej AI”.Ostatnio opublikowali raport o postępach za 2024 r., dokument, który przedstawia ich bieżące wysiłki na rzecz wzmocnienia bezpieczeństwa AI.

Jedną ze znaczących aktualizacji z najnowszego raportu jest modyfikacja Frontier Safety Framework firmy Google. Ta struktura, zainicjowana przez Google DeepMind, ma na celu proaktywne identyfikowanie i rozwiązywanie potencjalnych zagrożeń związanych z zaawansowanymi systemami AI. Niektóre kluczowe ulepszenia obejmują:

  • Zalecenia dotyczące zwiększenia bezpieczeństwa : Proponowanie strategii mających na celu zwiększenie środków bezpieczeństwa chroniących przed naruszeniami danych.
  • Procedura łagodzenia skutków wdrożenia : Ustanowienie wytycznych zapobiegających niewłaściwemu wykorzystaniu potężnych możliwości sztucznej inteligencji.
  • Ryzyko mylącego dopasowania : radzenie sobie z zagrożeniem, jakie stwarzają autonomiczne systemy, które mogą manipulować ludzkim nadzorem.

Demokratyczne przywództwo w rozwoju AI

Wraz z aktualizacjami protokołów bezpieczeństwa Google potwierdziło swoje stanowisko, że demokracje powinny przewodzić rozwojowi technologii AI, kładąc nacisk na wartości takie jak wolność, równość i poszanowanie praw człowieka. Firma ogłosiła również zmiany w swoich oryginalnych zasadach AI, które zostały opublikowane po raz pierwszy w 2018 r.

Zmiany w zasadach Google dotyczących sztucznej inteligencji

Wizyta na stronie AI Principles ujawnia zauważalną nieobecność dotyczącą wykorzystania AI w uzbrojeniu. Zarchiwizowana wersja strony z 22 lutego 2024 r.zawierała zobowiązanie do powstrzymania się od tworzenia lub wdrażania technologii AI zaprojektowanych w celu wyrządzenia szkody:

Broń lub inne technologie, których głównym celem lub zastosowaniem jest powodowanie lub bezpośrednie ułatwianie obrażeń ludziom.

Jednakże zobowiązanie to zostało pominięte w zrewidowanych zasadach, które obecnie koncentrują się na trzech podstawowych założeniach:

  • Odważna innowacja : Naszym celem jest rozwijanie technologii AI, które wzmacniają jednostki i napędzają postęp w różnych dziedzinach, zwiększając dobrobyt ekonomiczny i społeczny.
  • Odpowiedzialny rozwój i wdrażanie : Uznając transformacyjny charakter sztucznej inteligencji, zobowiązujemy się do zapewnienia jej bezpiecznego rozwoju i wdrażania poprzez rygorystyczne testy i względy etyczne.
  • Współpraca na rzecz postępu, razem : Cenimy sobie partnerstwa i jesteśmy oddani tworzeniu technologii, które umożliwiają innym wykorzystanie sztucznej inteligencji w celu osiągnięcia pozytywnych wyników.

Obawy pracowników i kwestie etyczne

Co ciekawe, Google nie odniosło się jeszcze do kwestii zniesienia swojego wcześniejszego zobowiązania do nieużywania AI do celów wojskowych, decyzja ta spotkała się ze znacznym oporem ze strony pracowników. W 2018 r.prawie 4000 pracowników podpisało petycję domagającą się rozwiązania umowy firmy z Departamentem Obrony USA, znanej jako Project Maven, która wykorzystywała AI do analizy obrazów z dronów.

Niedawno pracownicy Google DeepMind wyrazili podobne obawy, wzywając firmę technologiczną do zerwania powiązań z podmiotami wojskowymi. To wezwanie do działania odwoływało się do zasad AI firmy, argumentując, że takie powiązania są sprzeczne z ich wcześniejszym zobowiązaniem do powstrzymania się od rozwijania technologii wojskowych.

Aby przyjrzeć się bliżej, odwiedź Depositphotos.com.

Źródło i obrazy

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *