W miarę jak technologia sztucznej inteligencji (AI) nadal ewoluuje, metody redagowania i prezentowania pisemnej komunikacji przechodzą znaczącą transformację. Jednak rosnące uzależnienie od AI w zakresie tworzenia treści wprowadziło nowe wyzwania. Niedawny incydent z udziałem eksperta ds. dezinformacji pokazuje złożoność związaną z korzystaniem z tekstu generowanego przez AI. Ta osoba spotkała się z krytyką po wykorzystaniu AI do przygotowania dokumentu prawnego, który myląco zawierał sfabrykowane cytaty. Ironicznie, ten wniosek prawny miał na celu sprzeciwienie się wykorzystaniu materiału generowanego przez AI, który mógłby wprowadzić wyborców w błąd przed wyborami.
Nieprzewidziane pułapki AI według eksperta ds. dezinformacji
Jeff Hancock, profesor Uniwersytetu Stanforda i znany ekspert w dziedzinie dezinformacji, złożył oświadczenie popierające prawo Minnesoty mające na celu zakazanie technologii Deep Fake, które mogłyby zniekształcać wyniki wyborów. Niestety, samo oświadczenie mające na celu zwalczanie wpływu AI na wyborców zawierało również nieścisłości ze strony AI, podważając wiarygodność jego twierdzeń.
W późniejszym oświadczeniu Hancock przyznał, że używał ChatGPT-4o do organizowania cytowań. Twierdził jednak, że nie wiedział, że to narzędzie może generować fałszywe informacje lub odniesienia. Hancock podkreślił, że nie używał narzędzia AI do tworzenia głównej treści dokumentu i opisał błędy cytowań jako niezamierzone.
„Napisałem i przejrzałem treść deklaracji i stanowczo popieram każde z zawartych w niej twierdzeń, z których wszystkie są poparte najnowszymi badaniami naukowymi w tej dziedzinie i odzwierciedlają moją opinię jako eksperta dotyczącą wpływu technologii AI na dezinformację i jej skutki społeczne”.
Rozwijając tę myśl, Hancock wspomniał, że wykorzystał zarówno Google Scholar, jak i GPT-4o do skompilowania listy cytowań, ale powtórzył, że AI nie została wykorzystana do stworzenia głównych argumentów dokumentu. Szczerze przyznał, że nie zna koncepcji „halucynacji” AI, co skutkowało błędnymi cytowaniami. Pomimo tego Hancock pozostał wierny zasadniczym punktom przedstawionym w deklaracji, nalegając, aby nie zostały one przyćmione przez błędy cytowań związane z AI.
„Nie miałem zamiaru wprowadzać Sądu ani adwokata w błąd. Wyrażam szczere ubolewanie z powodu wszelkiego zamieszania, jakie to mogło spowodować. Mimo to zdecydowanie popieram wszystkie istotne punkty oświadczenia”.
Implikacje doświadczenia Hancocka podnoszą krytyczne pytania dotyczące wykorzystania narzędzi AI w dziedzinie prawa. Chociaż jego wyjaśnienie może zostać wzięte pod uwagę przez sąd, incydent ten podkreśla nieodłączne ryzyko związane z integracją AI w formalnych warunkach.
Dodaj komentarz