
Badanie ujawnia ograniczoną zdolność człowieka do rozróżniania obrazów generowanych przez sztuczną inteligencję
W niedawnym badaniu przeprowadzonym przez Microsoft AI for Good wzięło udział ponad 12 500 uczestników z całego świata, którzy ocenili około 287 000 obrazów. Wyniki ujawniły niepokojący wskaźnik skuteczności, wynoszący zaledwie 62% w przypadku odróżniania obrazów generowanych przez sztuczną inteligencję od obrazów rzeczywistych. Ta statystyka podkreśla wyzwania, przed którymi stoją ludzie w zakresie precyzyjnej identyfikacji treści sztucznych, zwłaszcza w obliczu stale rosnącego poziomu zaawansowania technologicznego.
Wgląd w rozpoznawanie typów obrazów
Uczestnicy wykazali się największą biegłością w rozpoznawaniu portretów ludzkich generowanych przez sztuczną inteligencję. Jednak ich skuteczność znacznie spadła, gdy musieli odróżnić sztuczne od rzeczywistych krajobrazów naturalnych lub miejskich, gdzie wskaźnik sukcesu spadł do 59–61%.Takie wyniki podkreślają trudności, jakie muszą pokonać osoby, aby rozpoznać obrazy generowane przez sztuczną inteligencję, pozbawione widocznych artefaktów lub niespójności stylistycznych.
Projekt i metodologia eksperymentu
W ramach tego szeroko zakrojonego badania zespół badawczy opracował quiz zatytułowany „Prawdziwe czy nieprawdziwe”, w którym uczestnikom prezentowano obrazy stworzone przez sztuczną inteligencję, reprezentatywne dla tych, które prawdopodobnie można było spotkać w Internecie. Co istotne, badacze celowo starali się unikać obrazów, które byłyby nadmiernie mylące.
Apel o poprawę środków przejrzystości
W świetle tych ustaleń, Microsoft opowiada się za wdrożeniem środków zapewniających transparentność, takich jak znaki wodne i zaawansowane narzędzia do wykrywania AI. Działania te mają na celu ograniczenie ryzyka dezinformacji wynikającej z obrazów generowanych przez AI. Ponadto, gigant technologiczny uruchomił inicjatywy mające na celu podniesienie świadomości na temat dezinformacji związanej z AI.
Narzędzia do wykrywania oparte na sztucznej inteligencji przewyższają ludzką ocenę
Co ciekawe, naukowcy wykorzystali własne narzędzie do detekcji oparte na sztucznej inteligencji, które osiągnęło imponujący wskaźnik dokładności przekraczający 95% w różnych kategoriach obrazów. Odkrycie to wskazuje, że chociaż sztuczna inteligencja może znacząco poprawić możliwości detekcji obrazów, nie jest ona bezbłędna.
Wrażliwość znaków wodnych
Należy pamiętać, że nawet jeśli znaki wodne są widoczne, osoby o złych zamiarach mogą łatwo manipulować tymi identyfikatorami lub je przycinać, ułatwiając w ten sposób rozprzestrzenianie treści wprowadzających w błąd.
Zrozumienie wyzwań związanych z wykrywaniem
Naukowcy przypuszczają, że ludzie doskonale radzą sobie z rozpoznawaniem twarzy generowanych przez sztuczną inteligencję ze względu na nasze naturalne predyspozycje do rozpoznawania twarzy i zdolność do dostrzegania anomalii. Co intrygujące, starsze generatywne sieci adwersarskie (GAN) i techniki inpaintingu często generowały obrazy naśladujące zdjęcia amatorskie, które mogą być dla użytkowników trudniejsze do zidentyfikowania jako syntetyczne w porównaniu z obrazami generowanymi przez zaawansowane modele, takie jak Midjourney i DALL-E 3.
Ryzyko związane z technikami inmalowania
Inpainting — metoda polegająca na zastępowaniu elementów prawdziwych fotografii treścią generowaną przez sztuczną inteligencję — stwarza znaczne wyzwania w zakresie wykrywania fałszerstw i zwiększa ryzyko kampanii dezinformacyjnych, jak wskazała firma Microsoft.
Wnioski: Apel o czujność technologiczną
To badanie dobitnie ilustruje podatność ludzi na oszustwa ze strony sztucznej inteligencji. Przypomina nam ono o pilnej potrzebie udoskonalenia przez firmy technologiczne swoich narzędzi i metodologii w celu przeciwdziałania złośliwemu rozpowszechnianiu wprowadzających w błąd obrazów.
Źródło: ArXiv | Zdjęcie via Depositphotos.com
Dodaj komentarz