Rewelacja Microsoftu: Jak słabo wykrywamy obrazy generowane przez sztuczną inteligencję w porównaniu z obrazami generowanymi przez przypadek

Rewelacja Microsoftu: Jak słabo wykrywamy obrazy generowane przez sztuczną inteligencję w porównaniu z obrazami generowanymi przez przypadek

Badanie ujawnia ograniczoną zdolność człowieka do rozróżniania obrazów generowanych przez sztuczną inteligencję

W niedawnym badaniu przeprowadzonym przez Microsoft AI for Good wzięło udział ponad 12 500 uczestników z całego świata, którzy ocenili około 287 000 obrazów. Wyniki ujawniły niepokojący wskaźnik skuteczności, wynoszący zaledwie 62% w przypadku odróżniania obrazów generowanych przez sztuczną inteligencję od obrazów rzeczywistych. Ta statystyka podkreśla wyzwania, przed którymi stoją ludzie w zakresie precyzyjnej identyfikacji treści sztucznych, zwłaszcza w obliczu stale rosnącego poziomu zaawansowania technologicznego.

Wgląd w rozpoznawanie typów obrazów

Uczestnicy wykazali się największą biegłością w rozpoznawaniu portretów ludzkich generowanych przez sztuczną inteligencję. Jednak ich skuteczność znacznie spadła, gdy musieli odróżnić sztuczne od rzeczywistych krajobrazów naturalnych lub miejskich, gdzie wskaźnik sukcesu spadł do 59–61%.Takie wyniki podkreślają trudności, jakie muszą pokonać osoby, aby rozpoznać obrazy generowane przez sztuczną inteligencję, pozbawione widocznych artefaktów lub niespójności stylistycznych.

Projekt i metodologia eksperymentu

W ramach tego szeroko zakrojonego badania zespół badawczy opracował quiz zatytułowany „Prawdziwe czy nieprawdziwe”, w którym uczestnikom prezentowano obrazy stworzone przez sztuczną inteligencję, reprezentatywne dla tych, które prawdopodobnie można było spotkać w Internecie. Co istotne, badacze celowo starali się unikać obrazów, które byłyby nadmiernie mylące.

Apel o poprawę środków przejrzystości

W świetle tych ustaleń, Microsoft opowiada się za wdrożeniem środków zapewniających transparentność, takich jak znaki wodne i zaawansowane narzędzia do wykrywania AI. Działania te mają na celu ograniczenie ryzyka dezinformacji wynikającej z obrazów generowanych przez AI. Ponadto, gigant technologiczny uruchomił inicjatywy mające na celu podniesienie świadomości na temat dezinformacji związanej z AI.

Narzędzia do wykrywania oparte na sztucznej inteligencji przewyższają ludzką ocenę

Co ciekawe, naukowcy wykorzystali własne narzędzie do detekcji oparte na sztucznej inteligencji, które osiągnęło imponujący wskaźnik dokładności przekraczający 95% w różnych kategoriach obrazów. Odkrycie to wskazuje, że chociaż sztuczna inteligencja może znacząco poprawić możliwości detekcji obrazów, nie jest ona bezbłędna.

Wrażliwość znaków wodnych

Należy pamiętać, że nawet jeśli znaki wodne są widoczne, osoby o złych zamiarach mogą łatwo manipulować tymi identyfikatorami lub je przycinać, ułatwiając w ten sposób rozprzestrzenianie treści wprowadzających w błąd.

Zrozumienie wyzwań związanych z wykrywaniem

Naukowcy przypuszczają, że ludzie doskonale radzą sobie z rozpoznawaniem twarzy generowanych przez sztuczną inteligencję ze względu na nasze naturalne predyspozycje do rozpoznawania twarzy i zdolność do dostrzegania anomalii. Co intrygujące, starsze generatywne sieci adwersarskie (GAN) i techniki inpaintingu często generowały obrazy naśladujące zdjęcia amatorskie, które mogą być dla użytkowników trudniejsze do zidentyfikowania jako syntetyczne w porównaniu z obrazami generowanymi przez zaawansowane modele, takie jak Midjourney i DALL-E 3.

Ryzyko związane z technikami inmalowania

Inpainting — metoda polegająca na zastępowaniu elementów prawdziwych fotografii treścią generowaną przez sztuczną inteligencję — stwarza znaczne wyzwania w zakresie wykrywania fałszerstw i zwiększa ryzyko kampanii dezinformacyjnych, jak wskazała firma Microsoft.

Wnioski: Apel o czujność technologiczną

To badanie dobitnie ilustruje podatność ludzi na oszustwa ze strony sztucznej inteligencji. Przypomina nam ono o pilnej potrzebie udoskonalenia przez firmy technologiczne swoich narzędzi i metodologii w celu przeciwdziałania złośliwemu rozpowszechnianiu wprowadzających w błąd obrazów.

Źródło: ArXiv | Zdjęcie via Depositphotos.com

Źródło i obrazy

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *