W zeszłym tygodniu w Internecie pojawiły się fałszywe zdjęcia piosenkarki Taylor Swift, co wywołało kolejną dyskusję na temat niewłaściwego wykorzystania sztucznej inteligencji i zmusiło X (dawniej Twitter) do zablokowania wyszukiwania Taylor Swift na platformie .
Teraz media 404 donoszą , że Microsoft wprowadził zmiany w sztucznej inteligencji projektanta, która rzekomo była wykorzystywana przez kanał Telegram do generowania wyraźnych obrazów. Według dochodzenia przeprowadzonego przez 404 media , fałszywe zdjęcia celebryty powiązano z oprogramowaniem Designer AI firmy Microsoft, a kanały Telegram i 4chan zalecały użytkownikom korzystanie z narzędzia Designer AI.
Grupa Telegram zaleca członkom korzystanie z generatora obrazów sztucznej inteligencji firmy Microsoft o nazwie Designer, a użytkownicy często udostępniają podpowiedzi, aby pomóc innym obejść zabezpieczenia wprowadzone przez firmę Microsoft. Wątek 4chan, w którym pojawiły się te obrazy, zawierał także instrukcje dotyczące tego, jak zmusić projektanta Microsoftu do tworzenia wyraźnych obrazów.
Chociaż firma Microsoft wprowadziła blokady uniemożliwiające użytkownikom generowanie wulgarnych obrazów, użytkownicy obeszli ten problem, błędnie pisząc imiona i nazwiska lub opisując czynności seksualne, zamiast używać imion bezpośrednio w monicie.
Testy przeprowadzone przez 404 Media wykazały, że Designer nie wygeneruje obrazu „Jennifer Aniston”, ale udało nam się wygenerować sugestywne obrazy aktorki, używając wyrażenia „Jennifer „aktor” Aniston”. Zanim zdjęcia Swift AI stały się popularne na Twitterze, użytkownik z grupy Telegram zalecił członkom używanie wyrażenia „Taylor „piosenkarka” Swift” do generowania obrazów.
W oświadczeniu dla 404 media Microsoft oświadczył, że nie znalazł dowodów na to, że do tworzenia wizerunków Taylor Swift wykorzystano sztuczną inteligencję projektanta. Rzecznik zauważył ponadto:
Nasz Kodeks postępowania zabrania używania naszych narzędzi do tworzenia treści intymnych dla dorosłych lub bez zgody, a wszelkie powtarzające się próby tworzenia treści sprzecznych z naszymi zasadami mogą skutkować utratą dostępu do usługi. Mamy duże zespoły pracujące nad rozwojem poręczy i innych systemów bezpieczeństwa zgodnie z naszymi zasadami odpowiedzialnej sztucznej inteligencji, w tym filtrowaniem treści, monitorowaniem operacyjnym i wykrywaniem nadużyć, aby ograniczyć niewłaściwe użycie systemu i pomóc stworzyć bezpieczniejsze środowisko dla użytkowników.
Chociaż Microsoft nie wydał jeszcze publicznego oświadczenia, dyrektor generalny Satya Nadella odniósł się do tego tematu w wywiadzie dla wiadomości NBC .
„Tak, musimy działać” – powiedziała Nadella w odpowiedzi na pytanie dotyczące deepfakes Swifta. „Myślę, że wszyscy na tym skorzystamy, gdy świat online stanie się bezpiecznym światem. Dlatego nie sądzę, że ktokolwiek chciałby świata online, który jest całkowicie niebezpieczny zarówno dla twórców treści, jak i konsumentów treści. Dlatego uważam, że powinniśmy działać szybko w tej sprawie.”
Media 404 zauważyły, że po opublikowaniu swojego dochodzenia Microsoft najwyraźniej załatał lukę i korzystanie z tych samych podpowiedzi lub etapów w celu obejścia bloku słów kluczowych nie działa już w programie Designer AI. Wspomnieli jednak również, że Telegram nadal nie podjął żadnych działań, a przedmiotowe kanały są aktywne i szukają sposobów wykorzystania innych usług sztucznej inteligencji do generowania fałszywych, wyraźnych zdjęć celebrytów. Co więcej, użytkownicy 4chan wspomnieli, że znaleźli inne sposoby na obejście zakazu Bing i Designer.
Wiadomość ta pojawia się w złym momencie dla Microsoftu, ponieważ Federalna Komisja Handlu (FTC) właśnie ogłosiła, że wszczęła dochodzenie w sprawie Microsoftu w związku z jego inwestycjami w firmy zajmujące się generatywną sztuczną inteligencją. W innym raporcie z początku tego miesiąca stwierdzono, że FTC i Departament Sprawiedliwości (DOJ) badają relacje Microsoftu z OpenAI .
Dodaj komentarz