
Wraz ze wzrostem uzależnienia od narzędzi AI, wielu użytkowników korzysta z tych platform, szukając różnego rodzaju wsparcia, w tym porad medycznych, wsparcia osobistego i profesjonalnego doradztwa. Ten trend przekształcił chatboty oparte na AI w wirtualnych asystentów osobistych, na których wiele osób polega w codziennych wyzwaniach. Jednak to rosnące uzależnienie budzi obawy o nadmierne uzależnienie, szczególnie w odniesieniu do poufności i bezpieczeństwa wrażliwych informacji udostępnianych tym platformom. Niedawno Sam Altman, dyrektor generalny OpenAI, zaapelował do użytkowników o ostrożność w korzystaniu ze sztucznej inteligencji w sprawach osobistych, ostrzegając przed ujawnianiem głęboko osobistych informacji bez odpowiednich zabezpieczeń.
Sam Altman ostrzega: ChatGPT nie zapewnia poufności w relacjach terapeuta-klient
Technologie sztucznej inteligencji (AI) dynamicznie się rozwijają, oferując zwiększoną inteligencję emocjonalną i możliwości prowadzenia rozmów. W związku z tym coraz więcej osób korzysta z chatbotów w celu uzyskania wsparcia terapeutycznego lub emocjonalnego. W przeciwieństwie do konwencjonalnej terapii, która priorytetowo traktuje poufność pacjenta, AI nie ma ram prawnych zapewniających ochronę wrażliwych rozmów. Kwestia ta została poruszona przez Sama Altmana podczas jego niedawnego występu w podcaście „This Past Weekend” z Theo Vanem, o którym donosił serwis TechCrunch. Ostrzegł on przed szukaniem wsparcia emocjonalnego w narzędziach AI w przypadku poważnych problemów osobistych.
Podczas dyskusji Altman zwrócił uwagę na rosnącą wrażliwość emocjonalną narzędzi AI, co może stwarzać iluzję prywatności u użytkowników. Zdecydowanie odradzał jednak poleganie na AI w zakresie wsparcia terapeutycznego. Podstawowa różnica między AI a profesjonalną opieką psychiatryczną leży w strukturalnych zabezpieczeniach prawnych tej drugiej. Do czasu ustanowienia odpowiednich przepisów, Altman wezwał użytkowników do postrzegania narzędzi AI jako uzupełniających, a nie zastępujących tradycyjną terapię. Wyraził swoje obawy dotyczące konsekwencji traktowania AI jako powiernika, stwierdzając:
Ludzie rozmawiają o najbardziej osobistych sprawach w swoim życiu z ChatGPT. Korzystają z niego – zwłaszcza młodzi – jako terapeuci i coachowie; mają problemy w związkach i pytają: „Co powinienem zrobić?”.A teraz, jeśli rozmawiasz o tych problemach z terapeutą, prawnikiem lub lekarzem, istnieje na to prawny przywilej. Istnieje poufność między pacjentem a lekarzem, poufność prawna, cokolwiek. A tego jeszcze nie rozgryźliśmy, jeśli chodzi o ChatGPT.
Biorąc pod uwagę brak prawnej poufności w interakcjach ze sztuczną inteligencją, Altman apeluje o ostrożne korzystanie z tych narzędzi, szczególnie w sytuacjach wrażliwych. Na przykład, gdyby ktoś stanął przed sądem, OpenAI mogłoby zostać zmuszone do ujawnienia rozmów, co skutkowałoby utratą prywatności. Altman wyraził chęć, aby sztuczna inteligencja w przyszłości uzyskała podobną ochronę prywatności, ubolewał jednak nad szybkim postępem technologicznym, który wyprzedził ustanowienie niezbędnych ram prawnych.
Dodaj komentarz