Sam Altman ostrzega: ChatGPT nie jest terapeutą – Twoje poufne rozmowy mogą zostać wykorzystane przeciwko Tobie w sądzie bez prawnych zabezpieczeń

Sam Altman ostrzega: ChatGPT nie jest terapeutą – Twoje poufne rozmowy mogą zostać wykorzystane przeciwko Tobie w sądzie bez prawnych zabezpieczeń

Wraz ze wzrostem uzależnienia od narzędzi AI, wielu użytkowników korzysta z tych platform, szukając różnego rodzaju wsparcia, w tym porad medycznych, wsparcia osobistego i profesjonalnego doradztwa. Ten trend przekształcił chatboty oparte na AI w wirtualnych asystentów osobistych, na których wiele osób polega w codziennych wyzwaniach. Jednak to rosnące uzależnienie budzi obawy o nadmierne uzależnienie, szczególnie w odniesieniu do poufności i bezpieczeństwa wrażliwych informacji udostępnianych tym platformom. Niedawno Sam Altman, dyrektor generalny OpenAI, zaapelował do użytkowników o ostrożność w korzystaniu ze sztucznej inteligencji w sprawach osobistych, ostrzegając przed ujawnianiem głęboko osobistych informacji bez odpowiednich zabezpieczeń.

Sam Altman ostrzega: ChatGPT nie zapewnia poufności w relacjach terapeuta-klient

Technologie sztucznej inteligencji (AI) dynamicznie się rozwijają, oferując zwiększoną inteligencję emocjonalną i możliwości prowadzenia rozmów. W związku z tym coraz więcej osób korzysta z chatbotów w celu uzyskania wsparcia terapeutycznego lub emocjonalnego. W przeciwieństwie do konwencjonalnej terapii, która priorytetowo traktuje poufność pacjenta, AI nie ma ram prawnych zapewniających ochronę wrażliwych rozmów. Kwestia ta została poruszona przez Sama Altmana podczas jego niedawnego występu w podcaście „This Past Weekend” z Theo Vanem, o którym donosił serwis TechCrunch. Ostrzegł on przed szukaniem wsparcia emocjonalnego w narzędziach AI w przypadku poważnych problemów osobistych.

Podczas dyskusji Altman zwrócił uwagę na rosnącą wrażliwość emocjonalną narzędzi AI, co może stwarzać iluzję prywatności u użytkowników. Zdecydowanie odradzał jednak poleganie na AI w zakresie wsparcia terapeutycznego. Podstawowa różnica między AI a profesjonalną opieką psychiatryczną leży w strukturalnych zabezpieczeniach prawnych tej drugiej. Do czasu ustanowienia odpowiednich przepisów, Altman wezwał użytkowników do postrzegania narzędzi AI jako uzupełniających, a nie zastępujących tradycyjną terapię. Wyraził swoje obawy dotyczące konsekwencji traktowania AI jako powiernika, stwierdzając:

Ludzie rozmawiają o najbardziej osobistych sprawach w swoim życiu z ChatGPT. Korzystają z niego – zwłaszcza młodzi – jako terapeuci i coachowie; mają problemy w związkach i pytają: „Co powinienem zrobić?”.A teraz, jeśli rozmawiasz o tych problemach z terapeutą, prawnikiem lub lekarzem, istnieje na to prawny przywilej. Istnieje poufność między pacjentem a lekarzem, poufność prawna, cokolwiek. A tego jeszcze nie rozgryźliśmy, jeśli chodzi o ChatGPT.

Biorąc pod uwagę brak prawnej poufności w interakcjach ze sztuczną inteligencją, Altman apeluje o ostrożne korzystanie z tych narzędzi, szczególnie w sytuacjach wrażliwych. Na przykład, gdyby ktoś stanął przed sądem, OpenAI mogłoby zostać zmuszone do ujawnienia rozmów, co skutkowałoby utratą prywatności. Altman wyraził chęć, aby sztuczna inteligencja w przyszłości uzyskała podobną ochronę prywatności, ubolewał jednak nad szybkim postępem technologicznym, który wyprzedził ustanowienie niezbędnych ram prawnych.

Źródło i obrazy

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *