60-letni mężczyzna trafił do szpitala po zastosowaniu się do zaleceń dietetycznych ChatGPT, co doprowadziło do zatrucia

60-letni mężczyzna trafił do szpitala po zastosowaniu się do zaleceń dietetycznych ChatGPT, co doprowadziło do zatrucia

W miarę jak ChatGPT stale ewoluuje jako niezbędne narzędzie, wiele osób coraz częściej korzysta z niego nie tylko w przypadku rutynowych zadań, ale także w sprawach osobistych i delikatnych. Zdarzały się przypadki, w których to poleganie prowadziło do poważnych konsekwencji, takich jak rozpad małżeństw z powodu nieumyślnego ujawnienia niewierności za pośrednictwem sztucznej inteligencji. Co alarmujące, niektórzy użytkownicy szukali nawet wsparcia terapeutycznego u chatbota – przed czym wyraźnie ostrzegał Sam Altman. Niedawno niepokojący incydent ujawnił ryzyko związane z wykorzystywaniem sztucznej inteligencji do udzielania porad zdrowotnych. U 60-letniego mężczyzny z Nowego Jorku stwierdzono rzadką i niebezpieczną chorobę, ponieważ stosował się on do zaleceń dietetycznych dostarczanych przez ChatGPT.

Ukryte zagrożenia związane ze sztuczną inteligencją w poradach zdrowotnych: bromizm i zamiennik soli, który poszedł za daleko

Trwające dyskusje ostrzegają przed nadmiernym poleganiem na systemach sztucznej inteligencji (AI).Niedawno amerykańskie czasopismo medyczne opublikowało ostrzeżenie, w którym wyraźnie ostrzega przed zasięganiem porady lekarskiej w ChatGPT. Ostrzeżenie to pojawiło się po poważnym incydencie zdrowotnym mężczyzny, który zachorował po zastosowaniu się do zaleceń dietetycznych chatbota, o czym donosi NBC News. Szczegółowe studium przypadku opublikowane w „Annals of Internal Medicine” opisuje, jak u tego mężczyzny rozwinął się bromizm, forma zatrucia bromkiem, po zastosowaniu się do zaleceń AI.

Mężczyzna podjął błędną decyzję o zastąpieniu zwykłej soli kuchennej (chlorku sodu) bromkiem sodu, substancją chemiczną, którą odkrył w internecie. Po zwróceniu się do ChatGPT z prośbą o alternatywę dla soli, doszedł do wniosku, że bromek sodu jest zdrowszym wyborem. Przez trzy miesiące spożywał tę toksyczną substancję codziennie, co ostatecznie doprowadziło do poważnych powikłań zdrowotnych, takich jak paranoja, bezsenność i psychoza. W pewnym momencie uwierzył nawet, że sąsiad próbuje go otruć.

Po hospitalizacji personel medyczny zdiagnozował u niego bromizm, schorzenie wynikające z nadmiernej ekspozycji na bromek. Na szczęście, po zaprzestaniu przyjmowania bromku i zastosowaniu odpowiedniego leczenia, stan pacjenta zaczął się poprawiać. Chociaż przypadki bromizmu są dziś rzadkie ze względu na rzadkie stosowanie soli bromkowych, incydent ten podkreśla potencjalne zagrożenia związane z nabywaniem substancji online bez odpowiednich regulacji.

Doświadczenie tego mężczyzny stanowi kluczowe przypomnienie o tym, jak ważne jest zachowanie ostrożności podczas korzystania ze sztucznej inteligencji w kontekście zdrowia. Naukowcy zbadali, czy ChatGPT prawidłowo identyfikuje bromek jako substytut soli i potwierdzili, że robi to bez żadnych ostrzeżeń o potencjalnej toksyczności bromku. Ten brak ostrożności jest szczególnie niepokojący, biorąc pod uwagę, że sztuczna inteligencja nie jest w stanie dorównać wiedzy i odpowiedzialności ludzkich pracowników służby zdrowia.

W świetle tych zdarzeń oczywiste jest, że modele sztucznej inteligencji muszą zostać wyposażone w solidniejsze środki bezpieczeństwa, zwłaszcza w odniesieniu do wrażliwych kwestii zdrowotnych. W obecnych czasach, charakteryzujących się mnogością narzędzi sztucznej inteligencji, niezwykle ważne jest, aby ciekawość równoważyć ostrożnością, a poleganie na sztucznej inteligencji nigdy nie górowało nad profesjonalną poradą medyczną.

Źródło i obrazy

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *