
Szybka integracja sztucznej inteligencji w różnych sektorach doprowadziła do znaczącego przesunięcia w kierunku efektywności i zarządzania czasem. Szczególnie w opiece zdrowotnej narzędzia sztucznej inteligencji stają się wszechobecne w usprawnianiu procesów. Jednym z takich innowacyjnych rozwiązań jest Elsa, generatywna sztuczna inteligencja opracowana przez FDA, mająca na celu usprawnienie procesów związanych z zatwierdzaniem leków i wyrobów medycznych. Jednak ostatnie opinie sugerują, że system ten nie spełnia oczekiwań, ponieważ liczne relacje zarówno byłych, jak i obecnych pracowników FDA wskazują na problemy z niezawodnością Elsy, w szczególności na przypadki halucynacji i przeinaczania rzetelnych badań.
Czy problemem w przypadku sztucznej inteligencji Elsa AI FDA jest nadzór człowieka, a nie technologia?
Wdrażanie generatywnej sztucznej inteligencji w opiece zdrowotnej i procesach regulacyjnych odzwierciedla szerszą ewolucję technologiczną zachodzącą na całym świecie. Początkowo zaprojektowana w celu przyspieszenia procesu zatwierdzania leków i wyrobów medycznych poprzez redukcję biurokratycznych barier i obciążeń administracyjnych, Elsa została ogłoszona znaczącym postępem. Niestety, raporty wskazują na wyraźny kontrast między oczekiwanymi korzyściami a obecną sytuacją, a także na rosnące obawy dotyczące dokładności narzędzia i potencjalnego wpływu ludzkiego nadzoru na zaostrzenie tych problemów.
Pomimo teoretycznych zalet szybkiej oceny w przypadku terapii ratujących życie, osoby z FDA podniosły alarm w sprawie zdolności generatywnej sztucznej inteligencji do generowania błędnych wyników. Według doniesień CNN, wielu pracowników zgłosiło się, powołując się na alarmujące przypadki, w których Elsa generowała nieprawdziwe podsumowania, a nawet fałszowała badania kliniczne, powołując się na nieistniejące badania. Takie nieścisłości są szczególnie niepokojące, biorąc pod uwagę zamierzony cel narzędzia, jakim jest zwiększenie wydajności – te ustalenia mogą prowadzić do niebezpiecznych przeoczeń w kluczowych decyzjach dotyczących opieki zdrowotnej.
W odpowiedzi na obawy związane z Elsą, kierownictwo FDA wykazało brak pośpiechu. Podkreślono, że udział personelu w korzystaniu z narzędzia nie jest obowiązkowy, a szkolenia z Elsy pozostają opcjonalne. Takie podejście rodzi kolejne pytania dotyczące braku ustrukturyzowanego nadzoru lub wytycznych zapewniających efektywne i bezpieczne wykorzystanie sztucznej inteligencji w całej agencji.
Choć awarie systemów AI nie są rzadkością, szczególnie podczas aktualizacji lub modyfikacji, w opiece zdrowotnej stawka jest znacznie wyższa. Prawdziwym wyzwaniem są nie tylko awarie techniczne, ale także wdrożenie AI bez odpowiedniego nadzoru ze strony człowieka w sytuacjach, w których dokładność ma kluczowe znaczenie. W środowisku, w którym drobne błędy mogą prowadzić do katastrofalnych skutków, niezbędne są solidne mechanizmy nadzoru.
Dodaj komentarz