Sztuczna inteligencja popełnia błędy w diagnozach onkologicznych

fundacjabaner
Wiktoria Saleta, Redaktor naczelnyW Onkopedii dbam o to, by każdy pacjent onkologiczny i jego bliscy mogli znaleźć jasne, sprawdzone informacje i poczucie zrozumienia. Współpracuję z lekarzami, ekspertami i osobami, które przeszły chorobę – bo ich doświadczenie jest dla mnie największą inspiracją.
Wiktoria Saleta, Redaktor naczelny
W Onkopedii dbam o to, by każdy pacjent onkologiczny i jego bliscy mogli znaleźć jasne, sprawdzone informacje i poczucie zrozumienia. Współpracuję z lekarzami, ekspertami i osobami, które przeszły chorobę – bo ich doświadczenie jest dla mnie największą inspiracją.
Opublikowno: 20 października 2025   Zmodyfikowano: 9 grudnia 2025
rak prostaty 5

Badania włoskich naukowców wykazały, że chatboty AI popełniają błędy w około 70% przypadków medycznych. Do najpoważniejszych pomyłek należą błędne diagnozy dotyczące raka skóry i nowotworu piersi.

Włoskie badanie nad AI w medycynie

Naukowcy z Instytutu Klinicznego i Uniwersytetu Humanitas w Rozzano, pod kierunkiem Vincenzo Guastafierro, przeanalizowali odpowiedzi dostarczone przez ChatGPT w 200 przypadkach klinicznych. Projekt badawczy, rozpoczęty w 2023 roku, objął różne specjalizacje lekarskie, a każdy przypadek został opracowany we współpracy ze specjalistami.

Wyniki, opublikowane w „European Journal of Pathology”, wykazały, że błędne odpowiedzi stwierdzono w ok. 70% przypadków. Tylko 32% odpowiedzi było całkowicie wolnych od błędów, podczas gdy 62% uznano za częściowo przydatne.

Poważne błędy diagnostyczne

Wśród najpoważniejszych wykrytych błędów znalazła się niewłaściwa diagnoza dotycząca raka skóry. Sztuczna inteligencja pomyliła również dwa różne rodzaje nowotworu piersi, co w realnych warunkach mogłoby mieć poważne konsekwencje dla pacjentów.

Dodatkowym problemem podważającym wiarygodność narzędzia było cytowanie nieistniejących źródeł medycznych. W 30% przypadków odwołania do literatury naukowej były niedokładne lub całkowicie wymyślone przez chatbota.

AI jako wsparcie, nie zastępstwo

Jak podkreślił Vincenzo Guastafierro, rezultaty badań wskazują na konieczność zachowania dużej ostrożności przy wykorzystywaniu AI w medycynie. Wykryte pomyłki w diagnozie mogłyby prowadzić do poważnych konsekwencji zdrowotnych.

Według badaczy, „oko kliniczne lekarza pozostaje niezastąpione”. Sztuczna inteligencja musi być uważana za wsparcie w procesie diagnostycznym, ale nie za zamiennik kompetencji i doświadczenia człowieka.

Źródło: https://www.rmf24.pl/fakty/swiat/news-szokujace-bledy-tak-pomylila-sie-sztuczna-inteligencja,nId,8032789

Komentarze (0)