Sztuczna inteligencja a pułapka nadmiernych uogólnień w medycynie

dentonet.pl 3 dni temu
Zdjęcie: Sztuczna inteligencja a pułapka nadmiernych uogólnień w medycynie


W medycynie precyzja języka jest równie ważna jak precyzja diagnozy. Od badaczy oczekuje się, by nigdy nie mówili więcej, niż pozwalają dane. Jednak w praktyce naukowej i klinicznej coraz częściej dochodzi do nadmiernych uogólnień – złożone wyniki badań są upraszczane do zwięzłych, ale zbyt szerokich stwierdzeń. Najnowsze badania pokazują, iż sztuczna inteligencja (AI) może ten problem nie tylko powielać, ale wręcz nasilać – przestrzegają na łamach portalu TheConversation.com dr Benjamin Chin-Yee, hematolog, adiunkt na Western University w Kanadzie oraz dr Uwe Peters, filozof, wykładowca Utrecht University

Typowy raport z badania klinicznego pełen jest zastrzeżeń i kwalifikacji. Autorzy starannie określają populację, skalę efektu i ograniczenia badania. Jednak w procesie komunikacji naukowej – a zwłaszcza medialnej – te pełne niuansów wnioski często zostają uproszczone.

Takie uogólnienia – zwane przez filozofów „generics” – brzmią przekonująco, ale pomijają najważniejsze pytania: dla kogo, w jakich warunkach i w jakim stopniu? Zespół badaczy przeanalizował ponad 500 publikacji z czołowych czasopism medycznych. Ponad połowa zawierała uogólnienia wykraczające poza populację badaną, a w ponad 80% przypadków były to właśnie „generics”. Mniej niż 10% autorów próbowało uzasadnić swoje szerokie twierdzenia.

AI jeszcze bardziej upraszcza naukę

W najnowszym projekcie badacze sprawdzili 10 dużych modeli językowych – w tym ChatGPT, DeepSeek, LLaMA i Claude – pod kątem ich umiejętności streszczania artykułów medycznych. Wyniki okazały się niepokojące: choćby przy wyraźnym poleceniu zachowania dokładności modele często usuwały zastrzeżenia, upraszczały kontekst i przedstawiały dane w formie nadmiernych uogólnień.

Analiza blisko 5000 streszczeń wygenerowanych przez AI ujawniła, iż w niektórych przypadkach aż 73% podsumowań zawierało zbyt szerokie wnioski. Modele zmieniały np. sformułowanie „leczenie było skuteczne w tym badaniu” na „leczenie jest skuteczne” – to pozornie drobna, ale istotna różnica, która może prowadzić do błędnej interpretacji.

Co więcej, chatboty były pięciokrotnie bardziej skłonne do uogólnień niż ludzie. Nowsze wersje modeli – w tym ChatGPT-4o i DeepSeek – wykazywały jeszcze większą skłonność do takich uproszczeń.

Powód? Modele uczą się na tekstach, w których ludzkie uprzedzenia i nadmierne skróty myślowe już istnieją. Dodatkowo, użytkownicy często preferują zwięzłe i pewne odpowiedzi, co sprawia, iż algorytmy zaczynają faworyzować właśnie taki styl komunikacji.

Precyzja języka to podstawa medycyny opartej na faktach

Ponieważ coraz więcej naukowców i klinicystów korzysta z AI do streszczania literatury, ryzyko błędnej interpretacji danych rośnie. W globalnym badaniu obejmującym 5000 badaczy niemal połowa przyznała, iż już używa narzędzi AI w pracy naukowej, a 58% uważa, iż robią to lepiej niż ludzie. Wyniki omawianego badania jednak podważają ten optymizm.

Autorzy zalecają wprowadzenie bardziej rygorystycznych wytycznych dotyczących sposobu raportowania danych i formułowania wniosków, a także świadome korzystanie z modeli, które generują bardziej ostrożne streszczenia (np. Claude).

Twórcy AI powinni z kolei wdrażać rozwiązania promujące ostrożniejszy język w podsumowaniach naukowych. Dopiero wtedy możliwe będzie utrzymanie standardów precyzji, które są fundamentem medycyny opartej na faktach.

Wniosek? Zarówno ludzie, jak i maszyny mają tendencję do mówienia więcej, niż pozwalają dane. W medycynie taka nadmierna pewność może kosztować pacjentów zdrowie. Dlatego obowiązkiem naukowców i użytkowników AI jest dbałość o język, który nie tylko informuje – ale też chroni przed błędnym rozumieniem dowodów.

Jakie mogą być zastosowania sztucznej inteligencji w radiologii stomatologicznej? – W tej chwili sztuczna inteligencja pozwala na przeprowadzenie segmentacji, superimpozycji, badań przed i po terapii, a także przewidywanie wyników, jakie możemy uzyskać po leczeniu ortodontycznym czy chirurgicznym – mówi dr hab. n. med. Piotr Regulski, prodziekan Wydziału Lekarsko-Stomatologicznego WUM, pracownik Zakładu Radiologii Stomatologicznej i Szczękowo-Twarzowej oraz kierownik Pracowni Obrazowania Cyfrowego i Wirtualnej Rzeczywistości WUM, autor ponad 50 artykułów naukowych i wystąpień zjazdowych, który w swojej pracy naukowo-badawczej zajmuje się m.in. algorytmami sztucznej inteligencji i metodami przetwarzania obrazów medycznych.

Źródło: https://theconversation.com

Idź do oryginalnego materiału