AI myślała, iż ​​prześwietlenie kolana pokaże, czy pijesz piwo – tak nie jest

prawica.net 3 dni temu

Sztuczna inteligencja może być przydatnym narzędziem dla pracowników służby zdrowia i badaczy, jeżeli chodzi o interpretację obrazów diagnostycznych. Tam, gdzie radiolog może zidentyfikować złamania i inne nieprawidłowości na podstawie zdjęcia rentgenowskiego, modele AI mogą dostrzec wzorce, których ludzie nie są w stanie dostrzec, co daje możliwość zwiększenia efektywności obrazowania medycznego.

Jednak badanie opublikowane w Scientific Reports podkreśla ukryte wyzwanie, jakim jest wykorzystanie sztucznej inteligencji w badaniach obrazowania medycznego – zjawisko uzyskiwania bardzo dokładnych, ale potencjalnie mylących wyników, zwane „uczeniem się na skróty”.

Naukowcy przeanalizowali ponad 25 000 zdjęć rentgenowskich kolan wykonanych w ramach inicjatywy na rzecz choroby zwyrodnieniowej stawów finansowanej przez Narodowy Instytut Zdrowia i odkryli, iż modele sztucznej inteligencji mogą „przewidywać” niepowiązane i nieprawdopodobne cechy, takie jak to, czy pacjenci powstrzymywali się od spożywania smażonej fasoli lub piwa. Chociaż przewidywania te nie mają podstaw medycznych, modele osiągnęły zaskakujący poziom dokładności dzięki wykorzystaniu subtelnych i niezamierzonych wzorców w danych.

„Chociaż sztuczna inteligencja może zmienić obrazowanie medyczne, musimy zachować ostrożność” – mówi główny autor badania, dr Peter Schilling, chirurg ortopeda w Dartmouth Hitchcock Medical Center w Dartmouth Health i adiunkt ortopedii w Geisel School of Medicine w Dartmouth .

„Te modele potrafią dostrzec wzorce, których człowiek nie jest w stanie dostrzec, ale nie wszystkie zidentyfikowane przez nie wzorce są znaczące i wiarygodne” – mówi Schilling. „Ważne jest rozpoznanie tych zagrożeń, aby zapobiec wprowadzającym w błąd wnioskom i zapewnić rzetelność naukową”.

Naukowcy sprawdzili, w jaki sposób algorytmy sztucznej inteligencji często opierają się na zmiennych zakłócających – takich jak różnice w sprzęcie rentgenowskim lub markerach miejsca klinicznego – w celu przewidywania, a nie cech istotnych z medycznego punktu widzenia. Próby wyeliminowania tych błędów zakończyły się jedynie marginalnym sukcesem – modele sztucznej inteligencji po prostu „uczyły się” innych ukrytych wzorców danych.

„To wykracza poza uprzedzenia wynikające ze wskazówek dotyczących rasy lub płci” – mówi Brandon Hill, współautor badania i naukowiec zajmujący się uczeniem maszynowym w Dartmouth Hitchcock. „Odkryliśmy, iż algorytm może choćby nauczyć się przewidywać rok wykonania zdjęcia rentgenowskiego. Jest to szkodliwe — jeżeli uniemożliwisz mu nauczenie się jednego z tych elementów, zamiast tego nauczy się innego, wcześniej ignorowanego. To niebezpieczeństwo może prowadzić do naprawdę poważnych problemów. podejrzane twierdzenia, a badacze muszą zdawać sobie sprawę, jak łatwo do tego dochodzi podczas stosowania tej techniki”.

Odkrycia podkreślają potrzebę rygorystycznych standardów oceny w badaniach medycznych opartych na sztucznej inteligencji. Nadmierne poleganie na standardowych algorytmach bez głębszej analizy może prowadzić do błędnych wniosków klinicznych i ścieżek leczenia.

„Ciężar dowodu znacznie wzrasta, jeżeli chodzi o wykorzystanie modeli do odkrywania nowych wzorców w medycynie” – mówi Hill. „Częścią problemu jest nasze uprzedzenie. Niewiarygodnie łatwo wpaść w pułapkę zakładania, iż ​​model „widzi” tak samo jak my. W ostatecznym rozrachunku tak nie jest”.

„Sztuczna inteligencja przypomina prawie walkę z obcą inteligencją” – kontynuuje Hill. „Chce się powiedzieć, iż model „oszukuje”, ale to antropomorfizuje technologię. Nauczył się sposobu rozwiązywania powierzonego mu zadania, ale niekoniecznie w sposób, w jaki zrobiłby to dana osoba. Nie ma w nim logiki ani rozumowania, jak zwykle rozumiemy To.”

Schilling, Hill i współautorka badania Frances Koback, studentka trzeciego roku medycyny w szkole Geisel w Dartmouth, przeprowadzili badanie we współpracy z Veterans Affairs Medical Center w White River Junction, Vt.

Idź do oryginalnego materiału