„Dr Google” traci dyplom. AI usuwane z wyników medycznych po serii groźnych błędów

imagazine.pl 2 godzin temu

Każdy z nas to robił: dziwny ból w boku, niejasny wynik badań i szybkie pytanie do wujka Google: „czy to rak?”.

Gigant z Mountain View chciał nam ułatwić życie, serwując gotowe podsumowania generowane przez AI na samej górze wyników. Okazuje się jednak, iż był to pomysł fatalny w skutkach. Google po cichu wycofuje się z medycznych „AI Overviews” po tym, jak ujawniono, iż algorytm udzielał porad zagrażających życiu.

Sprawa nabrała rozgłosu po śledztwie dziennikarzy The Guardian i organizacji British Liver Trust. Okazało się, iż sztuczna inteligencja Google, mająca streszczać wiedzę medyczną, traktowała skomplikowane dane kliniczne z subtelnością cepa.

Pomóż nam rozwijać iMagazine – ruszyło badanie czytelnictwa 2026

Kontekst to klucz (którego AI nie ma)

Najbardziej jaskrawym przykładem były pytania o normy badań wątrobowych. Gdy użytkownik wpisywał wyniki krwi, AI serwowało mu „prawidłowe zakresy” w formie prostej listy. Problem w tym, iż w medycynie „norma” jest pojęciem płynnym.

Algorytm kompletnie ignorował czynniki takie jak płeć, wiek, pochodzenie etniczne czy historia chorób. Podawał te same widełki dla 20-letniego studenta i 60-letniej kobiety. W efekcie pacjent z początkowym stadium choroby wątroby mógł otrzymać informację, iż jego wyniki są „w normie”, co potencjalnie skłaniało do zbagatelizowania problemu i rezygnacji z wizyty u lekarza. AI nie rozumiało, iż liczba bezpieczna dla jednej grupy, dla innej jest sygnałem alarmowym.

Zabawa w kotka i myszkę

Google zareagowało typowo dla korporacji: usunęło odpowiedzi na oflagowane, konkretne zapytania. Tyle iż to walka z wiatrakami. Organizacje zdrowotne gwałtownie zauważyły, iż wystarczy lekko przeformułować pytanie (zmienić szyk zdania, użyć synonimu), by AI znów wypluło te same, błędne dane. To pokazuje fundamentalny problem modeli językowych (LLM) – one nie rozumują, one tylko przewidują kolejne słowo, nie mając pojęcia o wadze tematu.

Pułapka autorytetu

Dlaczego to tak niebezpieczne? Bo AI Overviews wyświetlają się na samej górze, w kolorowej ramce, spychając linki do rzetelnych źródeł (szpitali, klinik, pism medycznych) na dół strony. Lata korzystania z internetu nauczyły nas ufać pierwszemu wynikowi.

Google dostało bolesną nauczkę: AI świetnie nadaje się do streszczenia e-maila czy zaplanowania wycieczki, ale w medycynie wciąż jest niebezpiecznym dyletantem. Dopóki modele nie nauczą się kontekstu (lub Google nie nałoży sztywnych kagańców), bezpieczniej jest przewinąć stronę w dół i kliknąć w link, za którym stoi człowiek z dyplomem medycznym, a nie statystyka. To jednak nie znaczy, iż AI jest nieprzydatne medycynie, wręcz przeciwnie, przeczytajcie.

Sztuczna inteligencja, która leczy? Jak model od Google DeepMind i Yale wskazał nowy kierunek w walce z rakiem

Jeśli artykuł „Dr Google” traci dyplom. AI usuwane z wyników medycznych po serii groźnych błędów nie wygląda prawidłowo w Twoim czytniku RSS, to zobacz go na iMagazine.

Idź do oryginalnego materiału