
Każdy z nas to robił: dziwny ból w boku, niejasny wynik badań i szybkie pytanie do wujka Google: „czy to rak?”.
Gigant z Mountain View chciał nam ułatwić życie, serwując gotowe podsumowania generowane przez AI na samej górze wyników. Okazuje się jednak, iż był to pomysł fatalny w skutkach. Google po cichu wycofuje się z medycznych „AI Overviews” po tym, jak ujawniono, iż algorytm udzielał porad zagrażających życiu.
Sprawa nabrała rozgłosu po śledztwie dziennikarzy The Guardian i organizacji British Liver Trust. Okazało się, iż sztuczna inteligencja Google, mająca streszczać wiedzę medyczną, traktowała skomplikowane dane kliniczne z subtelnością cepa.
Pomóż nam rozwijać iMagazine – ruszyło badanie czytelnictwa 2026
Kontekst to klucz (którego AI nie ma)
Najbardziej jaskrawym przykładem były pytania o normy badań wątrobowych. Gdy użytkownik wpisywał wyniki krwi, AI serwowało mu „prawidłowe zakresy” w formie prostej listy. Problem w tym, iż w medycynie „norma” jest pojęciem płynnym.
Algorytm kompletnie ignorował czynniki takie jak płeć, wiek, pochodzenie etniczne czy historia chorób. Podawał te same widełki dla 20-letniego studenta i 60-letniej kobiety. W efekcie pacjent z początkowym stadium choroby wątroby mógł otrzymać informację, iż jego wyniki są „w normie”, co potencjalnie skłaniało do zbagatelizowania problemu i rezygnacji z wizyty u lekarza. AI nie rozumiało, iż liczba bezpieczna dla jednej grupy, dla innej jest sygnałem alarmowym.
Zabawa w kotka i myszkę
Google zareagowało typowo dla korporacji: usunęło odpowiedzi na oflagowane, konkretne zapytania. Tyle iż to walka z wiatrakami. Organizacje zdrowotne gwałtownie zauważyły, iż wystarczy lekko przeformułować pytanie (zmienić szyk zdania, użyć synonimu), by AI znów wypluło te same, błędne dane. To pokazuje fundamentalny problem modeli językowych (LLM) – one nie rozumują, one tylko przewidują kolejne słowo, nie mając pojęcia o wadze tematu.
Pułapka autorytetu
Dlaczego to tak niebezpieczne? Bo AI Overviews wyświetlają się na samej górze, w kolorowej ramce, spychając linki do rzetelnych źródeł (szpitali, klinik, pism medycznych) na dół strony. Lata korzystania z internetu nauczyły nas ufać pierwszemu wynikowi.
Google dostało bolesną nauczkę: AI świetnie nadaje się do streszczenia e-maila czy zaplanowania wycieczki, ale w medycynie wciąż jest niebezpiecznym dyletantem. Dopóki modele nie nauczą się kontekstu (lub Google nie nałoży sztywnych kagańców), bezpieczniej jest przewinąć stronę w dół i kliknąć w link, za którym stoi człowiek z dyplomem medycznym, a nie statystyka. To jednak nie znaczy, iż AI jest nieprzydatne medycynie, wręcz przeciwnie, przeczytajcie.
Sztuczna inteligencja, która leczy? Jak model od Google DeepMind i Yale wskazał nowy kierunek w walce z rakiem
Jeśli artykuł „Dr Google” traci dyplom. AI usuwane z wyników medycznych po serii groźnych błędów nie wygląda prawidłowo w Twoim czytniku RSS, to zobacz go na iMagazine.













![Gotowa jest już mozaika z wizerunkiem Leona XIV [+GALERIA]](https://misyjne.pl/wp-content/uploads/2026/01/2026.01.14-Clipeo-in-mosaico-per-la-Basilica-di-San-Paolo-10.jpeg)

