AI zamiast psychiatry? Eksperci biją na alarm. To może skończyć się tragedią

warszawawpigulce.pl 2 godzin temu

Coraz więcej osób w chwilach kryzysu psychicznego sięga nie po pomoc lekarza, ale po aplikacje i czaty oparte na sztucznej inteligencji. Obiecują wsparcie, terapię i wirtualne relacje, ale eksperci ostrzegają – zamiast pomóc, mogą pogłębić problem i doprowadzić do niebezpiecznych konsekwencji.

Fot. Warszawa w Pigułce

Groźny trend w sieci: Polacy coraz częściej powierzają swoje emocje sztucznej inteligencji

W internecie pojawia się coraz więcej aplikacji i programów, które obiecują pomoc w trudnych chwilach, wsparcie psychiczne, a choćby „terapię”. Twórcy reklamują je jako szybkie i łatwo dostępne rozwiązanie dla osób zmagających się z samotnością, problemami emocjonalnymi czy nałogami. Jednak psychiatrzy i psychologowie ostrzegają – sztuczna inteligencja nie zastąpi specjalisty, a zbyt duże zaufanie do technologii może prowadzić do poważnych zagrożeń.

Aplikacje jako „terapia” bez kontroli

Profesor Maciej Pilecki z Katedry Psychiatrii Uniwersytetu Jagiellońskiego w rozmowie z RMF FM podkreśla, iż diabeł tkwi w szczegółach. – Nikt nie napisze wprost, iż będzie leczyć, bo leczenie jest zarezerwowane dla lekarzy. Ale słowa „terapia” czy „psychoterapia” może użyć każdy – zauważa ekspert.

W praktyce oznacza to, iż użytkownik, który ściąga na telefon aplikację opisaną jako „psychoterapia poznawczo-behawioralna” czy „program wsparcia emocjonalnego”, nie ma pewności, iż narzędzie zostało przebadane i faktycznie działa. Co gorsza, brak diagnozy i kontaktu z żywym terapeutą sprawia, iż aplikacja nie dostosuje się do indywidualnych potrzeb pacjenta.

Profesor podaje przykład osób uzależnionych, które liczą dni abstynencji dzięki aplikacji. Dopóki „licznik” działa, system może działać motywująco. Jednak gdy dojdzie do przerwania abstynencji, pacjent zostaje sam – z wyzerowanym licznikiem i poczuciem porażki, bez realnego wsparcia terapeutycznego.

Wirtualni przyjaciele i sztuczne relacje

Kolejnym niepokojącym zjawiskiem są rozmowy ze sztuczną inteligencją, które dla części osób zaczynają zastępować realne relacje. Dostępne programy pozwalają „stworzyć” wirtualnego przyjaciela, partnera, a choćby relację romantyczną czy seksualną – wraz ze zdjęciami, filmami i korespondencją.

– Powstaje nowy obszar, dostępny również dla nastolatków, o którym wciąż wiemy bardzo kilka – ostrzega prof. Pilecki.

Choć kontakt z AI może chwilowo łagodzić samotność, nie rozwija zdolności społecznych tak jak prawdziwe relacje. Co więcej, wirtualny „partner” może być zaprojektowany jako osoba władcza, obrażająca lub utrzymująca toksyczną relację. To ryzyko jest szczególnie groźne w przypadku osób młodych, które dopiero uczą się budowania więzi.

AI zamiast psychiatry? Iluzja bezpieczeństwa

Najpoważniejsze zagrożenie pojawia się wtedy, gdy osoby w kryzysie sięgają po czaty AI zamiast zgłosić się do psychiatry. W sytuacjach granicznych – depresji, myśli samobójczych czy uzależnienia – sztuczna inteligencja nie tylko nie pomoże, ale może zaszkodzić.

– Maszyny udają empatię, ale w rzeczywistości wykonują jedynie matematyczne obliczenia – przypomina profesor. Modele językowe wielokrotnie „halucynowały”, czyli tworzyły błędne odpowiedzi, czasem rażąco sprzeczne z faktami.

Użytkownik, który oczekuje profesjonalnej diagnozy, naraża się więc na ryzyko, iż otrzyma fałszywą lub niebezpieczną sugestię, za którą nikt nie ponosi odpowiedzialności.

AI jako wsparcie dla lekarzy, a nie ich zastępstwo

Nie oznacza to jednak, iż psychiatrzy odrzucają sztuczną inteligencję. W Krakowie prowadzone są badania nad systemami opartymi nie na modelach językowych, ale na zaawansowanych analizach grafowych. Celem jest stworzenie narzędzia wspierającego psychiatrów w diagnozowaniu i wyborze terapii.

Takie rozwiązania nie mają zastąpić lekarza, ale stanowić dodatkowy punkt odniesienia, szczególnie dla młodych specjalistów i psychologów. AI mogłaby pomóc porównywać tysiące przypadków i wskazywać podobieństwa, które mogą umknąć ludzkiemu oku.

– Programy są głupsze od nas, bo nie myślą, ale zarazem bardziej uważne – dostrzegają szczegóły, które mogą umknąć lekarzowi – podsumowuje prof. Pilecki.

Wnioski

Rosnąca popularność aplikacji i czatów opartych na AI w obszarze zdrowia psychicznego to znak naszych czasów. Mogą one być pomocne jako wsparcie w codziennym funkcjonowaniu czy motywacji, ale nie powinny zastępować kontaktu z profesjonalistą. Zdrowie psychiczne to sprawa życia i śmierci – a tu nie ma miejsca na eksperymenty z niesprawdzonymi technologiami.

Idź do oryginalnego materiału