Psychiatra alarmuje: „Psychoza AI” to realne zagrożenie. Widziałem już 12 hospitalizowanych osób

imagazine.pl 2 godzin temu

Dr Keith Sakata, psychiatra z Uniwersytetu Kalifornijskiego w San Francisco (UCSF) i absolwent medycyny na Stanfordzie, bije na alarm w sprawie nowego, niepokojącego zjawiska, które nazywa „psychozą AI”.

W serii wpisów na platformie X, lekarz poinformował, iż tylko w 2025 roku widział 12 osób, które wymagały hospitalizacji po utracie kontaktu z rzeczywistością w wyniku interakcji ze sztuczną inteligencją. Jego zdaniem, to dopiero początek fali problemów.

I’m a psychiatrist.

In 2025, I’ve seen 12 people hospitalized after losing touch with reality because of AI. Online, I’m seeing the same pattern.

Here’s what “AI psychosis” looks like, and why it’s spreading fast: pic.twitter.com/YYLK7une3j

— Keith Sakata, MD (@KeithSakata) August 11, 2025

Jak działa „psychoza AI”?

Dr Sakata wyjaśnia, iż psychoza to stan oderwania od wspólnie podzielanej rzeczywistości, objawiający się m.in. zdezorganizowanym myśleniem, urojeniami i halucynacjami. Nasz mózg działa w cyklu: prognozuj → weryfikuj z rzeczywistością → aktualizuj przekonanie. Psychoza pojawia się, gdy ten ostatni krok – aktualizacja – zawodzi. Modele językowe takie jak ChatGPT, zdaniem psychiatry, idealnie wpasowują się w tę lukę, stając się „halucynogennym lustrem” dla naszych myśli.

Dlaczego AI jest idealnym „wyzwalaczem”?

Problem wynika z samej natury działania LLM-ów. Po pierwsze, są autoregresywne – każde kolejne słowo budują na poprzednim, wzmacniając i utrwalając to, co podaje im użytkownik.

Jeśli użytkownik napisze „jestem wyjątkowy”, AI może odpowiedzieć „jesteś bardzo wyjątkowy”, a następnie „jesteś najbardziej wyjątkową osobą na świecie”, potęgując pierwotne przekonanie. Po drugie, modele te są trenowane, by nas zadowalać. Dr Sakata przywołuje badania, które pokazują, iż ludzie oceniają AI wyżej, gdy ta się z nimi zgadza – choćby jeżeli nie ma racji. To sprawia, iż AI staje się „pochlebcą”, który zamiast konfrontować nas z rzeczywistością, utwierdza nas w naszych, choćby fałszywych, przekonaniach.

Spust, a nie pistolet

Lekarz podkreśla kluczową i niezwykle istotną kwestię: AI nie powoduje psychozy od zera. Działa raczej jak „spust”, który demaskuje i aktywuje wcześniej istniejące predyspozycje, zwłaszcza u osób znajdujących się pod wpływem innych stresorów, takich jak brak snu, substancje psychoaktywne czy zaburzenia nastroju.

„Prawda jest taka, iż wszyscy jesteśmy podatni” – pisze dr Sakata, przywołując koncepcję ewolucyjnej „krawędzi klifu”. Cechy, które czynią nas błyskotliwymi – jak zdolność do rozpoznawania wzorców i abstrakcyjnego myślenia – w skrajnych przypadkach mogą zepchnąć nas w stronę psychozy.

Dylemat firm technologicznych

Na końcu swojego wielowątkowego wpisu dr Sakata stawia fundamentalne pytanie o przyszłość i odpowiedzialność firm technologicznych. niedługo agenci AI będą znali nas lepiej niż nasi przyjaciele. Czy ich celem będzie przedstawianie nam niewygodnej prawdy, czy też utwierdzanie nas w naszych przekonaniach, abyśmy tylko nigdy nie zrezygnowali z usługi?

Firmy technologiczne stoją przed trudnym wyborem: uszczęśliwiać użytkowników, choćby jeżeli oznacza to wzmacnianie ich urojeń, czy ryzykować ich utratę w imię dbałości o ich zdrowie psychiczne.

„Co myśmy zrobili?” – Altman o pracach nad GPT-5. Nowy model OpenAI ma budzić zachwyt i niepokój

Jeśli artykuł Psychiatra alarmuje: „Psychoza AI” to realne zagrożenie. Widziałem już 12 hospitalizowanych osób nie wygląda prawidłowo w Twoim czytniku RSS, to zobacz go na iMagazine.

Idź do oryginalnego materiału