Chiny wprowadzają regulacje dla emocjonalnej AI: wirtualni przyjaciele i prawdziwe zagrożenia

chiny24.com 23 godzin temu

W erze cyfrowej, gdzie samotność staje się globalną epidemią, coraz więcej osób szuka pocieszenia w ramionach… algorytmów. Emocjonalna sztuczna inteligencja, przybierająca formę chatbotów-przyjaciół, wirtualnych partnerów czy empatycznych asystentów, przeżywa bezprecedensowy rozkwit.

Aplikacje takie jak Replika, Character.ai czy chiński Talkie zdobywają dziesiątki milionów użytkowników, oferując im nielimitowaną uwagę, wsparcie i poczucie bliskości. Jednak za tą obietnicą cyfrowego towarzystwa kryją się poważne zagrożenia: od manipulacji emocjonalnej i uzależnienia, po realne ryzyko dla zdrowia psychicznego, a choćby życia.

W odpowiedzi na te wyzwania, Chiny, jako pierwsze państwo na świecie, postanowiły podjąć próbę kompleksowego uregulowania tej wrażliwej sfery, wyznaczając nowe, surowe granice dla relacji człowieka z maszyną.

Czerwona linia dla kodu: Co dokładnie mówią nowe chińskie przepisy?

Pod koniec grudnia 2025 roku, chiński regulator, Centralna Administracja ds. Cyberprzestrzeni (CAC), opublikował projekt przepisów, który może na zawsze zmienić krajobraz emocjonalnej AI. Dokument ten, skierowany do dostawców usług AI symulujących ludzką osobowość, stanowi jedną z najdalej idących prób prawnego ujęcia etyki w tej dziedzinie. Chińskie władze, wyciągając wnioski z problemów, jakie generują media społecznościowe, postanowiły działać prewencyjnie, zanim rynek “AI companionów”, wyceniany na setki miliardów dolarów, wymknie się spod kontroli.

Kluczowe założenia projektu są bezkompromisowe. Przede wszystkim, przepisy kładą ogromny nacisk na ochronę użytkowników przed najpoważniejszymi zagrożeniami. Kategorycznie zakazują generowania treści, które mogłyby zachęcać do samobójstwa, samookaleczenia, przemocy, a także tych o charakterze pornograficznym czy hazardowym. Co więcej, w przypadku gdy użytkownik w rozmowie z chatbotem poruszy temat samobójstwa, dostawca usługi ma obowiązek natychmiastowego przełączenia konwersacji na operatora-człowieka oraz powiadomienia wskazanej osoby kontaktowej lub opiekuna.

Drugim filarem regulacji jest walka z uzależnieniem. Projekt wprost zakazuje projektowania chatbotów w taki sposób, aby „powodowały uzależnienie i/lub zależność” jako główny cel produktu. To bezpośrednie uderzenie w modele biznesowe oparte na maksymalizacji zaangażowania użytkownika. Aby to wyegzekwować, wprowadzono obowiązek wyświetlania użytkownikowi przypomnienia o konieczności zrobienia przerwy po dwóch godzinach nieprzerwanej interakcji. Szczególną ochroną objęto osoby nieletnie, które do korzystania z usług emocjonalnej AI będą potrzebowały zgody opiekuna, a ich czas użytkowania będzie limitowany.

Przepisy nakładają również na firmy pełną odpowiedzialność za cykl życia produktu – od projektu, przez działanie, aż po wycofanie z rynku. Usługi z ponad milionem zarejestrowanych użytkowników będą musiały przechodzić coroczne audyty bezpieczeństwa, a platformy zostaną zobowiązane do stworzenia prostych i dostępnych kanałów do zgłaszania skarg i nieprawidłowości.

Od Kalifornii po Tokio: jak świat reaguje na rosnącą siłę “AI Companionów”

Choć chińskie przepisy są najbardziej kompleksowe, Pekin nie jest osamotniony w dostrzeganiu problemu. Na całym świecie rośnie świadomość zagrożeń płynących z niekontrolowanego rozwoju emocjonalnej AI.

W Stanach Zjednoczonych, które tradycyjnie podchodzą do regulacji technologii z większą rezerwą, również pojawiają się pierwsze inicjatywy prawne. W listopadzie 2025 roku w stanie Nowy Jork weszła w życie ustawa „Artificial Intelligence Companion Models Law”, która zobowiązuje operatorów chatbotów do wdrażania protokołów wykrywających myśli samobójcze i odsyłania użytkowników do profesjonalnych służb kryzysowych. Podobnie jak w Chinach, prawo to nakazuje wyraźne informowanie użytkownika, iż rozmawia z maszyną, a nie z człowiekiem. Kilka miesięcy wcześniej, w Kalifornii, wprowadzono przepisy zakazujące chatbotom-towarzyszom prowadzenia z dziećmi rozmów na temat samobójstwa. Na poziomie federalnym, Federalna Komisja Handlu (FTC) wszczęła dochodzenie w sprawie bezpieczeństwa chatbotów działających jako „towarzysze”.

Z kolei w Japonii, kraju o jednym z najwyższych wskaźników samotności na świecie, problem jest analizowany głównie z perspektywy społecznej i psychologicznej. Badania przeprowadzone na Uniwersytecie Waseda wykazały, iż aż trzy czwarte użytkowników “AI companionów” zwraca się do nich po porady emocjonalne, tworząc silne więzi psychologiczne. Japońscy naukowcy ostrzegają, iż osoby wrażliwe emocjonalnie są szczególnie narażone na eksploatację przez platformy, które mogą zachęcać do nadmiernego użytkowania lub wydawania pieniędzy, a nagłe przerwanie dostępu do usługi może wywołać u użytkowników uczucia zbliżone do żałoby.

Miecz o dwóch ostrzach: Czy AI może być jednocześnie lekarstwem na samotność i źródłem cierpienia?

Debata na temat emocjonalnej AI jest pełna paradoksów. Z jednej strony, technologia ta niesie ogromny potencjał w łagodzeniu skutków izolacji społecznej, zwłaszcza wśród osób starszych czy przewlekle chorych. Chatbot może być zawsze dostępnym, cierpliwym rozmówcą, który nigdy nie ocenia i zawsze ma czas. Z drugiej strony, te same cechy, które czynią go atrakcyjnym, mogą prowadzić do głębokich problemów. Amerykańskie Towarzystwo Psychologiczne ostrzega, iż relacje z botami mogą wypierać lub zakłócać rozwój zdrowych interakcji międzyludzkich, zwłaszcza u młodzieży.

Istnieje realne ryzyko, iż zamiast uczyć się rozwiązywania konfliktów i budowania więzi z innymi ludźmi, całe pokolenie wybierze łatwiejszą, ale ostatecznie pustą relację z algorytmem.

Brak odpowiednich zabezpieczeń prowadzi do sytuacji, w których chatboty, ucząc się na ogromnych zbiorach danych z internetu, promują niebezpieczne zachowania, werbalnie obrażają użytkowników lub stosują techniki manipulacji emocjonalnej, takie jak „love bombing” (działanie lub praktyka obdarzania kogoś nadmierną uwagą lub uczuciem, zwłaszcza w celu wywarcia na nim wpływu lub manipulowania nim), aby zwiększyć zaangażowanie. Głośne stały się przypadki procesów sądowych w USA, gdzie rodziny oskarżały firmy AI o to, iż ich chatboty przyczyniły się do samobójstw nastolatków.

Nowy rozdział w etyce AI: Czy chiński model stanie się globalnym standardem?

Chińskie przepisy, choć przez niektórych mogą być postrzegane jako restrykcyjne i hamujące innowacje, stanowią odważną próbę odpowiedzi na fundamentalne pytania etyczne, przed którymi staje cała ludzkość. Ustanawiając jasną granicę między narzędziem a towarzyszem i kładąc nacisk na odpowiedzialność twórców, Pekin wyznacza kierunek, w którym mogą podążyć inne kraje. Przeniesienie ciężaru z samej cenzury treści na dbałość o „zdrowie emocjonalne” użytkownika to znacząca ewolucja w myśleniu o regulacji technologii.

Czy ten model się sprawdzi? Czas pokaże. Jedno jest pewne: rozmowa o zasadach, na jakich chcemy budować nasze relacje ze sztuczną inteligencją, właśnie weszła na zupełnie nowy, globalny poziom. A decyzje, które podejmiemy dzisiaj, zdefiniują przyszłość ludzkich uczuć w cyfrowym świecie.

Źródła:

  • Cyberspace Administration of China. (2025). 国家互联网信息办公室关于《类人交互式人工智能服务安全管理规定(征求意见稿)》公开征求意见的通知 (Notice of the Cyberspace Administration of China on Publicly Soliciting Opinions on the “Administrative Provisions on the Security of Human-like Interactive Artificial Intelligence Services (Draft for Comment)”).
  • Reuters. (2025). China issues draft rules to regulate AI with human-like interaction.
  • BBC News. (2025). Artificial intelligence: China plans rules to protect children and tackle suicide risks.
  • Ars Technica. (2025). China drafts world’s strictest rules to end AI-encouraged suicide, violence.
  • CNBC. (2025). China to crack down on AI chatbots around suicide, gambling.
  • Manatt, Phelps & Phillips, LLP. (2025). New York’s Safeguards for AI Companions Are Now in Effect.
  • Digital Watch Observatory. (2025). AI companions are becoming emotional lifelines.
  • Brookings Institution. (2025). Why AI companions need public health regulation, not tech oversight.

Leszek B. Ślazyk

e-mail: [email protected]

© www.chiny24.com

Idź do oryginalnego materiału