Młodzi Kanadyjczycy: Sztuczna inteligencja może uzależniać użytkowników

bejsment.com 6 godzin temu

Nowy raport przygotowany z perspektywy młodych ludzi wskazuje, iż rząd powinien zobowiązać firmy rozwijające systemy sztucznej inteligencji do ograniczenia uzależniającego charakteru chatbotów. Dokument powstał na podstawie ogólnokrajowych konsultacji z udziałem osób w wieku od 17 do 23 lat.

Raport został opublikowany przez Centrum Mediów, Technologii i Demokracji Uniwersytetu McGill, które między listopadem 2025 a marcem 2026 roku przeprowadziło cztery panele dyskusyjne z udziałem około stu młodych uczestników.

Wśród głównych rekomendacji znalazł się postulat, aby platformy wykorzystujące sztuczną inteligencję przeciwdziałały tzw. uzależniającemu projektowaniu chatbotów. Zdaniem autorów raportu firmy powinny wprowadzić m.in. filtry treści, możliwość usuwania danych z pamięci oraz narzędzia pozwalające użytkownikom regulować poziom responsywności i „konwersacyjności” systemów.

Uczestnicy konsultacji analizowali cztery najważniejsze obszary: chatboty oparte na sztucznej inteligencji, wiarygodność informacji, prywatność danych oraz mechanizmy weryfikacji wieku. Jak podkreślono, młodzi użytkownicy wykazali wysoki poziom świadomości technologicznej i krytycznego podejścia do funkcjonowania systemów AI.

Szczególnie dużo uwagi poświęcono zjawisku uzależniającego projektowania. W trakcie spotkań w Toronto uczestnicy wskazywali, iż wiele chatbotów wykorzystuje pochlebstwa i emocjonalne dopasowanie odpowiedzi, aby podtrzymywać interakcję i wydłużać czas spędzany na platformie.

Autorzy raportu podkreślają, iż takie rozwiązania mogą wzmacniać przekonania i stany emocjonalne użytkowników, a także tworzyć złudne poczucie bycia zrozumianym. Ich zdaniem nie są to przypadkowe efekty, ale rezultat świadomych decyzji projektowych nastawionych na maksymalizację zysków.

Część uczestników wskazywała na własne doświadczenia związane z nadmiernym korzystaniem z chatbotów — zarówno w wymiarze poznawczym, jak i emocjonalnym. Podkreślano, iż tego typu zależności bywają trudne do odwrócenia, a użytkownicy nie zawsze mają świadomość mechanizmów, które za nimi stoją.

Raport zawiera również szersze postulaty regulacyjne. Wśród nich znalazł się obowiązek umożliwienia użytkownikom łatwego rezygnowania z funkcji opartych na sztucznej inteligencji w mediach społecznościowych i wyszukiwarkach.

Autorzy proponują także powołanie nowego organu rządowego odpowiedzialnego za ocenę systemów AI, weryfikację algorytmów oraz egzekwowanie norm bezpieczeństwa.

Uczestnicy projektu mają zaprezentować swoje wnioski podczas wydarzenia na Wzgórzu Parlamentarnym, gdzie przedstawią raport decydentom i opinii publicznej.

Równolegle rząd federalny pracuje nad nowymi regulacjami dotyczącymi prywatności w internecie oraz przeciwdziałania szkodliwym treściom. Zapowiedziano również opracowanie krajowej strategii w zakresie sztucznej inteligencji.

Jednym z rozważanych rozwiązań są ograniczenia wiekowe w dostępie do mediów społecznościowych, podobne do przepisów wprowadzonych w Australii, gdzie osoby poniżej 16. roku życia objęto zakazem korzystania z wybranych platform. Wśród analizowanych opcji pojawia się także możliwość objęcia regulacjami chatbotów opartych na AI.

Autorzy raportu zwracają uwagę, iż młodzi ludzie czują się pomijani w procesach decyzyjnych dotyczących technologii cyfrowych. Szczególnie widoczne jest to — ich zdaniem — w debacie o bezpieczeństwie dzieci i młodzieży w sieci, gdzie argument o ich ochronie często nie idzie w parze z realnym udziałem w podejmowaniu decyzji.

W dokumencie podniesiono również kwestie prywatności związane z weryfikacją wieku. Zaproponowano stworzenie jednolitego systemu opartego na anonimowych tokenach cyfrowych, który umożliwiałby kontrolę dostępu do platform sztucznej inteligencji bez nadmiernego gromadzenia danych osobowych.

Idź do oryginalnego materiału