Krótka historia z amerykańskiego kampusu pokazuje, jak bardzo zmienia się sposób komunikacji. I jak cienka bywa granica między pomocą a zastępstwem.
Randka, SMS i "99 proc. AI"
Była druga w nocy, gdy Emily dostała wiadomość od Patricka. Kilka dni wcześniej poznali się na randce w ciemno. Jego SMS był długi, uprzejmy, ostrożny. Trochę aż za bardzo. Napisał, iż chce się spotykać. "Może jako przyjaciele, może inaczej". Jednocześnie podkreślił, iż nie szuka niczego poważnego. Ton gładki. Konstrukcja niemal książkowa.
Emily początkowo nie widziała w tym nic dziwnego. Dopiero znajomi zasugerowali, by sprawdzić wiadomość narzędziem do wykrywania AI. Wynik? Niemal pewność. Patrick później przyznał, iż skorzystał z ChataGPT. Nie dlatego, iż chciał manipulować. Raczej dlatego, iż nie wiedział, jak ubrać myśli w słowa.
– Bałem się, iż coś źle sformułuję. Chciałem być jasny – tłumaczył.
Wyszło odwrotnie. Emily uznała wiadomość za niejednoznaczną. I bardziej mylącą, niż gdyby była niedoskonała.
To nie wyjątek. Coraz więcej młodych oddaje AI rozmowy, które kiedyś wymagały odwagi – odmowy, wyznania, konflikty. Badacze nazwali to wprost, jako "social offloading", czyli "Odciążanie społeczne". Termin spopularyzował Michael Robb z organizacji Common Sense Media.
Schemat jest prosty. Zamiast samemu ubrać emocje w słowa, zleca się to algorytmowi. Ten oddaje gotowy komunikat. Wygładzony, uporządkowany. Tylko iż odbiorca nie reaguje już na człowieka. Reaguje na jego "ulepszoną" wersję. Skala? Jedno z badań tej organizacji wskazuje, iż choćby co trzeci nastolatek woli trudne rozmowy z AI niż z drugim człowiekiem.
Eksperci widzą dwa główne zagrożenia.
Po pierwsze – rozjechane oczekiwania. Jedna strona mówi "idealnie", a druga spontanicznie. Łatwo o zgrzyt. Rozmowa zaczyna przypominać dialog z kimś, kto… nie do końca istnieje.
Po drugie – utrata zaufania do własnego głosu. Skoro zawsze można "poprawić" wypowiedź, pojawia się pokusa, by robić to za każdym razem.
Psychiatra Michelle DiBlasi pracująca z młodymi dorosłymi, zauważa, iż AI bywa używana jako "emocjonalna proteza". Pomaga, gdy brakuje słów. Ale jednocześnie tę bezradność utrwala. Z czasem może to prowadzić do izolacji. Mniej prób. Mniej błędów. A bez nich relacje nie działają.
Pokolenie pandemii i cyfrowych skrótów
Dlaczego właśnie teraz? Badacze wskazują na dwa czynniki, które się nałożyły – kulturę cyfrową i pandemię. Razem stworzyły środowisko, w którym kontakt pośredni stał się normą.
Russell Fulmer, adiunkt na Kansas State University, który bada sztuczną inteligencję i nauki behawioralne mówi o "idealnej burzy". Młodzi trafili w moment, w którym naturalne interakcje zostały ograniczone. To wtedy uczymy się najwięcej – czytać emocje, znosić niejednoznaczność, radzić sobie z odrzuceniem. jeżeli ten etap się rozmyje, łatwiej sięgnąć po narzędzie, które zrobi to za nas.
Problem w tym, iż chatbot upraszcza rzeczywistość. Daje wersję relacji wygodną. I bezpieczną.
Tu pojawia się paradoks. AI ma ułatwiać komunikację. A może ją ograniczać. Fulmer ostrzega przed "pętlą samotności". Im częściej korzystamy z pośredników, tym mniej ćwiczymy realne rozmowy. A im mniej ćwiczymy, tym bardziej ich unikamy. W skrajnych sytuacjach młodzi zwracają się do AI choćby w kryzysie. Gdy nie potrafią powiedzieć bliskim, co czują. To już nie kwestia wygody. To sygnał, iż coś się rozjeżdża.
Nikt nie mówi odrzuć technologię. Chodzi o proporcje. AI może pomóc. Jako szkic. Punkt wyjścia. Inspiracja. Problem zaczyna się wtedy, gdy przejmuje głos. Relacje są nieporządne. Bywają niezręczne. Czasem chaotyczne. I właśnie to buduje kompetencje społeczne.
Tego nie da się w pełni zasymulować. Dlatego zamiast pytać, czy AI powinna pomagać w rozmowach, warto zadać inne pytanie – "kiedy zaczyna nas w nich zastępować".















