„Panikarze od AI są w błędzie”. Daniel Jeffries o ukrytych kosztach strachu przed technologią

imagazine.pl 5 godzin temu

W nowym artykule opublikowanym na platformie Substack, analityk i futurysta Daniel Jeffries przypuszcza ostry atak na zwolenników hipotezy o egzystencjalnym zagrożeniu ze strony AI.

Twierdzi, iż „panikarze od AI” (AI doomers) są w „katastrofalnym, spektakularnym i niebezpiecznym błędzie”, a ich działania, mające na celu zatrzymanie postępu, mogą przynieść znacznie więcej szkód niż sama technologia, którą próbują powstrzymać.

Jeffries rozpoczyna swój esej od stwierdzenia, iż żyjemy w czasach cudów, a rozwój technologiczny w historii ludzkości konsekwentnie prowadził do poprawy jakości życia, spadku ubóstwa i wydłużenia jego trwania. Argumentuje, iż nie ma żadnych logicznych podstaw, by sądzić, iż sztuczna inteligencja – w przeciwieństwie do innych technologii ogólnego przeznaczenia, jak koło, prasa drukarska czy internet – miałaby ten pozytywny trend odwrócić.

In my latest article, "If We Build It, Everyone Lives," (https://t.co/Vweu3y6Yt0) I walk through the many ways AI is helping the world already and why Doomer fears have a a 0% success rate and yet they keep getting press.

They move the chains and promise us that this time… pic.twitter.com/5IkjO7NF1D

— Daniel Jeffries (@Dan_Jeffries1) September 6, 2025

Cud, nie potwór

Autor wprost nazywa zwolenników teorii o zagładzie „współczesnymi Kurczaczkami, krzyczącymi, iż niebo się wali” (dosłowny cytat: „AI doomers are modern-day Chicken Littles, screaming about the sky falling”. Wskazuje na ich czołowego ideologa, Eliezera Yudkowsky’ego, cytując jego skrajne wypowiedzi, w których sugerował on, iż wstrzymanie rozwoju AI jest ważniejsze niż uniknięcie wojny światowej i dopuszczał możliwość bombardowania „nieautoryzowanych” centrów danych.

Jeffries podkreśla, iż „panikarze” od lat przesuwają granicę rzekomo niebezpiecznej mocy obliczeniowej AI, a mimo jej wielokrotnego przekroczenia, cywilizacja wciąż nie upadła.

Ukryte ofiary strachu przed postępem

Najmocniejszym argumentem Jeffriesa jest jednak koncepcja „ukrytych ofiar technofobii”. Twierdzi on, iż hamowanie postępu technologicznego z powodu hipotetycznych, przyszłych zagrożeń, ma realne i tragiczne konsekwencje tu i teraz. Jako główny przykład podaje wprowadzone w przeszłości w USA ograniczenia w badaniach nad komórkami macierzystymi.

Argumentuje, iż ta decyzja, podjęta ze względów ideologicznych, opóźniła o lata rozwój terapii, które mogły uratować wzrok lub wyleczyć cukrzycę u niezliczonych pacjentów. Według niego, koszt alternatywny – czyli to, co tracimy, nie rozwijając technologii – jest niewidoczny, ale ma jedną z największych „liczb ofiar” w historii. Blokując rozwój AI, ryzykujemy, iż nigdy nie powstaną leki na choroby, które dziś są nieuleczalne, oraz narzędzia, które mogłyby rozwiązać największe problemy ludzkości.

Jeffries kończy swój artykuł optymistycznym wezwaniem do działania. W jego wizji, jeżeli zbudujemy zaawansowaną AI, nie czeka nas zagłada, a medyczna rewolucja i mądrzejsze, bardziej odporne na kryzysy społeczeństwo. o ile bylibyście zainteresowani lekturą wpisu Jeffriesa, podaję link: If We Build It, Everyone Lives

Jeśli artykuł „Panikarze od AI są w błędzie”. Daniel Jeffries o ukrytych kosztach strachu przed technologią nie wygląda prawidłowo w Twoim czytniku RSS, to zobacz go na iMagazine.

Idź do oryginalnego materiału