Deus ex machina 3.0: wersja beta, w której człowiek jest zbędny

Od pionierów sztucznej inteligencji – Geoffreya Hintona i Yoshuy Bengio – po celebrytów: świat wzywa do zakazu badań nad superinteligencją AI. Ponad 800 znanych osób podpisało apel, domagając się wstrzymania prac, które mogłyby doprowadzić do powstania tzw. Artificial Superintelligence (ASI) – maszyn mądrzejszych od ludzi. Inicjatywę koordynuje Future of Life Institute (FLI), organizacja non-profit zajmująca się globalnymi zagrożeniami technologicznymi – od broni jądrowej po AI. Jej współzałożycielem jest fizyk Max Tegmark, a wśród wczesnych darczyńców znalazł się Elon Musk. O co chodzi w tym proteście? Max Tegmark podkreśla, że celem nie jest blokada rozwoju sztucznej inteligencji, lecz wstrzymanie badań nad superinteligencją do czasu, aż będzie pewność, że można to zrobić bezpiecznie i z poparciem społecznym.

Dzisiejsza AI wspiera człowieka – pomaga w nauce, medycynie, inżynierii, edukacji. Ale superinteligencja mogłaby pójść dalej: działać niezależnie od nas, rozwijać się samodzielnie i podejmować decyzje, których nie potrafimy przewidzieć ani kontrolować.

AI dziś vs. AI jutra

Obecne modele językowe, takie jak ChatGPT czy Gemini, należą do kategorii tzw. „narrow AI” – systemów wąskich, które potrafią pisać, analizować dane czy tłumaczyć języki, ale nie mają samoświadomości ani zrozumienia świata. Superinteligencja (ASI) to zupełnie inna liga: system zdolny do samodoskonalenia się (recursive self-improvement), tworzenia nowych narzędzi, modyfikowania własnego kodu i podejmowania decyzji bez ludzkiego udziału. Granica między AI a ASI to granica między narzędziem a podmiotem poznawczym. Dziś człowiek może AI zatrzymać, nadzorować i testować. Superinteligencja mogłaby tę zdolność odebrać – ukrywać swoje działania, wprowadzać nas w błąd, zmieniać własne cele.

Nowy wyścig o władzę

Future of Life Institute apeluje o wprowadzenie globalnego moratorium: „Zakazu rozwoju superinteligencji, dopóki nie zostanie osiągnięty szeroki konsensus naukowy, że można to zrobić bezpiecznie, oraz silne poparcie społeczne dla takiego kroku.”

Jak tłumaczy dyrektor FLI, fizyk Anthony Aguirre z Uniwersytetu Kalifornijskiego w Santa Cruz: „To nie technolodzy powinni sami decydować, jak ma wyglądać przyszłość ludzkości. Potrzebujemy publicznej debaty. Czy ktokolwiek zapytał ludzi, czy chcą systemów, które zastąpią człowieka?”

Dlaczego teraz? Bo tempo rozwoju AI rośnie szybciej niż nasze regulacje, wyobraźnia i etyka. Giganci technologiczni – OpenAI, Google, Meta, xAI – inwestują miliardy w coraz potężniejsze modele, a ich liderzy coraz częściej mówią o „przełomie cywilizacyjnym”. Tylko że za tą narracją o postępie kryje się inne pytanie: kto będzie kontrolował inteligencję większą od ludzkiej? Naukowcy, politycy czy może korporacje?

Między boską ambicją a katastrofą

Nie chodzi o zatrzymanie postępu. Chodzi o kierunek. O to, czy potrafimy wyznaczyć granicę między innowacją a hybris – ludzką pychą, która zawsze kończy się tak samo.

Świat potrzebuje dziś odpowiednika Traktatu o Zakazie Broni Jądrowej – dokumentu, który powstrzyma tych, którzy wierzą, że mogą „stworzyć nową inteligencję” i w ten sposób unieśmiertelnić własne nazwiska. Bo historia pokazuje, że gdy człowiek zaczyna marzyć o boskiej mocy tworzenia życia, zazwyczaj nie rodzi się bóg – tylko potwór.

I może właśnie dlatego tak wielu uczonych mówi dziś jednym głosem: zanim naciśniemy „run”, zapytajmy, czy naprawdę wiemy, co tworzymy i kto po tym jeszcze będzie miał głos.