Hinton, Murati, Karpathy, LeCun – gdy odchodzą wizjonerzy, zostają tylko sprzedawcy algorytmów?

W ciągu ostatnich kilkunastu miesięcy z najpotężniejszych firm technologicznych odeszli ludzie, bez których współczesna sztuczna inteligencja w ogóle by nie istniała. Geoffrey Hinton, „ojciec deep learningu”, opuścił Google, Mira Murati (CTO) i Andrej Karpathy (współzałożyciel firmy i badacz) odeszli się z OpenAI, a Yann LeCun, twórca fundamentów współczesnych sieci neuronowych, właśnie pożegnał się z Meta. To nie są zwykłe zmiany kadrowe. To exodus twórców: symboliczny moment, w którym naukowcy, którzy przez dekady budowali przyszłość technologii, zaczynają się od niej odwracać.

Nie odchodzą z powodu wypalenia czy wieku. Odchodzą, bo nie chcą już firmować tego, w co AI się zamienia: gigantycznej machiny zysków, marketingu i zaciekłej rynkowej rywalizacji o „superinteligencję”. W ich decyzjach odbija się głęboki kryzys zaufania między światem nauki a przemysłem technologicznym, który dziś kontroluje rozwój AI, między etyką a kapitałem, między wizją rozwoju ludzkości a logiką wzrostu giełdowych kursów.

Ewolucja LLM: od badań naukowych do komercyjnego produktu

Jeszcze niedawno to uniwersytety i laboratoria badawcze były centrami rewolucji AI. Przełomy rodziły się na konferencjach naukowych, w publicznych repozytoriach, w badaniach, które każdy mógł powtórzyć, skomentować i ulepszyć. Dziś ten świat praktycznie nie istnieje. Prawie 90% nowych modeli LLM powstaje w korporacjach, za zamkniętymi drzwiami, na sprzęcie, do którego dostęp mają tylko wybrani. Wraz z tym przesunięciem znika wszystko, co było fundamentem zdrowej nauki: otwartość, możliwość replikacji, krytyczna kontrola środowiska, przejrzystość metod. W ich miejsce weszła nowa rzeczywistość: umowy o zakazie konkurencji i polityka poufności, ale przede wszystkim presja deadline’ów, by wypuścić „produkt” szybciej niż konkurencja. To nie jest już ekosystem badań, ale raczej sektor przemysłu wysokiego ryzyka, którego działanie opiera się na wyścigu zbrojeń.

Odejścia takich postaci jak Hinton, Murati czy LeCun są symbolem tej ważnej zmiany. Każde z nich mówi wprost: przestrzeń, w której jeszcze niedawno można było prowadzić badania zgodnie z wartościami nauki, została przejęta przez logikę korporacyjną: wzrost przychodów, przewaga konkurencyjna i niejawne strategie technologiczne.
Autonomia badawcza kurczy się do minimum, a presja komercyjna wchodzi w każdy zakamarek procesu tworzenia modeli, nawet w firmach, które jeszcze chwilę temu deklarowały idealistyczną misję „rozwoju AI dla dobra ludzkości”. Bez badaczy, twórców i wizjonerów już nikt nie udaje, że branża AI rozwija się w atmosferze wolnej, krytycznej i etycznej nauki.

 

Hinton: w Google czas przestać udawać, że wszystko jest pod kontrolą

Geoffrey Hinton – pionier sieci neuronowych, laureat Nagrody Turinga i jeden z naukowców, którzy w 2012 roku stworzyli przełomowy model deep learningu rozpoznającego obrazy AlexNet na Uniwersytecie Toronto – w maju 2023 odszedł z Google po ponad dekadzie pracy jako jeden z kluczowych naukowców Google Brain/Deep Mind, rozwijający fundamentalne technologie głębokiego uczenia, które trafiły do produktów takich jak Google Search, Photos, Translate czy systemy rozpoznawania mowy. Odpowiadał też za badania nad nowymi architekturami sieci neuronowych, m.in. capsule networks, wpływając na strategiczny kierunek rozwoju AI w firmie. Jego metodyka utorowała drogę współczesnym systemom takim jak ChatGPT.

Powód swojego odejścia Hinton wyjaśnił w rozmowie z „New York Times”: „Odszedłem, aby móc mówić o niebezpieczeństwach AI bez oglądania się na Google”. W serii wywiadów dla czołowych mediów przestrzegał, że rozwój modeli językowych i systemów autonomicznych wymyka się spod kontroli. Ostrzegał przed masową dezinformacją, utratą miejsc pracy i potencjalnym „egzystencjalnym ryzykiem”, jeśli inteligentne systemy zaczną działać wbrew ludzkim wartościom. To nie była decyzja naukowca zmęczonego korporacją, lecz symboliczny gest człowieka, który stworzył genialne narzędzie i teraz widzi, że staje się ono niebezpiecznie niezależne.

Hinton ostrzegał, że chatboty mogą służyć jako narzędzie dla cyberprzestępców i organizacji ekstremistycznych, generować masową dezinformację, tworzyć spamboty na skalę przemysłową, a także totalnie zdestabilizować rynek pracy. Ale to tylko krótkoterminowe zagrożenia. Bo kluczowe i tak jest długoterminowe „egzystencjalne ryzyko”, jeśli AI zacznie przewyższać ludzkie zdolności poznawcze: „Doszedłem do wniosku, że rodzaj inteligencji, który rozwijamy, bardzo różni się od tej, którą mamy my. To tak, jakby istniało 10 000 osób i gdy jedna z nich czegoś się nauczy, wszyscy inni automatycznie zyskuję tę wiedzę i umiejętności. W ten sposób chatboty mogą wiedzieć o wiele więcej niż jakikolwiek człowiek.”

Jego odejście stało się jednym z najbardziej symbolicznych momentów w historii branży: po raz pierwszy ktoś o takiej pozycji – publicznie przyznał, że nie ufa już kierunkowi rozwoju technologii, którą sam zapoczątkował.

 

Murati: gdy w OpenAi etyka przegrywa z agresywnym wzrostem

Mira Murati dołączyła do OpenAI w 2018 roku, przechodząc tam z Tesli, gdzie kierowała pracami nad Autopilotem. W OpenAI szybko stała się kluczową postacią: odpowiadała za rozwój ChatGPT, GPT-4, DALL·E oraz całej warstwy produktowej łączącej badania z wdrożeniami. Jako CTO i jedna z nielicznych kobiet na najwyższych stanowiskach w globalnej AI nadzorowała także zespoły bezpieczeństwa i etyki, będąc jedną z głównych architektek strategii technologicznej firmy. Jej wpływ zaczął jednak słabnąć w momencie, gdy OpenAI przyspieszyło transformację z organizacji non-profit w komercyjnego giganta z potężnym zapleczem inwestorskim. Wraz z kolejnymi rundami finansowania rosły oczekiwania na szybkie wdrażanie nowych modeli, a dział produktu stał się ważniejszy niż zespoły alignment i research. Zaś Murati – zwolenniczka ostrożnego tempa, rygorystycznych testów i globalnej odpowiedzialności – coraz częściej wchodziła w konflikt z Samem Altmanem, który forsował agresywną ekspansję pod presją wyprzedzania konkurentów (Meta, Anthropic, Google) i budowanua systemów o dużej skali i agentowości.

Z czasem Murati została odsunięta od realnej decyzyjności, a kluczowe kompetencje CTO zostały rozproszone między zespoły podporządkowane bezpośrednio Altmanowi. We wrześniu 2024 oficjalnie odeszła z OpenAI, „by szukać nowych możliwości”, ale w branży nikt nie miał wątpliwości, o co dokładnie chodziło. Oto jedna z najważniejszych osób odpowiedzialnych za bezpieczeństwo, etykę i realne rozumienie ryzyka AGI uznała, że nie chce już firmować kierunku, w którym idzie organizacja. Jej odejście otworzyło wszystkim oczy: OpenAI nie jest już instytutem, który miał chronić świat przed ryzykami rozwoju sztucznej inteligencji. Jest za to korporacją nastawioną na dominację, skalę i produkt, a głosy hamujące tempo rozwoju są uciszane i odsuwane na margines. Dla wielu był to definitywny dowód, że misja OpenAI została podporządkowana rynkowi, a firma, która powstała po to, by „stać na straży bezpiecznego AI”, sama traci ludzi, którzy wiedzieli, jak to zrobić.

 

Karpathy: OpenAI zastąpiło prawdziwą naukę budowaniem narracji i hype’u

Andrej Karpathy, inżynier, badacz sieci neuronowych, jeden z najbardziej wpływowych twórców współczesnej sztucznej inteligencji: człowiek, który napisał najważniejszy program edukacyjny w historii deep learningu – dołączył do OpenAI w 2015 roku jako jeden z pierwszych badaczy. Jednak już dwa lata później przeszedł do Tesli, gdzie jako Director of AI kierował budową systemów wizji dla Autopilota. W 2023 roku wrócił do OpenAI i zajął się rdzeniową architekturą modeli GPT, analizą ich „failure modes” oraz rozwojem wewnętrznych narzędzi szkoleniowych i debugujących. W praktyce pełnił rolę eksperta-mentora łączącego świat badań z realiami wdrożeń, oceniając m.in. jakość i ograniczenia systemów agentowych. Tym razem wytrzymał w firmie niecały rok.

Odejście Andreja Karpathy’ego z OpenAI w lutym 2024 roku było cichsze niż rezygnacja Miry Murati. Oficjalnie powiedział, że „nic się nie stało” i nie ma żadnego dramatu, ale – umówmy się – to zdanie powtarza każdy, kto nie chce palić sobie mostów w branży. Prawda jest taka, że Karpathy od miesięcy krytykował kierunek, w jakim idzie AI: współczesne systemy agentowe określał mianem „AI slop”, które zalewają internet tekstami pełnymi błędów, ogólników i powtórzeń, słabymi lub zniekształconymi obrazami, niskiej jakości filmami generowanymi automatycznie oraz treściami pozbawionymi wartości merytorycznej lub estetycznej. Podkreślał, że hype wokół AGI jest w dużej mierze marketingiem, a na prawdziwe, stabilne i autonomiczne systemy będziemy musieli poczekać jeszcze dekadę. Sami przyznacie, że wybitnie nie pasowało to do narracji firm budujących coraz bardziej spektakularne obietnice dla inwestorów, rządów i mediów.

Karpathy podziękował za współpracę, a wraz z nim OpenAi straciło nie tylko czołowego inżyniera, ale także rzadki głos rozsądku kogoś, kto zna zarówno ograniczenia technologii, jak i realne ryzyka wynikające z jej wdrażania: wiedział jak wygląda prawdziwa, techniczna praca z inteligencją maszynową, praca poza marketingiem, poza narracją o „magii” i poza obietnicami dla inwestorów.

 

LeCun: energochłonny, powierzchowny i pozbawiony prawdziwego rozumienia „ślepy zaułek AI”

Yann LeCun, współtwórca splotowych sieci neuronowych (CNN), kluczowy pionier deep learningu w dziedzinie rozpoznawania obrazów, laureat nagrody Turinga w 2018 (wraz z Hintonem i Bengio) za przełomowe prace nad sieciami neuronowymi –  człowiek, który zbudował fundamenty technologii dominującej dziś na świecie. Był jednym z ostatnich wielkich naukowców w Big Techu, którzy naprawdę wierzyli w długofalowe badania, a nie w coroczne premiery modeli pod dyktando rynku.

Jako szef naukowy ds. AI w Meta, przez ponad dekadę kierował laboratorium FAIR (Fundamental AI Research) badającym procesy samouczenia maszyn, modele świata (world-models) i architektury zastępujące LLM. Po reorganizacji Meta jego zespół utracił część autonomii badawczej, a priorytetem firmy stały się modele komercyjne i szybkie ich wdrażanie. W listopadzie 2025 roku LeCun ogłosił, że odchodzi i planuje założyć własny startup, w którym będzie rozwijać „AI, która naprawdę rozumie świat”, a nie tylko generuje teksty i obrazy. W rozmowach z mediami wielokrotnie krytykował „religię dużych modeli językowych”, określając je jako „ślepy zaułek” – zbyt energochłonny, zbyt powierzchowny i pozbawiony prawdziwego rozumienia.

Jego odejście z Meta było trzęsieniem ziemi w świecie AI i sygnałem jeszcze silniejszym niż rezygnacje Murati czy Karpathy’ego. Jego decyzja nie była gestem obrażonego naukowca, ale diagnozą: skoro nawet LeCun, człowiek o absolutnym autorytecie w dziedzinie AI, uznaje, że korporacyjny wyścig o superinteligencję idzie w złym kierunku, to znaczy, że branża odcięła się od własnych korzeni. LeCun uważa, że prawdziwa inteligencja nie wyłoni się z coraz większych modeli językowych, lecz z systemów, które potrafią samodzielnie uczyć się świata, budować jego wewnętrzne modele, rozumieć przyczynowość i działać efektywnie energetycznie. Jest zwolennikiem self-supervised learningu, otwartego AI i architektur inspirowanych mózgiem, a nie zwiększaniem liczby parametrów. A co z bezpieczeństwem tak rozbudowanych systemów? Jego zdaniem bezpieczeństwo nie wynika z nakładanych na AI blokad i zakazów, lecz z lepszego projektowania systemów.

I właśnie dlatego jego odejście tak mocno wstrząsnęło branżą: LeCun był jednym z ostatnich ludzi na najwyższych stanowiskach, którzy wciąż reprezentowali czysto naukowe, długofalowe myślenie o AI. Jego rezygnacja pokazuje, że w obecnym klimacie korporacyjnym nie ma już miejsca na rozwój alternatywnych, bardziej ambitnych koncepcji inteligencji maszynowej. Bo problem nie polega na tym, że sztuczna inteligencja się rozwija. Problem w tym, że jej rozwój przestaje być kontrolowany przez społeczność naukową, a zaczyna być napędzany przez ekonomię skali i algorytmy wzrostu – tempo inwestycji rośnie, firmy wydają miliardy na infrastrukturę GPU, a AI staje się polem globalnego wyścigu technologicznego i geopolitycznego.

Wspólny mianownik tych historii jest jeden: coraz głębsza przepaść między misją naukową a logiką rynku, która dziś dyktuje tempo rozwoju AI. Geoffrey Hinton odchodzi, by móc bez ograniczeń mówić o ryzykach i zagrożeniach, które – jego zdaniem – są przez korporacje bagatelizowane w imię wzrostu. Mira Murati i Andrej Karpathy odchodzą, bo nie chcą już uczestniczyć w „wyścigu zbrojeń” modeli komercyjnych, w którym bezpieczeństwo, ostrożność i jakość badań przegrywają z presją inwestorów i potrzebą corocznego spektakularnego release’u nowych modeli. A Yann LeCun rezygnuje, by wrócić do korzeni i realizować wizję sztucznej inteligencji opartej na długofalowej nauce. Oto najlepsi badacze próbują ratować to, co w AI naukowe, odpowiedzialne i ambitne, bo w Big Techu przestało być na to miejsce. I na tym polega cały dramat, że skala finansowania działów badawczych w Google, Meta czy OpenAI jest nieosiągalna dla laboratoriów akademickich i naukowych.

 

Rosnące ryzyka AI i coraz słabsza kontrola nad systemami

Wraz z gwałtownym przyspieszeniem rozwoju modeli rośnie też pole ryzyka, a tempo tych zagrożeń już dawno przekroczyło naszą zdolność do realnej kontroli. Liczba incydentów związanych z AI – od błędnych decyzji modeli, przez kontrowersyjne odpowiedzi, aż po masową produkcję dezinformacji – rośnie dziś znacznie szybciej niż możliwości państw czy instytucji do ich regulowania. W 2024 roku odnotowano rekordową falę nadużyć, błędów i awarii systemów uczących się: modele autonomiczne wykonywały nieprzewidywalne polecenia, chatboty generowały nielegalne instrukcje, a generatywne systemy obrazów były wykorzystywane do tworzenia fałszywych „dowodów” w sprawach sądowych czy medialnych. Mimo tak gwałtownego wzrostu skali problemu, standardy bezpieczeństwa pozostają dopiero w fazie kształtowania: red teaming jest prowadzony fragmentarycznie, benchmarki etyczne nie są ujednolicone, a oceny ryzyka często mają charakter eksperymentalny, zależny od dobrej woli firm.

Najpoważniejszym ryzykiem krótkoterminowym, wskazywanym w raportach WEF, WEF Global Risks Report oraz licznych audytach akademickich, jest dezinformacja wyborcza i syntetyczne media. Generowanie realistycznych deepfake’ów polityków (głosu, twarzy i zachowania) stało się procesem trwającym minuty, a nie tygodnie. W trakcie audytów poprzedzających eurowybory wykazano, że systemy moderacji w dużych platformach są nierówne i niespójne: modele bardziej skutecznie filtrują angielski, a treści w językach lokalnych często nie są oznaczane ani usuwane. To prowadzi do realnej asymetrii ryzyka: społeczności posługujące się mniej popularnymi językami stają się łatwiejszym celem dla operacji wpływu. W efekcie AI nie tylko generuje nowe rodzaje zagrożeń, ale też wzmacnia istniejące luki infrastrukturalne, na które świat nie jest jeszcze przygotowany.

 

Gdy technologia przyspiesza, a cała reszta zostaje w tyle

Koszt trenowania najnowszych modeli rośnie wykładniczo, a dostęp do infrastruktury obliczeniowej (od GPU po centra danych) kontroluje dziś zaledwie kilka globalnych firm. Dostawcy chipów notują rekordowe przychody, czołowi gracze AI budują kolejne gigafarmy serwerów, a mniejsze firmy praktycznie nie mają szans wejść do tego wyścigu. Konsekwencje są poważne: koncentracja kapitału i mocy obliczeniowej ogranicza różnorodność badań, spłaszcza innowację i utrwala podział na nielicznych „twórców” technologii oraz ogromną grupę „zwykłych użytkowników”, którzy mogą jedynie konsumować gotowe rozwiązania.

AI nie zmienia więc tylko technologii, lecz również strukturę rynku pracy i społeczeństwa. Raport Międzynarodowej Organizacji Pracy pokazuje, że automatyzacja najmocniej uderzy w stanowiska administracyjne i biurowe, czyli te, w których dominują kobiety. Co prawda nie oznacza to od razu masowego bezrobocia, ale wymusza masową przebudowę kompetencji i redefinicję całych sektorów. Transformacja będzie nierówna, a jej skutki silnie zależne od polityk publicznych, inwestycji w edukację i dostęp do technologii.

Regulacje próbują nadążyć za zmianami, ale robią to z opóźnieniem. Unijny AI Act wprowadza pierwsze na świecie kompleksowe ramy prawne dla modeli ogólnego przeznaczenia – od oceny ryzyka po obowiązki dokumentacyjne. W USA obowiązuje już rozporządzenie EO 14110 oraz ramy NIST AI RMF, które nakładają wymogi testowania najbardziej ryzykownych systemów i budowy procesów bezpieczeństwa na poziomie organizacji. To ważne kroki, ale ich realne wdrożenie – zarówno przez firmy, jak i administracje – dopiero się rozpoczyna.

W szerszej perspektywie fala odejść z największych laboratoriów nie jest zbiorem indywidualnych decyzji, lecz sygnałem systemowego napięcia między innowacją a odpowiedzialnością. Sztuczna inteligencja weszła w fazę, w której rozwija się szybciej, niż zdolni jesteśmy ją kontrolować. Hinton, Murati, Karpathy i LeCun pochodzą z różnych środowisk i wierzą w różne wizje technologii, ale ich wspólny krok w tył pokazuje jedno: granica między nauką a biznesem została przekroczona, a AI potrzebuje nowego paradygmatu nadzoru i zaufania.

Branża stoi dziś przed koniecznością znalezienia równowagi między tempem a bezpieczeństwem, ambicją a odpowiedzialnością. Bo jeżeli odchodzą ludzie, którzy tę technologię stworzyli, to znaczy, że fundament wymaga nie kosmetyki, ale głębokiej naprawy. Pytanie nie brzmi już, czy nas na taką naprawę stać – tylko czy zdążymy jej dokonać, zanim technologia ostatecznie wymknie się spod społecznej kontroli.

 

 

 

Źródła:

„Godfather of AI’ Geoffrey Hinton quits Google and warns over dangers of misinformation” – The Guardian, maj 2023
„OpenAI CTO Mira Murati says she’s leaving the company” – TechCrunch, wrzesień 2024
„OpenAI’s technology chief Mira Murati to leave …” – Reuters, wrzesień 2024
„Meta chief AI scientist Yann LeCun plans to exit to launch startup” – Financial Times, listopad 2025