Data Center na orbicie okołoziemskiej?

Kosmiczny serwer z GPU H100? Brzmi jak science fiction, ale to realny projekt. Startup Starcloud z Redmond (USA), wspierany przez NVIDIĘ i firmę Crusoe Energy Systems, ogłosił, że jeszcze w listopadzie 2025 roku na pokładzie rakiety Falcon 9 poleci pierwszy satelita Starcloud-1. W jego wnętrzu znajdzie się akcelerator NVIDIA H100, czyli ten sam procesor, który napędza dziś największe centra danych sztucznej inteligencji na Ziemi. Misja ma być testem: czy można prowadzić obliczenia klasy data center poza atmosferą — zasilane energią słoneczną, chłodzone próżnią i działające całkowicie autonomicznie. Jak napisała NVIDIA na oficjalnym blogu: „Space isn’t just for stars anymore.” (NVIDIA Blog, „How Starcloud Is Bringing Data Centers to Outer Space”)

Energia 24/7 i chłodzenie próżnią

Z punktu widzenia fizyki pomysł nie jest szalony. W kosmosie nie ma nocy ani chmur, więc panele słoneczne mogą pracować 24 godziny na dobę, bez potrzeby magazynowania energii w bateriach. Drugą przewagą jest chłodzenie radiacyjne: w próżni ciepło można odprowadzać przez promieniowanie w podczerwieni, co eliminuje konieczność zużywania wody, która na Ziemi jest jednym z głównych kosztów i problemów centrów danych. Startup przekonuje, że łącząc oba efekty, można uzyskać nawet 10-krotnie niższy koszt energii w cyklu życia systemu niż w klasycznym data center. To kusząca wizja w epoce, gdy infrastruktura AI pochłania już setki terawatogodzin rocznie. „Nasze satelity mogą oferować zrównoważone, wysokowydajne obliczenia poza Ziemią” – pisze Starcloud w komunikacie dla mediów

Zielony sen branży AI

W planach Starcloud jest stworzenie konstelacji satelitów-serwerów połączonych w orbitalny klaster. Energia ma pochodzić z gigantycznych paneli fotowoltaicznych, a nadmiar ciepła być rozpraszany przez wielokilometrowe radiatory. Partner Crusoe zapowiada, że pierwsza komercyjna chmura „ze space” będzie dostępna w 2027 roku. Klienci mają móc korzystać z mocy GPU na orbicie tak samo, jak dziś z AWS czy Azure. Startup podkreśla również aspekt ekologiczny: brak zużycia wody, czyste źródło energii i redukcja emisji związanych z chłodzeniem centrów danych na Ziemi.

Rzeczywistość to niestety więcej pytań niż odpowiedzi

Tyle że na razie to tylko hipoteza. Wiarygodne źródła potwierdzają start satelity, ale żadne dane z testów nie istnieją. A lista pytań, które pozostają bez odpowiedzi, jest długa. Po pierwsze promieniowanie kosmiczne: GPU H100 nie jest układem „rad-hard”, czyli odpornym na promieniowanie. Jak Starcloud chce zabezpieczyć go przed uszkodzeniami? Czy zastosowano ECC, potrójną redundancję (TMR), a może specjalne osłony? Nikt tego nie ujawnił.

Po drugie: chłodzenie. Owszem, próżnia to „nieskończony radiator”, ale nie darmowy. Aby rozproszyć ciepło z setek kilowatów GPU, potrzebne są radiatory o powierzchni kilkuset metrów kwadratowych, bardzo ciężkie i trudne do wyniesienia na orbitę. Kolejny problem – łączność: jak przesłać petabajty danych między Ziemią a orbitą? Czy użyte zostaną łącza optyczne, radiowe, sieci sat-to-sat? Jakie będą opóźnienia? W przypadku trenowania dużych modeli AI każda milisekunda ma znaczenie. Koszty: deklaracje „10× tańszej energii” nie uwzględniają kosztu wyniesienia sprzętu, serwisowania, ubezpieczeń, ani strat wynikających z awarii. Eksperci zwracają uwagę, że całkowity koszt (TCO) może być na początku wręcz wyższy niż na Ziemi. A na koniec – regulacje i bezpieczeństwo: nie wiadomo, pod czyją jurysdykcją będą działać takie centra danych. Jak rozwiązać kwestie ochrony danych, cyberbezpieczeństwa i odpowiedzialności za potencjalne awarie?

Gigawat w kosmosie? Może za 20 lat

Pomysł Starcloud wpisuje się w szerszy trend myślenia o energetyce i infrastrukturze poza Ziemią. Jeff Bezos już kilka lat temu mówił o tym, że „przemysł ciężki przeniesiemy do kosmosu, a Ziemia stanie się rezerwatem”. Szef Blue Origin szacował, że gigawatowe centra danych w kosmosie mogłyby powstać w perspektywie 10–20 lat, ale przyznał, że wymaga to zupełnie nowej logistyki – „setek startów, milionów metrów kwadratowych paneli i radykalnej redukcji kosztu wynoszenia”. Krótko mówiąc: nie niemożliwe, ale jeszcze bardzo dalekie od realiów.

Co naprawdę przyniesie Starcloud-1

Misja planowana na listopad 2025 roku będzie pierwszym eksperymentem tego typu. Warto więc traktować ją jako test, a nie rewolucję. Jeśli uda się potwierdzić odporność GPU, stabilność zasilania i niezawodność łączności, może to otworzyć drogę do nowych form „kosmicznej chmury”. Ale jeśli okaże się, że promieniowanie psuje układy, a przesyłanie danych jest zbyt drogie, wizja „zielonego data center w orbicie” pozostanie efektowną metaforą. Na razie to hype z potencjałem!

Nie ma wątpliwości, że NVIDIA gra odważnie: pokazuje, że myślenie o infrastrukturze AI sięga już poza planetę. Ale dopóki nie poznamy danych telemetrycznych z misji Starcloud-1, trudno ocenić, czy to nowy etap rewolucji obliczeniowej, czy po prostu sprytne połączenie zielonego marketingu z kosmicznym PR-em.

Jak na razie: idea ma sens fizyczny, ale nie ma jeszcze sensu ekonomicznego.

 

 

Źródła:

  • NVIDIA Blog: “How Starcloud Is Bringing Data Centers to Outer Space” – blogs.nvidia.com
  • Space.com: “Powerful NVIDIA chip launching to orbit next month”
  • DataCenterDynamics: “Crusoe to deploy in Starcloud satellite data center in late 2026”
  • Crusoe Energy Systems – oficjalny komunikat prasowy
  • Tom’s Hardware: “NVIDIA’s H100 chip is heading to space on Starcloud satellite”