Fugaku Next, to projekt nowego japońskiego superkomputera, który wielokrotnie przewyższy mocą obliczeniową obecne maszyny, ale… no właśnie, Next ma być pierwszą maszyną, która przeniesie komputery do tzw. kategorii zeta, czyli zdolności wykonywania ponad sekstyliona (1 i 21 zer) obliczeń na
sekundę. Najpotężniejsze współczesne maszyny są 1000x słabsze. Tak ogromny wzrost mocy obliczeniowej pozwoli Japonii stawić czoła najbardziej złożonym wyzwaniom w dziedzinie sztucznej inteligencji i badań naukowych. Japońskie Ministerstwo Edukacji, Kultury, Sportu, Nauki i Technologii miało dwie możliwości – budować jednocześnie dziesiątki drogich, ale przeciętnych maszyn lub postawić na budowę jednego komputera, który przebije wszystkie inne na świecie. Wybrano tę drugą opcję.
Ponieważ sztuczna inteligencja staje się coraz istotniejszym elementem postępu naukowego, zaangażowanie Japonii w rozwój superkomputera klasy zeta ma podkreślić determinację tego kraju do powrotu na pozycję lidera innowacji technologicznych, utraconą w 2022 r. Najszybszy japoński superkomputer Fugaku jest zainstalowany w RIKEN Center for Computational Science (R-CCS) w Kobe. Instalacja zajmuje 1920 metrów kwadratowych powierzchni użytkowej (co odpowiada czterem boiskom do koszykówki) i ma zapotrzebowanie na moc rzędu 30 MW. Maszyna jest co prawda nadal w pierwszej piątce światowych liderów obliczeniowych, ale oznacza to również konieczność wykonania przez Japończyków dużego skoku, aby przegonić najlepszych. Obliczenia wykonywane przez Fugaku istotnie wpłynęły na przyspieszenie odkrycia środków zaradczych przeciwko Covid-19. Testy symulacyjne były przez maszynę wykonywane 100x szybciej niż przez ówczesne konkurencyjne komputery. Jego prędkość można dziś porównać do potencjału obliczeniowego 2 mln smartfonów dobrej klasy. Technologia jednak cały czas się rozwija i w ciągu 5 lat pracy osiągi Fugaku przestały błyszczeć z pełną mocą.
Budowa nowego superkomputera rozpocznie się w 2025 roku i potrwa aż 6 lat. Dlaczego tak długo? Po pierwsze projekt ma pochłonąć ponad 760 milionów dolarów. Po drugie sprzęt musi zostać pieczołowicie zaprojektowany i oprogramowany, aby uniknąć wąskich gardeł ograniczających wydajność i zapewnić kompatybilność z innymi japońskimi super maszynami. Po trzecie i najważniejsze – komputer tysiąc razy szybszy powinien teoretycznie potrzebować nawet tysiąc razy więcej energii do działania, korzystając z obecnych technologii (czyli około 30 GW a więc tyle ile wynosi maksymalne zapotrzebowanie naszego kraju na moc).
Aby zasilić to monstrum już dziś, niezbędne byłoby 20 dużych reaktorów jądrowych lub setki milionów paneli słonecznych i magazyny o ogromnej pojemności. Te liczby należy oczywiście traktować jako absolutnie szacunkowe, gdyż przy takich założeniach finalny produkt nigdy nie powstanie. Japonia od czasu katastrofy elektrowni jądrowej w Fukushimie w 2011 roku boryka się bowiem i bez niego brakami niskoemisyjnej i zielonej energii elektrycznej.
Alternatywą jest skok technologiczny w wydajności stosowanych procesorów głównych, układów graficznych i pamięci masowych. Ogromnym doświadczeniem w tym zakresie dysponuje Fujitsu, któremu powierzono stworzenie architektury nowego superkomputera. W zespołach roboczych będą aktywnie uczestniczyć fachowcy z Intela, IBM-a, Nvidii i Hewlett-Packarda. Wyzwanie jest bowiem ogromne. Produkcją samych chipów zajmie się najprawdopodobniej tajwański TSMC, światowy lider w produkcji energooszczędnych układów o rekordowej skali integracji, z którego usług korzysta nawet Intel. Obecne topowe procesory dla smartfonów i komputerów domowych są wykonywane w procesie 4 nm. Jeżeli TSMC będzie na czas gotowe z technologią 1 nm, wówczas plan Japończyków może się powieść, bo będzie to oznaczało zarówno znaczny wzrost zagęszczenia tranzystorów na płytce krzemowej, jak też istotny spadek jednostkowego zużycia energii. Oddzielny zespół roboczy przeanalizuje możliwości wykorzystania w nowej konstrukcji rozwiązań zaczerpniętych z komputerów kwantowych (tzw. Quantum AI) i neurokomputerów zorientowanych na przetwarzanie równoległe.
Niezależnie od tego, jaka będzie finalna moc obliczeniowa nowego superkomputera w Japonii, zapotrzebowanie na przetwarzanie danych ciągle rośnie. Znana firma Oracle dysponuje ponad 160 centrami danych na całym świecie, z których największe potrzebuje 800 MW mocy. Kolejne budowane centra mają mieć jednostkową moc rzędu 1 GW. Według badania opublikowanego w maju 2024 r. przez amerykański EPRI (Electric Power Research Institute) z Doliny Krzemowej, do 2030 roku centra danych mogą zużywać aż 9% energii elektrycznej wytwarzanej w USA – ponad dwukrotnie więcej niż obecnie. Wraz z rosnącym zużyciem energii wzrasta też ich zapotrzebowanie na wodę chłodzącą oraz emisja ciepła do atmosfery. Komputery, które miały pomóc ludzkości w bezpiecznym rozwoju są niestety znacznie częściej wykorzystywane do celów rozrywkowych i militarnych. Tym bardziej ważne jest więc optymalizowanie zużycia energii przez centra danych i ograniczanie ich wpływu na środowisko, choć dla producentów i dostawców usług oznacza to istną ekwilibrystykę w zakresie prowadzonych działań.
Krzysztof Hajdrowski
