Superpočítače, rok 2019. Vyhlíží se první exascale

Luboš Kolář, jeden z největších českých odborníků na HPC, zasvěceně o blízké budoucnosti

Trendy

Dosáhnout exascale. To je nejbližší meta, k níž se snaží přiblížit výrobci nejvýkonnějších počítačových systémů světa. Podle Luboše Koláře z Hewlett Packard Enterprise je reálné, že ji lidstvo dosáhne poprvé v roce 2021. I když to pravděpodobně bude v tu chvíli spíše symbolické vítězství, protože výkon bude spíše teoretický, než na sto procent prakticky využitelný standardními výpočetními úlohami. Jak vypadá současná situace ve vývoji superpočítačů? „Děláme významné evoluční kroky, ale s nimi narážíme na mnohé fyzikální limity. Proto vyhlížíme revoluci, která by nás posunula skokově,“ doplňuje jeden z největších českých odborníků na oblast high performance computingu.

„Ocitli jsme se na rozcestí. Je jasné, že nejde donekonečna jen přidávat další a další zařízení. Škálování je vždy možné jen do určité míry. Čím víc toho propojíme, tím více toho ztrácíme, nedokážeme dosáhnout dokonalé integrace nebo napsat software, který je dostatečně paralelní na to, aby dokázal na 100% efektivně oslovit miliony procesorů. Zároveň je mnoho operací, které se paralelizovat ani nedají,“ doplňuje Luboš Kolář. K budoucnosti proto povedou různé technologické cesty. A nepřijdou v jeden čas, bude to postupný evoluční i revoluční vývoj.

Memory-driven computing

Velká očekávání v oblasti skokové změny vpřed vzbuzuje oblast memory-driven computingu. „Nemá smysl stavět a propojovat tisíce a statisíce počítačů, které mají svoji vlastní paměť a musí si data neustále složitě vyměňovat po síti. Budoucnost je ve velké sdílené paměti, kterou si můžeme představit třeba jako obrovský bazén dat, do kterého všichni vidí a mohou si do něj pro cokoli napřímo sáhnout. Jenom si o tom navzájem řeknou. Ověřili jsme, že řešení funguje. Ale čeká nás ještě další vývoj, než tento koncept uvedeme v plném rozsahu do praxe,“ říká Luboš Kolář.

Fotonika

Jednička a nula – ano nebo ne? To je, a samozřejmě vždy bude, základem logiky celého světa výpočetní techniky. Na druhou stranu, jsou různé cesty, jak informaci předávat a cílem je zvolit tu, která se svou rychlostí blíží rychlosti světla a ideálně ji přímo dosahuje. Proto je velkým příslibem tzv. „sillicon photonics“ – fotonika, která nepřenáší jedničky a nuly elektricky, ale za pomoci světelných paprsků. „S využitím fotoniky jsme schopni se zlomkem energetické náročnosti propojit větší množství serverů na mnohem delší vzdálenost a s násobně vyšším výkonem. A až se s fotonikou dostaneme na úroveň čipu, tak už nebudeme propojovat jen systémy, ale i subsystémy a komponenty mezi sebou. V současnosti je to stále v laboratorní fázi, aktuálně prezentujeme první prototypy, ale v brzké budoucnosti už by to mohla být součást high performance computingu a přinést jednu z tak velmi potřebných revolučních změn,“ vysvětluje Luboš Kolář.

Protokol Gen-Z

Konsorcium předních výrobců základních počítačových komponent (jako jsou procesory, paměti, disky, grafiky, I/O adaptéry, atd.) definovalo nový standard komunikace, který mají splňovat jejich budoucí varianty produktů. Stojí na zcela novém a jednotném protokolu komunikace, který je jednodušší, a tedy efektivnější a výkonnější než jeho předchůdci. Díky tomu dokáže přenášet data mnohem rychleji. Gen-Z je základem moderní infrastruktury, která otřese tradičním konceptem konstrukce počítačů, aniž by přidávala další železo. Detailněji se problematice Gen-Z a tématu Exascale věnoval nedávno uveřejněný článek „Gen-Z: Protokol, který osvobodí…“

Akcelerátory

V tomto případě nejde ani tak o revoluci, jako spíš o optimalizaci. Každý systém má určité, předem známé, opakovatelné úlohy, které vykonává stále znovu a znovu, a proto je zbytečné využívat výkon komplexních procesorů na jejich řešení. K tomu slouží právě akcelerátory. V příštích letech můžeme očekávat vysoký nárůst těchto specializovaných procesorů, které dokáží akcelerovat konkrétní operace a zásadně tak navyšovat celkový výkon. „Standardní procesory mají univerzální architekturu, se kterou zvládají širokou škálu instrukcí, ale platí za to velkou komplexností a režií. Oproti tomu akcelerátory mají specifickou konstrukci a speciální mikro kód – mnohdy velmi omezenou instrukční sadu. Díky tomu se specializují na jednu konkrétní věc, například maticovou operaci, a tu pak vykonají oproti standarnímu procesoru za zlomek času. Tím ušetříme nejen čas, ale i podstatnou část energie a tedy i ceny,“ říká Luboš Kolář. Velký rozmach akcelerátorů nesměřuje jen do oblasti polovodičových technologií (speciální procesory jako jsou grafické akcelerátory, vektorové procesory, FPGA, atd…), ale využívat se začínají i jiné fyzikální principy a technologie – kvantové, optické, analogové a další.

Softwarová vylepšení

Velkým problémem současných extrémně výkonných superpočítačů jsou nároky na napájení a fyzický prostor pro jejich umístění. Aby se dosáhlo exascalu, je dnes potřeba vlastní menší elektrárna o výkonu stovek megawatt a zároveň datacentrum o rozloze fotbalového hřiště. To znamená neskutečné tuny železa a tisíce kilometrů kabelů. Obrovský teoretický výkon, který je pak takový superpočítač schopný vygenerovat, není většinou současných aplikací efektivně využitelný. „Proto vyvíjíme takový software, který bude schopen využít hardware, který je pod ním, mnohem efektivněji. Z pohledu HPE, jako dodavatele technologické platformy, se jedná především o vrstvu driverů, knihoven a dalších middlewarů, které umožňují aplikaci čerpat co nejvíce výkonu. Zároveň pak čeká obrovský kus práce na vývojáře výpočetních algoritmů, modelů a tedy aplikací samotných,“ uzavírá Luboš Kolář.


Sledujte nás

Stojí za přečtení

banner