8. Na čem se bude počítat v budoucnu?


Na obr. 2 jsou schematicky znázorněny požadavky na řešení některých vědeckých a technických problémů v počtu operací. Porovnejme s nimi schopnosti různých výpočetních prostředků, které jsou shrnuty v tabulce 5. Do kategorie serverů byly zahrnuty mj. víceprocesorové pracovní stanice, spřežení pracovních stanic a masivně paralelní počítače s menším počtem procesorů, zatímco kategorie superpočítačů je tvořena paralelně vektorovými počítači a masivně paralelními počítači s velkým počtem procesorů.

Uvažujeme-li středně rozsáhlý problém, jehož složitost je kolem 1012 operací, zjistíme, že na pracovní stanici by se řešil více než 105 s, tj. 30 hodin, na serveru 103 s nebo dokonce 104 s , tj. 0,5 - 3 hod. a na superpočítači 102 - 103 s, tedy jen několik minut.

Obr. 2
Náročnost vědeckých a technických úloh na počet operací

Poněkud složitější problém, který je dnes obvyklejší, vyžaduje asi 1015 operací a všechny počítače by ho řešily 1000krát déle, což v případě pracovní stanice činí několik let, ale na superpočítači jen 106 sekund (10 dnů). Nezapomínejme, že v praxi je třeba takové problémy řešit pro různé hodnoty parametrů, což vede k mnohanásobnému opakování výpočtů. To je reálně možné jen na superpočítačích.

Počítač

Výkon [Flops]

Cena tis. US$

osobní počítače

< 107

< 3

pracovní stanice

(5 až 50) * 107

5 až 100

servery

108 až 109

100 až 2000

superpočítače

109 až 1012

1000 až 30000

Tabulka 5
Skutečný výkon a cena některých typů počítačů

Předpovídat vývoj v oblasti počítačů je obtížné, protože se všechno mění nesmírně rychle. Vzpomínám si na jednu prognózu prominentní americké firmy z roku 1991, zabývající se marketingovými studiemi, která ještě tehdy velice podcenila rozvoj mikropočítačů. A dnes se jejich výrobci pokoušejí vytlačit superpočítače! V jiné několik let staré prognóze se uvádělo, že procesory osobních počítačů a pracovních stanic nebudou potřebovat paměť větší než 1 MB. Bylo to samozřejmě ještě před érou  MS Windows . Přesto se o určitý odhad budoucího vývoje na vrcholu počítačové hierarchie pokusme.

Klasické vektorové superpočítače pravděpodobně nezaniknou ještě řadu let, protože mají rozsáhlou klientelu a jejich přednosti pro špičkové výpočty nebudou asi hned překonány. Např. meteorologové používají pro výpočet předpovědi počasí převážně systémy  Cray ,  NEC  nebo  Fujitsu . Bude určitě pokračovat “demokratizace” a zlevňování superpočítačů (především v důsledku proniknutí japonských počítačů do této oblasti), takže až definitivně opustí svůj zanikající exkluzívní klub, stanou se nedílnou součástí jednotného světového prostředí pro náročné výpočty, které bude organicky napojeno na pracovní stanice na stolech techniků a vědců v jednotné elektronické síti. V nižších výkonových kategoriích se vektorová architektura již začíná kombinovat s výkonnějšími skalárními procesory, takže zanedlouho budou místo specializovaných vektorových počítačů na jedné straně a skalárních počítačů na straně druhé komplexní výkonné a inteligentní výpočetní prostředky, schopné samy posoudit, která část systému je nejvhodnější pro jednotlivé části programu.

Vyloučit však nelze ani takovou situaci, že masivně paralelní počítače (spíše ty se sdílenou pamětí) budou podstatně levnější než “lidové” vektorové počítače, protože se sníží cena jejich součástek, úspěšně a levně se vyřeší komunikace s pamětí, aby byla na úrovni vektorových počítačů, jejich programování bude stejně snadné a komerční aplikace budou stejně snadno dostupné. Pak by tyto počítače mohly ovládnout oblast náročných výpočtů.

Pro nejbližší léta takovou revoluci však nelze očekávat. Jedním z hlavních důvodů je značná setrvačnost v oblastech, kde je spolehlivost výsledků hlavním kritériem volby. A tento argument bude ještě řadu let mluvit pro vektorové superpočítače. Ale i v nových aplikacích typu amerických  Grand Challenge  bylo zatím všech výsledků dosaženo jen s použitím počítačů s vektorovou architekturou.

Jestliže si znovu uvědomíme, že počítače jsou jen nepatrně využívány pro skutečné počítání, a že tento trend bude spíše zesilovat, můžeme očekávat dokonce vytvoření speciálních strojů určených pro výpočty, které by mohly velmi efektivně zásluhou dokonalého softwaru a kombinované architektury vyřešit všechny problémy náročné na výpočty. Anebo dokonce proč by nemohlo vzniknout jedno (distribuované) světové středisko, které bude opravdu počítat skoro všechno a to pro každého?


© J. Nadrchal (28.4.2000)