Simulátor Země - Earth Simulator

Earth Simulator (ES), původní verze
Propojovací stojan Earth Simulator
Stojan na zpracování simulátoru Země
Modul aritmetického zpracování Earth Simulatoru
Earth Simulator 2 (ES2)
Earth Simulator 3 (ES3)

The Earth Simulator ( ES ) (地球 シ ミ ュ レ ー タ, Chikyū Shimyurēta ) , vyvinutý japonskou vládní iniciativou „Earth Simulator Project“, byl vysoce paralelní vektorový superpočítačový systém pro provoz globálních klimatických modelů k vyhodnocení účinků globálního oteplování a problémů v pevné zemi geofyzika. Systém byl vyvinut pro Japan Aerospace Exploration Agency , Japan Atomic Energy Research Institute a Japan Marine Science and Technology Center (JAMSTEC) v roce 1997. Stavba byla zahájena v říjnu 1999 a místo bylo oficiálně otevřeno 11. března 2002. Projekt stál 60 miliard jen .

Postavený NEC , ES byl založen na jejich architektuře SX-6 . Skládal se z 640 uzlů s osmi procesorů vektoru a 16 GB v paměti počítače v každém uzlu, pro celkem 5120 procesorů a 10 TB paměti. Byly nainstalovány dva uzly na skříň 1 metr × 1,4 metru × 2 metry. Každá skříň spotřebovala 20 kW energie. Systém měl 700 terabajtů o ukládání na disk (450 k systému 250 pro uživatele) a 1,6 petabajtů na velkokapacitní paměťové zařízení do páskové jednotky . Dokázal spustit holistické simulace globálního klimatu v atmosféře i oceánech až na rozlišení 10 km. Jeho výkon v benchmarku LINPACK byl 35,86 TFLOPS , což bylo téměř pětkrát rychlejší než předchozí nejrychlejší superpočítač ASCI White . Od roku 2020 lze dosáhnout srovnatelného výkonu pomocí 4 GPU Nvidia A100, každý s 9,746 FP64 TFlops.

ES byl nejrychlejší superpočítač na světě od roku 2002 do roku 2004. Její kapacita byla překonaný IBM ‚s Blue Gene / L prototypu dne 29. září 2004.

ES byl nahrazen Earth Simulatorem 2 (ES2) v březnu 2009. ES2 je systém NEC SX-9/E a má čtvrtinový počet uzlů, každý s 12,8násobkem výkonu (3,2 × taktovací frekvence, čtyřnásobek zdroje zpracování) na uzel), pro špičkový výkon 131 TFLOPS. S dodaným výkonem LINPACK 122,4 TFLOPS byl ES2 v té době nejefektivnějším superpočítačem na světě. V listopadu 2010 společnost NEC oznámila, že ES2 dosáhl vrcholu Global FFT, jednoho z opatření HPC Challenge Awards , s výkonem 11 876 TFLOPS.

ES2 byl nahrazen Earth Simulator 3 (ES3) v březnu 2015. ES3 je systém NEC SX-ACE s 5120 uzly a výkonem 1,3 PFLOPS.

ES3, od roku 2017 do roku 2018, běžel po boku Gyoukou , superpočítače s ponorným chlazením, který může dosáhnout až 19 PFLOPS.

Přehled systému

Hardware

Simulátor Země (zkráceně ES) byl vyvinut jako národní projekt třemi vládními agenturami: National Space Development Agency of Japan (NASDA), Japan Atomic Energy Research Institute (JAERI) a Japan Marine Science and Technology Center (JAMSTEC) ). ES je umístěn v budově simulátoru Země (přibližně 50 m × 65 m × 17 m). Earth Simulator 2 (ES2) využívá 160 uzlů NEC SX-9E. Upgrade Earth Simulatoru byl dokončen v březnu 2015. Systém Earth Simulator 3 (ES3) využívá 5120 uzlů NEC SX-ACE.

Konfigurace systému

ES je vysoce paralelní vektorový superpočítačový systém typu distribuované paměti a sestával ze 160 procesorových uzlů propojených sítí Fat-Tree Network. Každý uzel procesoru je systém se sdílenou pamětí, který se skládá z 8 aritmetických procesorů vektorového typu a 128 GB systému hlavní paměti. Špičkový výkon každého aritmetického procesoru je 102,4 G. ES jako celek se tedy skládá z 1280 aritmetických procesorů s 20 TB hlavní paměti a teoretickým výkonem 131Tflops.

Konstrukce CPU

Každý procesor se skládá ze 4směrné super skalární jednotky (SU), vektorové jednotky (VU) a hlavní jednotky pro řízení přístupu do paměti na jednom čipu LSI. CPU pracuje na frekvenci 3,2 GHz. Každá VU má 72 vektorových registrů, z nichž každý má 256 vektorových prvků, spolu s 8 sadami šesti různých typů vektorových potrubí: sčítání /přesouvání, násobení, dělení, logické operace, maskování a načítání /ukládání. Stejný typ vektorových potrubí funguje společně pomocí jedné vektorové instrukce a potrubí různých typů může fungovat souběžně.

Uzel procesoru (PN)

Procesorový uzel se skládá z 8 CPU a 10 paměťových modulů.

Propojovací síť (IN)

Dálkový ovladač je přímo připojen k přepínačům příčníků a ovládá datovou komunikaci mezi uzly obousměrnou přenosovou rychlostí 64 GB/s pro odesílání i přijímání dat. Celková šířka pásma meziuzlové sítě je tedy přibližně 10 TB/s.

Skříň procesoru s uzlem (PN)

Procesorový uzel se skládá ze dvou uzlů jedné skříně a skládá se z napájecího zdroje, části 8 paměťových modulů a PCI boxu s 8 CPU moduly.

Software

Níže je uveden popis softwarových technologií používaných v operačním systému, Job Scheduling a programovacím prostředí ES2.

Operační systém

Operační systém běžící na ES, „Earth Simulator Operating System“, je vlastní verzí NEC SUPER-UX používanou pro superpočítače NEC SX, které tvoří ES.

Velkokapacitní souborový systém

Pokud velká paralelní úloha běžící na 640 PN čte z/zapisuje na jeden disk nainstalovaný v PN, každý PN přistupuje k disku v pořadí a výkon se strašně zhoršuje. Přestože problém vyřeší místní I/O, ve kterém každý PN čte nebo zapisuje na vlastní disk, je velmi náročná práce na správu tak velkého počtu dílčích souborů. Poté ES přejímá Staging and Global File System (GFS), který nabízí vysokorychlostní výkon I/O.

Plánování práce

ES je v podstatě dávkový systém. Pro správu dávkové úlohy je zaveden Network Queuing System II (NQSII). Konfigurace fronty simulátoru Země. ES má fronty dvou typů. S dávková fronta S je určena pro dávkové úlohy s jedním uzlem a L dávková fronta je pro dávkovou frontu s více uzly. Existují fronty dvou typů. Jedna je L batch queue a druhá je S batch queue. Fronta S batch je zaměřena na použití pro před spuštěním nebo po spuštění pro rozsáhlé dávkové úlohy (vytváření počátečních dat, výsledky zpracování simulace a další procesy) a fronta L batch je pro produkční běh. Uživatelé si pro svou úlohu zvolí příslušnou frontu.

  1. Uzly přidělené dávkové úloze se používají výhradně pro tuto dávkovou úlohu.
  2. Dávková úloha je naplánována na základě uplynulého času místo času CPU.

Strategie (1) umožňuje odhadnout čas ukončení úlohy a usnadnit alokaci uzlů pro další dávkové úlohy předem. Strategie (2) přispívá k efektivnímu provádění práce. Úloha může používat výhradně uzly a procesy v každém uzlu lze provádět současně. Výsledkem je, že rozsáhlý paralelní program lze efektivně provádět. PNs systému L mají zakázán přístup na uživatelský disk, aby byl zajištěn dostatečný výkon I/O disku. proto se soubory používané dávkovou úlohou zkopírují z uživatelského disku na pracovní disk před spuštěním úlohy. Tento proces se nazývá „zavádění“. Je důležité skrýt tento pracovní čas pro plánování úloh. Hlavní kroky plánování úloh jsou shrnuty následovně;

  1. Přidělení uzlu
  2. Stage-in (automatické kopírování souborů z uživatelského disku na pracovní disk)
  3. Eskalace úlohy (pokud je to možné, přeplánujte na dřívější odhadovaný čas zahájení)
  4. Provedení práce
  5. Vyřazení (automatické kopírování souborů z pracovního disku na uživatelský disk)

Po odeslání nové dávkové úlohy plánovač prohledá dostupné uzly (krok 1). Poté, co jsou uzly a odhadovaný čas začátku přiděleny dávkové úloze, spustí se proces zavádění (krok 2). Úloha čeká, až bude dokončen odhadovaný čas zahájení po dokončení procesu zavádění. Pokud plánovač najde dřívější čas zahájení než odhadovaný čas začátku, přidělí nový čas začátku dávkové úloze. Tento proces se nazývá „Job Escalation“ (krok 3). Když přijde odhadovaný čas začátku, plánovač provede dávkovou úlohu (krok 4). Plánovač ukončí dávkovou úlohu a zahájí proces odstupňování po dokončení úlohy nebo po uplynutí deklarované doby (krok 5). Chcete-li spustit dávkovou úlohu, uživatel se přihlásí na přihlašovací server a odešle dávkový skript do ES. A uživatel čeká, dokud nebude provedení úlohy dokončeno. Během této doby může uživatel sledovat stav dávkové úlohy pomocí konvenčního webového prohlížeče nebo uživatelských příkazů. Plánování uzlů, příprava souborů a další zpracování jsou systémem automaticky zpracovávány podle dávkového skriptu.

Programovací prostředí

Programovací model v ES

Hardware ES má 3úrovňovou hierarchii paralelismu: vektorové zpracování v AP, paralelní zpracování se sdílenou pamětí v PN a paralelní zpracování mezi PN přes IN. Chcete -li plně využít vysoký výkon ES, musíte vyvinout paralelní programy, které takový paralelismus využívají co nejvíce. tříúrovňovou hierarchii paralelismu ES lze použít dvěma způsoby, které se nazývají hybridní a plochá paralelizace. V hybridní paralelizaci je meziuzlový paralelismus vyjádřen pomocí HPF nebo MPI a vnitrodruhový uzel pomocí mikrotaskingu nebo OpenMP, a proto musíte při psaní programů brát v úvahu hierarchický paralelismus. V ploché paralelizaci může být paralelizmus mezi i uvnitř uzlů vyjádřen pomocí HPF nebo MPI a není nutné, abyste uvažovali o tak komplikovaném paralelismu. Obecně lze říci, že hybridní paralelizace je lepší než plochá ve výkonu a naopak ve snadném programování. Knihovny MPI a doby běhu HPF jsou optimalizovány tak, aby fungovaly co nejlépe v hybridní i ploché paralelizaci.

Jazyky

K dispozici jsou kompilátory pro Fortran 90, C a C ++. Všechny mají pokročilou schopnost automatické vektorizace a mikrotaskingu. Mikrotasking je jakýsi multitasking poskytovaný současně Crayovu superpočítači a používá se také pro paralelizaci uvnitř uzlu na ES. Mikrotasking lze ovládat vložením směrnic do zdrojových programů nebo pomocí automatické paralelizace kompilátoru. (Všimněte si toho, že OpenMP je k dispozici také ve Fortran 90 a C ++ pro paralelizaci uvnitř uzlu.)

Paralelizace

Rozhraní pro předávání zpráv (MPI)

MPI je knihovna pro předávání zpráv založená na standardech MPI-1 a MPI-2 a poskytuje vysokorychlostní komunikační schopnosti, které plně využívají funkce IXS a sdílené paměti. Může být použit pro paralelizaci uvnitř i mezi uzly. Proces MPI je přiřazen přístupovému bodu v ploché paralelizaci nebo PN, který obsahuje mikrotask nebo vlákna OpenMP v hybridní paralelizaci. MPI knihovny jsou navrženy a optimalizovány opatrně, aby bylo dosaženo nejvyššího výkonu komunikace na architektuře ES v obou paralelizačních způsobech.

Vysoce výkonný Fortrans (HPF)

Hlavní uživatelé ES jsou považováni za přírodovědce, kteří nejsou nezbytně obeznámeni s paralelním programováním nebo ho spíše nemají rádi. Proto je paralelní jazyk vyšší úrovně velmi žádaný. HPF/SX poskytuje snadné a efektivní paralelní programování na ES, aby uspokojilo poptávku. Podporuje specifikace HPF2.0, jeho schválená rozšíření, HPF/JA a některá jedinečná rozšíření pro ES

Nástroje

-Integrované vývojové prostředí (PSUITE)

Integrované vývojové prostředí (PSUITE) je integrace různých nástrojů pro vývoj programu, který funguje pomocí SUPER-UX. Protože PSUITE předpokládá, že GUI může používat různé nástroje, a má koordinovanou funkci mezi nástroji, přichází možnost vyvinout program efektivněji než metoda vývoje minulosti programu a snadno.

-Podpora ladění

V SUPER-UX jsou jako silné funkce ladění na podporu vývoje programu připraveny následující.

Zařízení

Vlastnosti budovy simulátoru Země

Ochrana před přírodními katastrofami

Centrum Earth Simulator Center má několik speciálních funkcí, které pomáhají chránit počítač před přírodními katastrofami nebo událostmi. Nad budovou visí drátěné hnízdo, které pomáhá chránit před bleskem. Samotné hnízdo používá vysokonapěťové stíněné kabely k uvolnění bleskového proudu do země. Speciální systém šíření světla využívá halogenové žárovky instalované mimo stíněné stěny strojovny, aby se zabránilo vniknutí magnetického rušení do počítačů. Budova je postavena na seismickém izolačním systému složeném z gumových podpěr, které chrání budovu při zemětřesení.

Systém ochrany před bleskem

Tři základní vlastnosti:

  • Čtyři póly na obou stranách budovy simulátoru Země vytvářejí drátěné hnízdo, které chrání budovu před údery blesku.
  • Pro indukční vodiče, které uvolňují bleskový proud do země, se používá speciální vysokonapěťový stíněný kabel.
  • Pozemní desky jsou položeny tak, že jsou od budovy vzdáleny asi 10 metrů.

Osvětlení

Osvětlení: Systém šíření světla uvnitř trubice (průměr 255 mm, délka 44 m (49yd), 19 trubic) Světelný zdroj: halogenové žárovky o výkonu 1 kW Osvětlení: v průměru 300 lx u podlahy Zdroje světla instalovány mimo stíněné stěny strojovny.

Seizmický izolační systém

11 izolátorů (výška 1 stopa, průměr 3,3 stopy, 20vrstvé gumy podpírající dno budovy ES)

Výkon

LINPACK

Nový systém Earth Simulator (ES2), který byl zahájen v březnu 2009, dosáhl trvalého výkonu 122,4 TFLOPS a výpočetní účinnosti (*2) 93,38% na benchmarku LINPACK (*1).

  • 1. Benchmark LINPACK

Benchmark LINPACK je měřítkem výkonu počítače a používá se jako standardní měřítko pro hodnocení počítačových systémů v projektu TOP500. LINPACK je program pro provádění numerické lineární algebry na počítačích.

  • 2. Výpočetní účinnost

Výpočetní účinnost je poměr trvalého výkonu ke špičkovému výpočetnímu výkonu. Zde je to poměr 122,4TFLOPS k 131,072TFLOPS.

Výpočetní výkon WRF na simulátoru Země

WRF (Weather Research and Forecasting Model) je mesoscale meteorologický simulační kód, který byl vyvinut ve spolupráci mezi americkými institucemi, včetně NCAR (National Center for Atmospheric Research) a NCEP (National Centers for Environmental Prediction). Společnost JAMSTEC optimalizovala WRFV2 na simulátoru Země (ES2) obnoveném v roce 2009 měřením výpočetního výkonu. V důsledku toho bylo úspěšně prokázáno, že WRFV2 může běžet na ES2 s vynikajícím a trvalým výkonem.

Numerická meteorologická simulace byla provedena pomocí WRF na simulátoru Země pro polokouli Země s podmínkou modelu Nature Run. Prostorové rozlišení modelu je 4486 x 4486 horizontálně s roztečí mřížky 5 km a 101 úrovní vertikálně. Byly použity převážně adiabatické podmínky s krokem časové integrace 6 sekund. Na WRF s vysokým rozlišením bylo na Earth Simulatoru dosaženo velmi vysokého výkonu. Zatímco počet použitých jader CPU je pouze 1% ve srovnání se systémem nejrychlejší třídy na světě Jaguar (CRAY XT5) v národní laboratoři Oak Ridge, trvalý výkon získaný na simulátoru Země je téměř 50% výkonu naměřeného v systému Jaguar. Poměr špičkového výkonu na Earth Simulatoru je také rekordních 22,2%.

Viz také

Reference

externí odkazy

Evidence
Předchází
ASCI White
7.226 teraflops
Nejvýkonnější superpočítač na světě
březen 2002 - listopad 2004
Uspěl
Blue Gene/L
70,72 teraflopů

Souřadnice : 35 ° 22'51 "N 139 ° 37'34,8" E / 35,38083 ° N 139,626333 ° E / 35,38083; 139,626333