Hjem Fremover tenking Supercomputing 15: større endringer i horisonten

Supercomputing 15: større endringer i horisonten

Video: Introducing the NYU Greene Supercomputer, One of the Fastest in Higher Ed (Oktober 2024)

Video: Introducing the NYU Greene Supercomputer, One of the Fastest in Higher Ed (Oktober 2024)
Anonim

Mens jeg ser på kunngjøringer og forhandlinger fra forrige måneds Supercomputing 15 (SC15) -konferanse i Austin, ser det ut til at selv om høyytelsesdatabehandling kan være i litt av en stillhet, er det et marked som er klar for store endringer i året til komme.

Hvis du ser på lederne på top500-listen, den to ganger årlige listen over verdens raskeste datamaskiner, er lederen for sjette gang på rad Tianhe-2, en superdatamaskin bygget av Kinas National University of Defense Technology. I følge top500-listen leverer denne maskinen 33, 86 petaflop / s (firedoblinger beregninger per sekund) vedvarende ytelse på Linpack-referanseporteføljen og 54, 9 petaflop / s med teoretisk toppytelse. Dette er basert på Intel Xeon og Xeon Phi-prosessorer.

Andreplassen fortsetter å gå til Titan, et Cray XK7-system basert på AMD Opteron CPUer og Nvidia K20x GPUer installert på DOEs Oak Ridge National Laboratory, på 17, 59 petaflop / s med vedvarende ytelse på Linpack-referansen.

To nye maskiner sprakk topp 10. Trinity-datamaskinen ved Lawrence Livermore National Laboratory (LLNL) er sjetteplass med 8, 1 petaflop / s, mens Hazel-Hen-systemet ved Tysklands Höchstleistungsrechenzentrum Stuttgart (HLRS) kom på åttendeplass med 5, 6 petaflop / s. Begge er Cray XC-maskiner, basert på Intel Xeon-prosessorer med Aries-sammenkoblingen.

Større endringer skjer lenger nede på listen, spesielt med en stor økning i antall kinesiske systemer, som vokste til 109, sammenlignet med bare 37 i den forrige listen. Delvis ser dette ut til å være fra flere kinesiske systemer som kjører standardene og sender inn resultater for listen. Som et resultat falt antallet amerikanske systemer fra 231 til 200, som er det laveste tallet siden listen ble startet i 1993; og antallet europeiske systemer falt fra 141 til 108.

En stor trend er en økning i antall systemer som bruker gasspedaler eller koprocessorer, som steg til 104 systemer på den nåværende listen, opp fra 90 i juli. De fleste av disse systemene bruker Nvidia Tesla GPUer, etterfulgt av Intels Xeon Phi-koprocessorer, og noen få bruker en kombinasjon. Nvidia påpekte at det var i 70 av disse systemene, inkludert 23 av de 24 nye systemene på listen.

På utstillingen fremhevet Nvidia veksten av akseleratorer, og spesielt antall applikasjoner som nå er tilgjengelige, optimalisert for firmaets CUDA-arkitektur. Selskapet sier at 90 prosent av de topp 10 ytelsesbaserte databehandlingsapplikasjonene og 70 prosent av de 50 beste nå er akselerert. En spennende bruk er for systemer som kjører værsimuleringer, en viktig applikasjon for databehandling med høy ytelse, ettersom værprognoser er produsert av alle slags regjeringer. Cray hadde tidligere pekt på bruken av slike akseleratorer på det sveitsiske meteorologikontoret (MeteoSwiss) og har snakket om hvordan det fungerer med forskere i Sveits om å omskrive mange av applikasjonene. Nvidia peker nå på bruken av akseleratorer fra National Oceanic and Atmospheric Administration (NOAA) for noe av værmeldingen også.

Blant andre bruksområder, Cray spionerte olje- og gassapplikasjoner, for eksempel bruk av 3D-geofysikk for å simulere et reservoar, så vel som finansielle tjenester, for eksempel risikovurdering. Slike applikasjoner utgjør sjelden de raskeste systemene i verden, men er en indikasjon på at databehandling med høy ytelse tar en bredere rolle i flere bedriftsapplikasjoner. Cray har snakket om en jevn progresjon til å kjøre større og mer detaljerte modeller på tvers av alle vitenskapelige og tekniske fagdisipliner, og kombinere tradisjonelle arbeidsmengder med analyser.

Jeg var også interessert i en kunngjøring fra Linux Foundation om en ny innsats kalt OpenHPC, designet for å skape mer åpne standarder i HPC-verdenen. Det er en interessant idé, og en som ser ut til å ha mange av de store spillerne.

Det er en rekke nye systemer i verkene. IBM bygger en ny maskin kalt Summit at Oak Ridge National Laboratories (ORNL) og en annen kalt Sierra ved Lawrence Livermore National Laboratory (LLNL), begge basert på IBM Power-arkitektur CPUer, Nvidia Tesla GPUer og Mellanox-sammenkoblinger. Toppmøtet forventes å levere 150 til 300 topp petaflop / s, og Sierra over 100 petaflop / s.

I tillegg bygger Intel og Cray en ny maskin kalt Aurora, basert på de kommende Knights Hill Intel Xeon Phi-prosessorene for The Argonne Leadership Computing Facility (del av Argonne National Labs), som sikter mot 150 petaflops i 2018. Alle disse er en del av et departement for energiprogram kjent som Collaboration of Oak Ridge, Argonne og Lawrence Livermore nasjonale laboratorier (CORAL), med sikte på å fremskynde utviklingen av databehandling med høy ytelse og spesifikt FastForward 2-prosjektet.

Fortsatt har vi fortsatt en lang vei å gå på veien mot "exascale computing."

I mellomtiden var det flere prosessor kunngjøringer som kunne bode godt for fremtiden. Spesielt Nvidia presset bruken av superdatamaskiner for hyperscale webapplikasjoner, spesielt maskinlæring. Den kunngjorde noen få lavere produkter: Tesla M40-tavlen med 3072 CUDA-kjerner, som den sa var i stand til å utføre med opptil 7 enkeltpresisjons teraflop / s, hovedsakelig rettet mot "deep learning" -opplæring, og M4, et lavere strømkort med 1024 kjerner og 2, 2 enkel-presis teraflop / s, som kan brukes til dyptgående innlæringsinnsats så vel som ting som bilde- og videobehandling. I tillegg kunngjorde selskapet en ny "hyperscale suite" med applikasjoner rettet mot de største datamaskinstedene. Begge de nye maskinvareproduktene er basert på 28nm prosessteknologi og selskapets Maxwell-arkitektur.

Selskapet har kunngjort to oppfølgingsarkitekturer, kjent som Pascal, neste år, og Volta, som vil følge den. Intel fokuserte på hvordan HPC påvirker vitenskapen, og jeg ble fascinert av beskrivelsen av hvordan den bruker sin egen superdatamaskin - for tiden rangert 99 på topp 500-listen - for å hjelpe med å designe egne prosessorer. Spesielt sa selskapet at det bruker en million CPU-timer bare for å designe fotomasker for neste generasjons prosessorer.

Mye av Intels aktivitet var fokusert på Knights Landing, den neste versjonen av Xeon Phi-brikken, som kan brukes som en akselerator, men også startes opp; og dets Omni-Path-stoff. Selv om Intel nå sier at generell tilgjengelighet vil være i første halvdel av 2016, har noen få kunder tidlig tilgang til Knights Landing. For tiden tester Cray et stort Knights Landing-system som forberedelse til å levere en ny superdatamaskin kalt Cori for National Energy Research Scientific Computing Center (NERSC), og Los Alamos National Laboratory og Sandia National Laboratories, neste år. Bull, en enhet av den franske systemintegratoren Atos, har også mottatt tidlige versjoner av Knights Landing for å forberede Tera 1000-systemet den bygger for den franske kommisjon for alternative energier og atomenergi. Argonne Leadership Computing Facility jobber med et system som heter Theta, som skal leveres neste år, og Sandia National Laboratories jobber med Penguin Computing for å oppgradere flere systemer som bruker tidligere generasjoner av Xeon Phi-co-prosessorer.

Intel har tidligere sagt at det vil være tre forskjellige versjoner av Knights Landing: en basislinje-vertsprosessor (som er i stand til selvstart), en vertsprosessor med et integrert Omni-Path-stoff og et PCIe-akseleratorkort. Selve brikken vil bestå av 36 fliser hver med to CPU-kjerner (totalt 72 kjerner), fire vektorbehandlingsenheter (to per kjerne), 1 MB delt L2-cache og et cache-middel for å opprettholde sammenheng; og Intel har sagt at den skal levere omtrent tre ganger den skalare ytelsen til Knights Corner CPU, med 3 teraflop / s dobbel presisjon og 6 teraflop / s topppresisjon med en enkel presisjon. Den bruker også et nytt minnesystem kalt MCDRAM, på pakken minne med over 3 ganger tilgjengelig båndbredde sammenlignet med å gå ut til DDR4 som ser ut til å være en variant på Hybrid Memory Cube-arkitekturen som Intel og Micron har snakket om. På utstillingen hadde Cray et prototypesystem med en oppstartbar Knights Landing, og en rekke andre leverandører viste systemer designet for Knights Landing. Denne versjonen av Xeon Phi skal etterfølges av en versjon kalt Knights Hill, som skal bygges på den forestående 10nm-prosessen.

I tillegg snakket Fujitsu litt mer om sitt Flagship 2020-prosjekt, basert på en ny brikke kjent som FX100 med 32 kjerner. Dette forventes å omtrent firedobling av flytende punktytelse i forhold til dagens FX10, og i likhet med Knights Landing vil Fujitsus FX100 også bruke en versjon av Hybrid Memory Cube-arkitekturen. I tillegg har NEC et prosjekt kodenavnet Aurora (ikke relatert til CORAL-prosjektet), basert på dens oppfølging til SX-ACE-brikken, men med større minnebåndbredde. Dette er målrettet for 2017.

Supercomputing 15: større endringer i horisonten