Hjem Fremover tenking Vil alternative arkitekturer styre superdatamaskiner?

Vil alternative arkitekturer styre superdatamaskiner?

Video: Full Notion Tour | Kylie Stewart (2019 Edition) (Oktober 2024)

Video: Full Notion Tour | Kylie Stewart (2019 Edition) (Oktober 2024)
Anonim

De siste årene har vi sett noen interessante nye tilnærminger til databehandling med høy ytelse, særlig et skifte bort fra tradisjonelle store prosessorer og mot klynger av x86 CPUer med akseleratorer eller coprocessorer for å fremskynde spesielle typer beregninger. Da vi kom ut av forrige ukes Supercomputing-show, så vi Intel presse for å integrere Xeon Phi-koprocessoren med den tradisjonelle Xeon-serverprosessoren for å gjøre programmeringen enklere; Nvidia introduserer en ny versjon av sin Tesla GPU-akselerator; og Micron støtter en veldig annen type prosessor for enda mer spesialisert databehandling. Og alt dette skjedde i en tid da gasspedaler og koproprosessorer kommer til å dominere Topp 500-listen over verdens raskeste datamaskiner, noe som førte til at noen eksperter antyder at eksisterende standarder gir for mye vekt på disse prosessorene.

Nvidia noterte suksessene sine med sine Tesla-akseleratortavler, store klynger med GPU-er koblet til hovedprosessorer fra enten Intel eller AMD. Slike brikker brukes i et bredt spekter av systemer, inkludert Titan-systemet på Oak Ridge National Laboratory og det nye Piz Daint-systemet ved Swiss National Supercomputing Computing Center. Mer interessant er det at selskapet sier at Tesla-styrene er i alle de 10 beste systemene på den nyeste Green 500-listen over verdens mest energieffektive superdatamaskiner. Alle disse systemene bruker også Intel Xeons, med unntak av den AMD Opteron-baserte Titan, som er det nest raskeste systemet i verden på Top 500, men rangerer mye lavere på Green 500-listen.

I tillegg kunngjorde Nvidia et samarbeid med IBM for å tilby sine Tesla-akseleratorer i systemer basert på IBM Power-arkitekturen. IBM har lenge spionert sin serielle ytelse, og BlueGene / Q-systemet basert på Power-prosessorer kjører Sequoia-systemet på Lawrence Livermore National Laboratory og Mira-systemet på Argonne National Laboratory blant andre. Å ha IBM og Nvidia sammen skal føre til noen interessante systemer i fremtiden.

På utstillingen kunngjorde selskapet sin Tesla K40, den neste generasjonen av GPU-akseleratortavlen. Selskapet sa at det vil tilby 1, 4 teraflops med dobbel presisjonsytelse, 12 GB minne (288 GBps båndbredde) og en GPU Boost-funksjon, som gjør at den kan kjøres med en raskere klokkehastighet i noen situasjoner. Dette er en oppgradering fra den eksisterende Tesla K20-serien, og bruker samme grunnleggende GPU-design produsert på 28nm-teknologi.

Andre initiativer inkluderer måter å gjøre GPU-programmering enklere, inkludert CUDA 6, som nå støtter enhetlig minne, og lar utviklere nærme seg minnet som et enkelt basseng, selv om CPU og GPU-minne forblir separate. Selskapet støtter også OpenACC, en standard samling av kompilatordirektiver som forteller systemet hvilke deler av programmet (skrevet i C / C ++ og Fortran) som kan lastes fra CPU til en akselerator for å øke ytelsen.

Intels tilnærming, som den kaller sin Many Integrated Core (MIC) -arkitektur, er veldig forskjellig. Den kombinerer flere små x86-kjerner til en enkelt brikke kalt Xeon Phi. I løpet av de siste årene har Intel gjort oppmerksom på at det hele er x86 som gjør det enklere å programmere, selv om det er tydelig at utviklere fortsatt må målrette seg mot arkitekturen direkte. Den nåværende versjonen av Xeon Phi, kalt Knights Corner, er designet for å brukes som en akselerator sammen med mer tradisjonelle Xeon E-serverbrikker, og brukes av en rekke toppsystemer, inkludert Kinas Tianhe-2 (for tiden det raskeste systemet i verden) og Stampede-systemet ved Advanced Computing Center ved University of Texas.

På utstillingen kunngjorde Intel en ny versjon kodenavnet Knights Landing, som også vil fungere som en frittstående CPU som kan passe inn i en standard rackarkitektur og kjøre operativsystemet direkte, uten å kreve en verts CPU (for eksempel Xeon E). Dette kan være ganske viktig for å utvide appellen til Xeon Phi, spesielt på arbeidsstasjonsmarkedet. Igjen, dette er designet for å gjøre det lettere for programvareutviklere å se det som en enkelt CPU. Knights Landing vil være tilgjengelig både som en frittstående CPU og som et PCI Express-kort som passer inn i eksisterende systemer som en oppgradering fra Knights Corner.

Det er andre viktige endringer i Knights Landing også, inkludert å legge til "nesten minne", effektivt DRAM som tilbys på pakken med CPU og dermed kan levere en mye høyere båndbredde enn det tradisjonelle DDR-minnet, som er begrenset av hastigheten til bussen. (Det blir raskere også, men ikke på langt nær så mye.) Dette er ikke det første trekket i denne retningen; IBM har spionert innebygd DRAM i Power-arkitekturen i mange år, og Intel legger selv innebygd DRAM for grafikk i Iris Pro-versjonene av Haswell Core-familien. Likevel antar jeg at vi vil se mye mer innsats i denne retningen i årene fremover.

I mellomtiden kommer en av de mest interessante nye tilnærmingene fra Micron, som kunngjorde en ny akselerator kalt en Automata-prosessor designet hovedsakelig for å takle komplekse ustrukturerte dataproblemer.

Micron beskrev dette som å tilby et stoff bestående av titusenvis til millioner prosesseringselementer koblet for å løse spesifikke oppgaver. Selskapet, en av de største produsentene av DRAM og NAND-minne, sier at dette vil bruke minnebasert prosessering for å løse komplekse databehandlingsutfordringer på områder som nettverkssikkerhet, bioinformatikk, bildebehandling og analyse. Micron vil i utgangspunktet distribuere Automata-prosessoren på et PCI-Express-brett for å få utviklere til å jobbe med den, men selskapet planlegger å selge prosessorene på standard minnemoduler, kjent som DIMM-er, eller som individuelle brikker for innebygde systemer. På noen måter høres dette ut som feltprogrammerbare gate-arrays (FPGAer), som er innstilt for å løse bestemte applikasjoner som involverer mønster-matching.

Selskapet sa at det samarbeider med Georgia Tech, University of Missouri og University of Virginia for å utvikle nye applikasjoner for Automata. Selv om selskapet ikke har kunngjort en dato for sluttprodukter, er det planlagt et programvareutviklingssett som kommer ut neste år, sammen med simuleringsverktøy.

Automata høres ut som et arbeid som pågår, og det er sannsynligvis for tidlig å vite hvor brede applikasjonene er, men det er en interessant tilnærming.

Totalt sett ser vi utviklingen av høy ytelse databehandling. For ikke så mange år siden var de raskeste datamaskinene stort sett bare et stort antall standard serverprosessorer. Faktisk er IBM Blue Gene-systemene og de som er basert på Sparc (for eksempel K-datamaskinen ved RIKEN Advanced Institute for Computational Science i Japan, som bruker Fujitsu Sparc-prosessorer) fortsatt en stor del av markedet, inkludert fem av de 10 raskeste systemer i verden. Men de siste årene har momentumet svingt mot coprocessor, med systemer som bruker Tesla og nylig Xeon Phi-akseleratorer som utgjør flere av de nyere systemene. Med forbedringer i disse systemene, nye partnerskap, bedre programvare og noen nye tilnærminger, kan superdatamarkedet være veldig annerledes i fremtiden.

Vil alternative arkitekturer styre superdatamaskiner?