Hjem Fremover tenking Open compute-prosjektet lover enorme endringer i servere, datasentre

Open compute-prosjektet lover enorme endringer i servere, datasentre

Video: What's inside a Facebook Datacenter Open Compute Rack? (Oktober 2024)

Video: What's inside a Facebook Datacenter Open Compute Rack? (Oktober 2024)
Anonim

Selv om det er mye mindre fremtredende enn andre nylige hendelser, kan det hende at Open Compute Summit forrige uke sier mer om retningen til store datamaskiner enn noen individuell leverandørmelding.

Facebook organiserte opprinnelig Open Compute Project, og dette var gruppens fjerde slike toppmøte de siste 18 månedene eller så. En rekke store datasentre - alt fra hosting selskaper til store finansfirmaer - er nå medlemmer, og store deler av bransjen dukker nå opp for å stille ut og tilby støtte. Tanken er å redesigne den moderne serveren - i utgangspunktet for databehandling, men også potensielt for lagring - på måter som gjenspeiler behovene til de største datasentrene for bedre skalerbarhet og mindre proprietære løsninger.

Det første trinnet er et nytt design for stativer, kjent som Open Rack-spesifikasjonen. Denne bruker rackenheter som er bredere og litt høyere enn på eksisterende servere. En standard rackenhet i dag (en 1U-server) er 19 tommer bred; med Open Rack, ville en enkelt rackenhet være 21 tommer bred. Den nye størrelsen er designet for å passe til tre hovedkort eller fem 3, 5-tommers stasjoner side om side, og drar mot enda tettere servere. Legg merke til at i Open Rack-planen har servere ikke egne strømforsyninger; I stedet har racket flere forsyninger til strøm for hver server.

Konseptet er ikke så forskjellig fra bladservere som tilbys i dag av Cisco, Dell, HP og IBM, men dette er en åpen spesifikasjon, mens dagens løsninger pleier å være proprietære. Dette bør føre til mer kostnadskonkurranse. (Vær også oppmerksom på at størrelsen på rackrammen eller chassiset fremdeles er omtrent 24 tommer bredt, så Open Rack-produkter bør passe inn i eksisterende datasentre.) HP og Dell har allerede allerede vist produkter som passer inn i et Open Rack-design.

I Open Rack er ideen å etter hvert ha forskjellige "sleder" - en datamodul med to prosessorer og en liten mengde minne og lagring, en DRAM-modul, en lagringsmodul og en flash-lagringsmodul - som alle er koblet til i veldig høye hastigheter. Disse modulene skal kunne blandes og matches; og enda viktigere, hver kan erstattes etter en annen tidsplan. (Flash-minne slites vanligvis ut raskere enn for eksempel harddisker, og CPUer blir ofte oppgradert hvert annet år fordi beregnede krav virkelig drar nytte av Moore's Law, men andre komponenter kan godt oppgraderes på en fem til seks år lang syklus.)

En ny spesifikasjon kalles Open Common Slot for prosessorer. Basert på PCI-Express, bør dette gjøre det mulig for prosessorer fra enhver leverandør som støtter den å gå inn på en Open Rack-server. Tradisjonelle x86-serverprodusenter Intel og AMD indikerte begge støtte, og det samme gjorde Applied Micro og Calxeda, som begge viste sine lite effektive ARM-baserte servere. I tillegg sa AMD og Intel at de har utviklet Open Rack hovedkort: AMDs Roadrunner og Intels Decathlete.

Mye fremgang ser ut til å skje i sammenkoblinger for slike servere. Intel sier at det sendes prøver av en 100 Gbps silisiumfotonikkmodul, og at den utvikler spesifikasjoner for bruk av koblingen for CPU, minne og nettverkskort i et rack. I mellomtiden viste Mellanox et nytt system som inkluderer kontrollere og en top-of-rack-bryter som kan kjøre Infiniband på opptil 56 Gbps.

Andre deler av OCP jobber med Open Vault-lagringsprosjektet (kjent som Knox), som vil tillate opptil 30 stasjoner i et 2U Open Rack-chassis. En rekke av de store navnene i lagring støtter minst deler av dette, inkludert EMC, Fusion-io, Hitachi Global Storage og SanDisk, med Fusion-io som viser et ioScale-kort som kan ha opptil 3, 2 TB flashminne.

Opprinnelig har mye av vektleggingen for Open Compute kommet fra Facebook, som startet prosjektet for å håndtere de enorme datamengdene den trenger å lagre, flytte og beregne hver dag. På toppmøtet gjentok Facebook noe av bruksstatistikken sin: –Den har en milliard brukere, som laster opp rundt 4, 2 milliarder likes, innlegg og kommentarer per dag, i tillegg til rundt 350 millioner bilder per dag. Som et resultat trenger Facebook ytterligere 7 petabyte per måned (og vokser) bare for å lagre bilder.

Facebook snakket også om hvordan det faktisk kjører rundt 40 store tjenester og 200 mindre tjenester, men har nå delt dem opp slik at de hver kjører på en av fem standard servertyper: Web, Database, Hadoop, Haystack (Photos) og Feed (masse CPU og minne). Konseptet bak Open Compute er å la den enklere tilpasse serverne sine for hver tjeneste, og enkelt kunne bytte inn og ut komponenter, fra forskjellige leverandører og på forskjellige tidsplaner, så den er både mer fleksibel og mer kostnadseffektiv.

Selvfølgelig har de av oss som driver datasentre for virksomheter de samme generelle målene, selv om de fleste av oss ikke har nesten samme skala. Foreløpig antar jeg at de store brukerne av Open Compute-konseptene vil være de største datasentrene, i likhet med hvordan de store skyleverandørene har vært drivkraften for OpenStack skyplattform. Det er riktignok overlapping i tenkningen mellom disse gruppene, men over tid bør konseptene bli mainstream. Jeg vil ikke bli overrasket over å se bedrifter i alle størrelser kunne bestille Open Rack-servere, og dermed kunne få kostnads- og smidighetsforbedringene de lover. Det vil ta et par år, men ideen er absolutt lovende.

Open compute-prosjektet lover enorme endringer i servere, datasentre