Hjem Virksomhet Hvordan denne massive strukturen i oregon-ørkenen holder facebook i gang

Hvordan denne massive strukturen i oregon-ørkenen holder facebook i gang

Video: Love On Facebook Can Be Dangerous (Oktober 2024)

Video: Love On Facebook Can Be Dangerous (Oktober 2024)
Anonim

PRINEVILLE, Ore. - Det er mange måter å sikre at du har raskt Internett. Du kan flytte til en Google Fiber-by. Du kan velge en av våre raskeste Internett-leverandører. Eller du kan bygge huset ditt ved siden av et Facebook-datasenter.

Ta for eksempel det første Facebook-datasenteret. Åpnet i Prineville, Ore., I 2011, og har fungert som modell for hvert datasenter som den sosiale mediagiganten har bygget siden den gang, fra Sverige til Iowa. Det bruker så mye båndbredde at det krever flere Internett-leverandører som betjener området for å styrke nettverkene sine, og bringe lokale innbyggere med på turen.

Du tenker kanskje på Prineville datasenter, sammen med Facebooks andre fasiliteter, som det kollektive hjertet i verdens største sosiale nettverk: De mottar en flod av forespørsler om bilder, statusoppdateringer og nyhetsfeeder oppdateres fra nettstedets 1, 65 milliarder aktive brukere og reagerer så raskt som mulig, lik et hjerte som pumper oksygen inn i blodomløpet.

Prineville-anlegget nærmer seg femårsdagen, og håndterer dataforespørsler om ting som Mark Zuckerberg sannsynligvis ikke hadde noen anelse om Facebook ville gjøre da han drømte opp ideen for selskapet i sitt hybel på Harvard.

Denne uken var PCMag innom for en omvisning.

Prineville lagrer selvfølgelig bilder og statusoppdateringer, men det har nå også tusenvis av Nvidia GPU-er som støtter Facebooks kunstig intelligensforskning, samt 2000 iOS- og Android-telefoner som kjører tester 24 timer i døgnet. Dette hjelper selskapets ingeniører med å øke effektiviteten til appene sine, som inkluderer Instagram, Messenger og WhatsApp, i tillegg til Facebook.

Facebook-data er 'spenstig, ikke overflødig'

Det første du legger merke til om Prineville-anlegget er dens store størrelse. Å stige ut fra den trebekkede høye ørkenen i sentrum av Oregon, en tre timers kjøretur fra Portland, er ikke en eneste bygning, men fire (og det inkluderer ikke et annet enormt datasenter som Apple nylig bygde over gaten, passende nok kalt Connect Way). En av Facebook-bygningene kan passe to Walmarts inne, og er omtrent 100 fot lengre enn et Nimitz-flyskip.

På innsiden er servere som har flere petabyte lagring, og som Facebook-ingeniører kontinuerlig oppgraderer ved å erstatte komponenter. Av de 165 personene som jobber heltid ved datasenteret, tildeles 30 per bygning bare service eller erstatning av strømforsyninger, prosessorer, minne og andre komponenter.

Kjennetegnet til nesten ethvert selskap som opererer på Internett, fra Amazon til Charles Schwab, er overflødighet: flere servere som lagrer flere kopier av data. Det er mindre tilfelle i Prineville, der Ken Patchett, Facebooks direktør for vestlige dataoperasjoner, i stedet er fokusert på resiliens - grovt definert som muligheten til å være klar når og hvor i verden noen logger seg på Facebook.

Å fokusere på "spenst, ikke overflødighet", som Patchett uttrykker det, er mulig fordi Facebook har luksusen av å lagre flere kopier av data på de andre stedene rundt om i verden, fra Luleå, Sverige, til Altoona, Iowa. Så i stedet for å ha to eller flere av alt, kan det fokusere på strategiske utstyrskjøp på hvert sted, som å ha en sikkerhetskopi for hver seks hovedgeneratorer.

"Du må være finansielt ansvarlig hvis du skal være spenstig, " forklarte Patchett. Han er en av grunnleggerne til høyteknologiske datasentre i Oregons høye ørken. Før han ankom Facebook, hjalp han til med å starte et datasenter i The Dalles, Ore., For Google, et av de første Internett-selskapene som utnyttet billig vannkraft og kjølig, tørt vær som kjennetegner den store østlige delen av USAs niende største stat.

Rikelig kraft er selvfølgelig avgjørende for Facebooks drift. Server temperaturen er regulert av en kombinasjon av vannkjølemiddel og enorme vifter som trekker inn tørr ørkenluft (under) i stedet for kraft- og pengesnekkende klimaanlegg. Måltemperaturområdet er mellom 60 og 82 grader Fahrenheit. Patchetts team har blitt så flinke til å oppnå dette målet at Prineville nå kan skryte av et effekteffektivitetsforhold på 1.07, noe som betyr at kjøleutstyr, lys og varmeovner - alt som ikke er en dataenhet - bruker bare 7 prosent av anleggets totale energiforbruk.

32 iPhones in a Box

Det meste av kjøling og kraft går mot å imøtekomme kravene fra servere, men noen blir viderekoblet til et relativt lite app-testerom med implikasjoner for å redusere strømbruken ikke bare i Prineville, men på alle telefoner med en Facebook-app.

Det er ingen hemmelighet at Facebook-appen har slitt med strømstyring. The Guardian hevdet tidligere i år at appen reduserte levetiden på iPhones med 15 prosent. For å strømlinjeforme appen og redusere batteriforbruket brakte selskapet cirka 2000 iOS- og Android-telefoner til Prineville, der de er installert inne i bokser i grupper på 32 personer.

Hver boks har sitt eget Wi-Fi-nettverk, hemmet av isolerte vegger og kobberbånd, som ingeniører tilbake i hovedkvarteret i Silicon Valley bruker for å levere et batteri med tester. De leter etter "regresjoner" i batteribruk og ytelse forårsaket av oppdateringer til Facebook-, Instagram-, Messenger- og WhatsApp-appene. Hvis de finner en i Facebooks egen kode, fikser de den. Hvis ineffektiviteten ble introdusert av en utvikler, varsler systemet automatisk lovbryteren via e-post.

Boksene inneholder ikke bare de nyeste iPhone 6s eller Galaxy S7. På iOS-siden inkluderer de mange modeller fra iPhone 4s og nyere. På Android-siden, hvem vet? Det er nok å si at det er en fyr som har jobben med å finne dunkle Android-enheter og ta dem med til Prineville.

"Vi må finne telefoner fra overalt, " sa Antoine Reversat, en ingeniør som hjalp til med å utvikle testinfrastrukturen og programvaren. Hans endelige mål er å doble stativene til å holde opptil 62 telefoner hver, og finne ut en måte å redusere 20-trinns manuell prosedyre som kreves for å konfigurere telefonen for testing til ett trinn. Det skal trøste alle som noen gang har fått telefonen sin til å dø, mens de forfrisker nyhetsfeeden.

Big Sur: Facebooks AI-hjerne

Neste opp på turen var Big Sur kunstige intelligens-servere, som, i likhet med California-kysten som de er navngitt, uten tvil utgjør den mest naturskjønne delen av datasenteret. Vi snakker ikke om feiende utsikter fra stillehavet, men i stedet en dataskjerm som viste det som syntes å være en gruppe malerier, bemannet av Ian Buck, Nvidias visepresident for akselerert databehandling.

"Vi trente et nevralt nettverk for å gjenkjenne malerier, " forklarte Buck. "Etter omtrent en halvtime med å se på maleriene, kan den begynne å generere sine egne."

De som ble vist, lignet på fransk impresjonisme fra 1800-tallet, men med en vri. Hvis du vil ha en kombinasjon av et fruktstilleben og et elvelandskap, vil Big Sur male det for deg ved å bøye de 40 petaflopene av prosessorkraft per server. Det er et av flere AI-systemer som bruker Nvidia GPU-er - i dette tilfellet PCI.e-baserte Tesla M40-prosessorer - for å løse komplekse maskinlæringsproblemer. Googles DeepMind helseprosjekt bruker også Nvidias prosessorer.

Facebook bruker Big Sur for å lese historier, identifisere ansikter i bilder, svare på spørsmål om scener, spille spill og lære rutiner, blant andre oppgaver. Det er også åpen programvare, og tilbyr andre utviklere en blåkopi for hvordan du kan sette opp sin egen AI-spesifikk infrastruktur. Maskinvaren inkluderer åtte Tesla M40 GPU-brett på opptil 33 watt hver. Alle komponentene er lett tilgjengelige i en serverskuff for å øke enkel oppgraderinger, som garantert kommer når Nvidia lanserer nye PCI.e-versjoner av Tesla GPU-ene, inkludert flaggskipet P100.

Kjølerom for glemte bilder

Siden Prineville er Facebooks første datasenter, har det en tendens til å være der ingeniører tester ideer for å gjøre Facebooks servere mer effektive. En av de siste ideene er kjølerom, eller dedikerte servere som lagrer noe på Facebook som ikke får mye visninger - for eksempel prom-bilder fra videregående skole, eller de dusinvis av statusoppdateringer du la ut da Michael Jackson døde i 2009.

Cold Storage's hemmelighet for suksess er det flere nivåer. Det første nivået består av høyytelsesbedriftsmaskinvare, mens lavere nivåer bruker billigere komponenter, og i noen tilfeller - kanskje for de bildene av deg med seler som du håper ingen noensinne vil se - ta båndbiblioteker. Sluttresultatet er at hvert rackserver for kald lagring kan inneholde 2 petabyte lagringsplass, eller tilsvarende 4000 stabler med øre som når helt til månen.

Bygning for fremtiden

Selv om Facebook har brakt raskere Internett og andre fordeler til Prineville, inkludert mer enn 1 million dollar i gaver til lokale skoler og veldedige organisasjoner, er tilstedeværelsen ikke uten kontroverser. Oregon gir opp mye penger i skattelettelser til selskapet i en tid da den lokale økonomien, som fremdeles snor seg fra boligboblen i 2008, sporer det nasjonale gjennomsnittet.

Fortsatt ville 1, 65 milliarder mennesker ikke ha tilgang til Facebook uten denne ørkenpostposten og søstersdatasentrene. Og selv om det gir siste hånd på sin fjerde Prineville-bygning, er selskapet godt i gang med å fullføre et femte senter i Texas. Men hvis det får deg til å føle deg skyldig over energien din Facebook-surfing bruker, bør det ikke. Ifølge Patchett bruker en enkelt bruker som surfer på Facebook i et helt år mindre energi enn det som kreves for å lage en latte. Med andre ord, du kan gi avkall på en tur til Starbucks og bla gjennom nyhetsfeeden til ditt hjertes innhold.

Hvordan denne massive strukturen i oregon-ørkenen holder facebook i gang