Hjem Fremover tenking Nvidia sikter mot grafikk og "dyp læring"

Nvidia sikter mot grafikk og "dyp læring"

Video: Machine Learning 101: Intro To Neural Networks (NVIDIA Jetson Nano Review and Setup) (Oktober 2024)

Video: Machine Learning 101: Intro To Neural Networks (NVIDIA Jetson Nano Review and Setup) (Oktober 2024)
Anonim

Nvidias nye Titan X-grafikkprosessor er basert på GM200-prosessoren, som er en enorm brikke, som utnytter kraften til 8 milliarder transistorer, 3 072 prosessorkjerner og 12 GB ombord GDDR5-minne for 7 teraflops med topp ytelse med én presisjon. Denne brikken, som ble forhåndsvist på Game Developers Conference for to uker siden, er basert på de samme Maxwell-kjernene som er i selskapets nåværende prosessorer og er produsert på samme 28nm prosess.

Men Nvidia sa denne uken at det nye flaggskipet GeForce GPU vil levere dobbelt så stor ytelse og doble krafteffektiviteten til forgjengeren. Det er også en veldig stor brikke på 601 mm2, omtrent den største størrelsesbrikken som for øyeblikket er produsert, og vil trekke 250 watt strøm. Og selvfølgelig vil det være den dyreste generelle grafikkbrikken med en veiledende utsalgspris på 999 dollar.

De fleste anmeldelser fra nettsteder som ExtremeTech, Anandtech og TechReport er ganske positive. I den virkelige verden er det selvfølgelig ingen som ser doblingen av ytelsen som leverandøren hevder, selv om det er noen fine gevinster. Generelt ser det ut til at Titan X tydelig slår andre enkelt-GPU-kort, og gjør en godkjent jobb med å sammenligne med AMDs doble GPU Radeon R9 295X2 eller Nvidias doble GeForce GTX 980 SLI. I mange tilfeller vil et dual-GPU-kort fra begge leverandører være raskere enn noe enkelt-GPU-kort, men mange spill bruker ikke begge kortene, og i andre viser oppsettene med dobbeltkort mer stamming. Spesielt fokuserer mange av anmeldelsene på hvor bra Titan X klarer seg på 4K.

Naturligvis vil Nvidias viktigste rival i den konkurrerende verdenen av PC-grafikk sannsynligvis ikke sitte tett - AMD ryktes stort sett å ha sitt eget nye kort som venter i vingene.

Imidlertid, det jeg syntes var mest interessant med introduksjonen av Titan X på GPU Technology Conference (GTC) på tirsdag, var fokuset på å bruke brikken i applikasjoner med dyp læring, mens administrerende direktør i Nvidia, Jen-Hsun Huang, snakket om hvordan forskere har oppdaget at dyp læringsteknikker dramatisk kan akselereres ved bruk av GPUer.

Spesielt snakket Huang om applikasjoner som strekker seg fra bildegjenkjenning med automatisert billedtekstskriving til medisinsk forskning til autonome kjøretøy. Bilmarkedet var hovedfokuset for Nvidia på CES, da det introduserte Tegra X1-brikken og sin Drive PX-løsning for bilindustrien. Tanken er å forsterke eksisterende avanserte sjåførassistansesystemer (ADAS) slik at de blir smartere og smartere over tid. "Jeg tror Big Bang av selvkjørende biler er i ferd med å komme i løpet av de neste årene." Sa Huang.

Senere sluttet Tesla Motors administrerende direktør Elon Musk seg til Huang på GTC-scenen for å si at det å utvikle selvkjørende biler som faktisk er tryggere enn de med mennesker kjører ikke er så langt unna. Musk sa at dagens sensorsuiter i en Tesla allerede er i stand til assistansefunksjoner for avansert sjåfør, men selvkjøring i et urbant miljø i hastigheter 10-40 miles per time vil kreve mer prosessorkraft. Likevel sa han at overgangen vil ta lang tid, siden bilparken på veien er så stor. "Det er rart at vi er så nærme advent av AI, " sa Musk. "Jeg håper bare det er noe igjen for oss mennesker å gjøre."

Læring av maskiner er annerledes enn de fleste av HPC-applikasjonene med høy ytelse der Nvidia har presset sine Tesla-akseleratorer. Disse applikasjonene krever vanligvis flytepunkt med dobbel presisjon, mens applikasjonene med dyp læring ofte bare trenger enkeltpresisjon. Titan X tilbyr bare enkeltpresisjon. For applikasjoner med dyp læring tilbyr Nvidia et nytt rammeverk kalt DIGITS, Deep GPU Training Systems for dataforskere, og et nytt apparat på 15 000 dollar kalt DIGITS DevBox.

Ser fremover, sa Huang at Pascal GPU-arkitekturen, som skulle debutere neste år, vil akselerere dyp læringsapplikasjoner ti ganger utover hastigheten til dagens generasjons Maxwell-prosessorer. Dette kommer fra tre nye funksjoner: blandet presisjon (mer bruk av 16-bits flytende punkt); 2, 7 ganger minnekapasiteten med opptil 32 GB ved bruk av 3D-stablet minne med tre ganger minnebåndbredden, og NV Link-sammenkoblingen gir mulighet for opptil åtte high-end GPUer i en DevBox eller lignende arbeidsstasjon (i motsetning til de fire Titan X GPUer i den ene frakten i mai). Det ble ikke sagt, men det er sannsynlig at brikker basert på denne arkitekturen vil bruke neste generasjons prosessteknologi. Tross alt ble de første 28nm-brikkene introdusert i 2011 og begynte å selge i 2012, så innen neste år håper jeg at vi får se 16nm eller 14nm diskrete grafiske brikker.

Nvidia sikter mot grafikk og "dyp læring"