Hjem meninger Hvorfor å lære ai å spille spill er viktig | ben dickson

Hvorfor å lære ai å spille spill er viktig | ben dickson

Innholdsfortegnelse:

Video: The future we're building -- and boring | Elon Musk (Oktober 2024)

Video: The future we're building -- and boring | Elon Musk (Oktober 2024)
Anonim

OpenAI, kunstig intelligensforskningslaboratorium grunnlagt av Sam Altman og Elon Musk, erklærte nylig at det ville sende et team til Vancouver i august for å delta i en profesjonell turnering av det berømte online kampspillet Dota 2. Men i motsetning til andre lag som vil være konkurrerer om prisen på flere millioner dollar, OpenAI s teamet vil ikke involvere mennesker - i det minste ikke direkte.

Teamet ble kalt OpenAI Five, og består av fem kunstige nevrale nettverk som har brent gjennom den enorme datakraften til Googles sky og øvd spillet flere og flere millioner ganger. OpenAI Five har allerede bested semi-proffene på Dota 2 og skal teste sin mettle mot topp 1 prosent av spillerne kommer i august.

først blikk, bruk av dyre dataressurser og knappe AI-talent for å lære AI å spille spill kan virke uansvarlig. OpenAI huser noen av verdens beste AI-forskere, som ifølge The New York Times tjener lønn på syv sifre. Tross alt, kan de ikke jobbe med viktigere problemer, for eksempel å utvikle AI som kan bekjempe kreft eller gjøre selvkjørende biler tryggere?

Absurd som det kan virke for noen, har spill vist seg å være en viktig del av AI-forskningen. Fra sjakk til Dota 2 har hvert spill AI erobret hjulpet oss med å bryte ny grunn innen informatikk og andre felt.

Spillhjelp Spore fremdriften for AI

Siden begynnelsen av ideen om kunstig intelligens på 1950-tallet har spill vært en effektiv måte å måle kapasiteten til AI. De er spesielt praktiske når du tester kapasiteten til ny AI teknikker, fordi du kan kvantifisere ytelsen til AI med numeriske poengsummer og vinn-tap-utfall og sammenligne den mot mennesker eller annen AI.

Det første spillet som forskere prøvde å mestre gjennom AI, var sjakk, som i de første dagene ble ansett som den ultimate testen for fremskritt på feltet. I 1996 var IBMs Deep Blue den første datamaskinen som beseiret en verdensmester (Garry Kasparov) i sjakk. AIen bak Deep Blue brukte en brute-force-metode som analyserte millioner av sekvenser før de gjorde et trekk.

Mens metoden gjorde det mulig for Deep Blue å mestre sjakk, var den ikke i nærheten effektiv nok til å takle mer kompliserte brettspill. Etter dagens standard anses den som rå. Da Deep Blue beseiret Kasparov, bemerket en forsker at det ville ta ytterligere hundre år før AI kunne erobre det gamle kinesiske spillet Go, som har flere mulige trekk enn antallet atomer i universet.

Men i 2016 opprettet forskere ved det Google-eide AI-selskapet DeepMind AlphaGo, en Go-playing AI som slo Lee Sedol, verdensmesteren, 4 til 1 i en femkampkonkurranse. AlphaGo erstattet brute-force-metoden til Deep Blue med dyp læring, en AI-teknikk som fungerer på en mye mer lik måte som den menneskelige hjernen fungerer. I stedet for å undersøke alle mulige kombinasjoner, undersøkte AlphaGo hvordan mennesker spilte Go, og prøvde deretter å finne ut og gjenskape vellykkede spillmønstre.

Forskerne av DeepMind opprettet senere AlphaGo Zero, en forbedret versjon av AlphaGo som brukte forsterkningslæring, en metode som krevde null menneskelige innspill. AlphaGo Zero ble lært de grunnleggende reglene for Go og lærte spillet ved å spille mot seg selv utallige ganger. Og AlphaGo Zero slo forgjengeren 100 til null.

Brettspill har imidlertid begrensninger. For det første er de turbaserte, noe som betyr at AI ikke er under belastning å ta beslutninger i et miljø som endrer seg kontinuerlig. For det andre har AI tilgang til all informasjonen i miljøet (i dette tilfellet styret) og trenger ikke å gjette seg eller ta risiko basert på ukjente faktorer.

Tatt i betraktning dette gjorde en AI kalt Libratus det neste gjennombruddet innen kunstig intelligensforskning ved å slå de beste spillerne på Texas Hold 'Em-poker. Libratus ble utviklet av forskere ved Carnegie Mellon og viste at AI kan konkurrere med mennesker i situasjoner der den har tilgang til delvis informasjon. Libratus brukte flere AI-teknikker for å lære poker og forbedre spillingen sin da den undersøkte taktikken til de menneskelige motstanderne.

Sanntids videospill er den neste grensen for AI, og OpenAI er ikke den eneste organisasjonen som er involvert i feltet. Facebook har testet å lære AI å spille sanntids strategispelet StarCraft, og DeepMind har utviklet en AI som kan spille førstepersons skytespill Quake III. Hvert spill presenterer sitt eget sett med utfordringer, men fellesnevneren er at alle sammen presenterer AI-miljøer der de må ta beslutninger i sanntid og med ufullstendig informasjon. Dessuten gir de AI en arena hvor den kan teste sin styrke mot et team av motstandere og lære teamarbeid selv.

Foreløpig hadde ingen utviklet AI som kan slå profesjonelle spillere. Men selve det faktum at AI konkurrerer med mennesker på så komplekse spill, viser hvor langt vi har kommet i feltet.

Spill hjelper med å utvikle AI på andre felt

Mens forskere har brukt spill som testbed for å utvikle nye AI-teknikker, har prestasjonene deres ikke forblitt begrenset til spill. Faktisk har gameplaying AIer banet vei for innovasjoner på andre felt.

I 2011 introduserte IBM en superdatamaskin som var i stand til naturlig språkbehandling og generering (NLG / NLP) og ble oppkalt etter selskapets tidligere administrerende direktør Thomas J Watson. Datamaskinen spilte det berømte tv-show-quiz-spillet Jeopardy mot to av verdens beste spillere og vant. Watson ble senere grunnlaget for en enorm linje med AI-tjenester fra IBM innen forskjellige domener, inkludert helsetjenester, nett-sikkerhet og værvarsling.

DeepMind bruker sin erfaring fra å utvikle AlphaGo til å bruke AI på andre felt der forsterkningslæring kan hjelpe. Selskapet startet et prosjekt med National Grid UK for å bruke AlphaGo s smarts å forbedre effektiviteten til det britiske kraftnettet. Google, DeepMinds morselskap, bruker også teknikken for å kutte strømkostnadene til de enorme datasentrene ved å automatisere forbrukskontrollen til den forskjellige maskinvaren. Google bruker også forsterkningslæring for å trene roboter som en dag vil håndtere gjenstander i fabrikker.

  • Kunstig intelligens har et skjevhetsproblem, og det er vårt feil Kunstig intelligens har et skjevhetsproblem, og det er vårt feil
  • IBM kunstig intelligens bruker menneskelige debatt Champs IBM kunstig intelligens tar på menneskelig debatt champs
  • Hvorfor AI må avsløre at det er AI Hvorfor AI må avsløre at det er AI

Libratus , det pokerspillende AI, kan hjelpe med å utvikle den typen algoritmer som kan hjelpe i forskjellige situasjoner som politiske forhandlinger og auksjoner, der AI må ta risiko og gi kortvarige ofre for langsiktige gevinster.

For en gleder meg til å se hvordan OpenAI Five skal prestere i augusts Dota 2-konkurranse. Selv om jeg ikke er spesielt interessert i om nevrale nettverk og utviklere tar med seg prisen på 15 millioner dollar, er jeg opptatt av å se hvilke nye vinduer prestasjonene vil åpne.

Hvorfor å lære ai å spille spill er viktig | ben dickson