Hjem Fremover tenking Google-apper, verktøy har som mål å 'demokratisere ai'

Google-apper, verktøy har som mål å 'demokratisere ai'

Innholdsfortegnelse:

Video: Baby Shark Dance with Song Puppets | Baby Shark Toy | Toy Review | Pinkfong Songs for Children (Oktober 2024)

Video: Baby Shark Dance with Song Puppets | Baby Shark Toy | Toy Review | Pinkfong Songs for Children (Oktober 2024)
Anonim

For meg var det største temaet på forrige ukes Google I / O-konferanse "å demokratisere AI" - med andre ord, gjøre AI tilgjengelig både for sluttbrukere gjennom bruk i en rekke Google-tjenester, og for utviklere gjennom nye verktøy, programmer, og til og med maskinvare designet rundt Googles TensorFlow AI-rammeverk.

Googles administrerende direktør Sundar Pichai startet konferansen med en hovednote der han igjen understreket at selskapet gikk fra en mobil-først til en AI-første tilnærming, på samme måte som han sa i fjor.

Han sa at Google "revurderte alle produktene våre og anvender maskinlæring og AI for å tjene brukerens problemer." Han sa at maskinlæringsalgoritmer allerede påvirker rangeringen av forskjellige resultater i søket, og hvordan Street View nå automatisk gjenkjenner tegn. Andre tjenester blir smartere på grunn av AI, sa han, for eksempel hvordan Google Home nå støtter flere brukere og hvordan Gmail nå ruller ut en "smart svar" -funksjon der den automatisk foreslår svar på e-post.

For det formål ga han en rekke kunngjøringer av AI-produkter, både for forbrukere og for utviklere.

Objektiv, assistent og foto bruker AI-funksjoner

For sluttbrukere er den mest synlige av disse nye innsatsene Google Lens, et sett med visjonsbaserte databehandlingsmuligheter som kan forstå hva du ser og iverksette tiltak, både i Google Assistant og i Google Photos.

For eksempel demonstrerte han hvordan du kan ta et bilde av en blomst, og hvordan Google Lens nå kan identifisere den. Mer prosaisk kan det ta et bilde av et brukernavn og passord for Wi-Fi, og deretter automatisk forstå at du vil koble til og gjøre det for deg. Andre eksempler inkluderer å ta et bilde av utsiden av en restaurant og få programvaren til å forstå hva den er, og deretter vise deg brukeranmeldelser og menyer. Dette er ikke helt nytt, men jeg kan forestille meg at det vil være ganske nyttig - den typen ting vi alle bruker ganske mye av å rote om noen år. Google sier at dette kommer til å rulle ut om noen måneder.

Google Assistant fortsetter å bli smartere og vil inkorporere Google Lens, selv om den største nyheten fra det er at Assistant nå kommer til iPhone.

Den populære Google Photos-appen får også en rekke andre AI-drevne funksjoner, inkludert "foreslått deling", hvor den automatisk vil velge de beste bildene og foreslå at du vil dele dem med personene på bildene. Google Bilder legger også til en funksjon som automatisk lar deg dele hele eller deler av den bibliotek, slik at hvis du tar bilder av barna dine, blir de automatisk en del av partnerens fotobibliotek. Og det kan foreslå de beste bildene for en fotobok.

AI-First datasentre og nye utviklingsverktøy

På den interne siden snakket Pichai om hvordan selskapet "tenkte på nytt" sin beregningsarkitektur for å bygge "AI-første datasentre." Han sa at Google bruker sine nåværende Tensor Processing Units (TPUs) på tvers av alle tjenestene sine, fra grunnleggende søk til talegjenkjenning til sin AlphaGo-konkurranse.

Jeg ble spesielt fascinert av selskapets introduksjon av en ny versjon av sin TPU 2.0, som Pichai sa var i stand til å nå 180 teraflops (180 billioner flytende punktoperasjoner per sekund) per 4-brett, eller 11, 5 petaflops i hver "pod" av 64 slike brett. Disse er tilgjengelige for utviklere som "sky-TPU-er" på Google Cloud Engine nå, og selskapet sa at det ville gjøre 1000 sky-TPU-er tilgjengelig for maskinlæringsforskere via sin nye TensorFlow Research Cloud.

Dette er en del av et økende trykk på TensorFlow, selskapets open source maskin læringsramme for utviklere, og konferansen hadde en rekke økter med sikte på å få flere utviklere til å bruke denne rammen. TensorFlow ser ut til å være den mest populære av maskinens læringsrammer, men det er bare ett av flere valg. (Andre inkluderer Caffe, som er presset av Facebook, og MXNet, presset av Amazon Web Services.)

Jeg dro til en sesjon om "TensorFlow for Non-Experts" designet for å evangelisere rammeverket og Keras dypt læringsbibliotek, og det var pakket. Det er fascinerende ting, men ikke så kjent som de mer tradisjonelle utviklingsverktøyene. Alle de store selskapene sier at de har problemer med å finne nok utviklere med maskinlæringskompetanse, så det er ingen overraskelse å se dem alle skyve sine interne rammer. Mens verktøyene for å bruke disse blir bedre, er det fremdeles komplisert. Bare det å ringe en eksisterende modell er selvfølgelig mye enklere, og Google Cloud Platform, samt Microsoft og AWS, har alle en rekke slike ML-tjenester utviklere kan bruke.

Fordi det er så vanskelig å utvikle slike tjenester, brukte Pichai mye tid på å snakke om "AutoML", en tilnærming som har nevrale nett som designer nye nevrale nettverk. Han sa at Google håper at AutoML vil ta en evne som noen få doktorgrader har i dag og vil gjøre det mulig for hundretusener av utviklere å designe nye nevrale nett for deres spesielle behov om tre til fem år.

Dette er del av en større innsats kalt Google.ai for å bringe AI til flere mennesker, med Pichai som snakker om en rekke initiativer for å bruke AI til å hjelpe i helsevesenet. Han snakket om patologi og kreftdeteksjon, DNA-sekvensering og molekylfunn.

Fortsetter temaet kunngjorde Dave Burke, leder for Android engineering, en ny versjon av TensorFlow optimalisert for mobil kalt TensorFlow lite. Det nye biblioteket vil tillate utviklere å bygge slankere, dype læringsmodeller designet for å kjøre på Android-smarttelefoner, og han snakket om hvordan mobilprosessordesignere jobbet med spesifikke akseleratorer i prosessorene sine eller DSP-er designet for nevrale nettverksinferenser og til og med trening.

I utviklingsnøkkelen sa Fei Fei Li, en Stanford-professor som leder Googles AI-forskning, at hun begynte i Google "for å sikre at alle kan utnytte AI for å holde seg konkurransedyktige og løse problemene som betyr mest for dem."

Hun snakket mye om "Demokratisering av AI, " inkludert de forskjellige verktøyene Google stiller til rådighet for utviklere for spesifikke applikasjoner, for eksempel visjon, tale, oversettelse, naturlig språk og videointelligens, samt å lage verktøy for å lage dine egne modeller, for eksempel som TensorFlow, som er enklere å bruke med mer API-er på høyt nivå.

Hun snakket om hvordan utviklere nå vil kunne bruke CPUer, GPUS eller TPUer på Google Compute Engine. Hun ga et eksempel på hvor mye av en hastighetsforbedring noen modeller har på TPU-er, og sa at forskningsimplikasjonene av dette er betydningsfulle.

I ekko av Pichai, utpekte hun den nye TensorFlow Research Cloud og sa at studenter og Kaggle-brukere burde søke om å bruke den; og avsluttet med å si at firmaet opprettet sitt sky AI-team for å gjøre AI demokratisk, for å møte deg der du er, med Googles mest makt AI-verktøy, og for å dele reisen slik du bruker disse.

Google-apper, verktøy har som mål å 'demokratisere ai'