Hjem Fremover tenking Apple, google, og veien til kunnskapsassistenten

Apple, google, og veien til kunnskapsassistenten

Video: Apple Event — November 10 (Oktober 2024)

Video: Apple Event — November 10 (Oktober 2024)
Anonim

Det som fulgte mest ut for meg var innsatsen som begge selskapene - så vel som Microsoft - satte inn for å lage intelligente systemer som jeg så på hovednoteringen fra Apples verdensomspennende utviklerkonferanse denne uken, og fra Googles I / O-konferanse for to uker siden. så mye som mulig om deg.

Slike systemer vet hvem du er, hvor du er, og all informasjonen på skjermen din, generelt med mål om å fungere som en "personlig assistent" som forutser dine behov. Dette er et enormt ambisiøst mål som et av disse selskapene ser ut til å forstå, kan være det neste store steget i databehandling.

Når det gjelder Apple og Google, kan andre tilbud som kunngjøres ved sine grunntoner få mer oppmerksomhet, eller ha mer synlig kortsiktig innvirkning. Google Photos fikk mye oppmerksomhet; både Apple Pay og Android Pay ser ut til å bli mye mer vanlig, og forbedringene i Android Wear og WatchOS kan godt forutse at det strømmer ut applikasjoner for bærbare apparater. Men bevegelsen til mer intelligente, mer omfattende totalsystemer kan vise seg å ha den største langsiktige påvirkningen.

Apple, Google og Microsoft kommer alle fra forskjellige vinkler. Men de ser ut til å konvergere på systemer som har en mobil front-end som kan kontrolleres ved å skrive eller tale, støttet med et sett Internett-baserte tjenester og prosesser som inneholder en enorm mengde data om deg, og gjør slutninger basert på disse dataene og hva du gjør.

Veien til denne konvergensen har blitt brolagt av en rekke introduksjoner de siste årene. Mange har jobbet med personlige assistenter i mange år, og Siri ble opprinnelig utviklet som en frittstående applikasjon av en spin-off fra SRI International. I 2011 introduserte Apple Siri som en "virtuell assistent" med iPhone 4s, mest fungerende som en frontend for ting som websøk, lokalt vær og restaurantoppslag. I 2012 introduserte Google Google Now som en del av Android 4.1 Jelly Bean, og leverte informasjon om en serie "kort" som svarte på spørsmål. Over tid vokste dette til å gi mer informasjon og dekke flere domener.

Til å begynne med syntes jeg begge var interessante, men stemmekontrollen virket som mer et "parlor trick" enn et nyttig program.

Men de siste årene har begge blitt bedre i raskt tempo. Til dels har flere brukere gitt begge selskapene mer data å jobbe med. Dette, kombinert med mer intelligente algoritmer og mye arbeid med serverbehandling, resulterte i systemer som nå er langt mer nøyaktige når det gjelder å forstå hva du spør om enn de var ved lanseringen. Begge er nå i stand til å svare på spørsmål i flere domener. Og Google Nå kan utlede informasjon som hvor hjemmet og kontoret ditt er basert på de typiske stedene dine.

Microsoft introduserte Cortana i fjor som en del av Windows Phone 8.1-utgivelsen, og beskrev den som den første virkelig personlige "digitale assistenten" fordi den forsto mer av hva du gjorde i andre applikasjoner i tillegg til websøk. Det kan gjøre ting som å sette påminnelser og forstå hvem som var viktig for deg og hvem som ikke var det, og selv om det ikke var så mange brukere, ser det også ut til at det har blitt bedre de siste årene. Cortana skal nå også være en del av Windows 10 på stasjonære og bærbare datamaskiner.

Dette bringer oss til de nyere kunngjøringene, der alle tre leverandører ser ut til å låne funksjoner fra de andre, og virkelig prøver å forbedre tilbudene sine.

Google Now On Tap

På Google I / O for et par uker siden snakket Google Senior Vice President Sundar Pichai om hvordan selskapet fortsatte å fokusere på søk. Men når det gjaldt funksjoner i den nyeste versjonen av Android, var det som vekket oppmerksomheten min nye funksjoner for Google Now personlig assistent kalt "Nå på trykk."

Pichai snakket om Googles investering i dyp læring og maskinlæring, og sa at det har hjulpet Google å redusere ordfeilprosenten i sin tale anerkjennelse fra 23 prosent til 8 prosent det siste året.

Google Nå har allerede noen kontekstuelle funksjoner - for eksempel, den vet hvor du er, så den kan estimere tiden det vil ta deg å komme hjem, og den kan vise dette på de forskjellige "kortene" den bruker for å vise informasjon eller innen varsler.

Men Aparna Chennapragada, direktør for Google Nå, sa: "Vi spurte oss selv hvordan kan vi gi deg raske svar på raske spørsmål uten å forlate kontekst. Hvordan kan vi hjelpe deg med å få ting gjort i så få trinn som mulig?" Resultatet, sa hun, var en ny tjeneste som hjalp deg "i øyeblikket" uansett hva du gjorde på telefonen. Dette er Now On Tap, og hun sa at det kombinerer Googles kunnskapsgraf - forståelsen av mer enn 1 milliard enheter (som baseball-lag og bensinstasjoner) - med kontekst og forbindelser med andre applikasjoner for å gi deg informasjon proaktivt.

I demonstrasjonen hun viste fikk hun en melding i en app som foreslo en restaurant til middag og ba henne hente renseri. Ved å trykke på og holde nede Hjem-tasten hentet Google Now-kortet opp, og Nå på trykk-funksjonen hentet grunnleggende informasjon om restauranten, inkludert lenker til navigasjonskart, Yelp og OpenTable; det satte også en påminnelse om renseri. Ved å trykke på OpenTable-linken åpnet appen, men mer imponerende åpnet den direkte til siden til den restauranten.

Tanken er at operativsystemet nå forstår sammenhengen med hvor du er og hva du har gjort på resten av enheten. Et annet eksempel er at hvis du lytter til musikk, kan du bare holde nede Hjem-tasten og stille et spørsmål om sangen. Google Nå vil vite hvilken sang som spilles, og kan deretter svare på spørsmål om den.

"Du kan få informasjon umiddelbart, " sa Chennapragada. "I alle disse eksemplene - artikkelen du leser, musikken du lytter til, meldingen du svarer på - er nøkkelen å forstå konteksten for øyeblikket. Når denne forståelsen nå er i stand til å gi deg raske svar til raske spørsmål, hjelper deg å få ting gjort uansett hvor du er på telefonen."

Apple understreker intelligens

På sin WWDC-keynote på mandag diskuterte Apple en rekke endringer som kommer i iOS 9, men ledet med begrepet "etterretning".

Craig Federighi, Apples senior vice president for software engineering, snakket om å gjøre Siri til en "proaktiv assistent" som kan gjøre ting som å minne deg om en spesifikk oppgave eller en spesifikk lenke i en nettleser på et spesielt tidspunkt eller når du kommer til et bestemt sted. Hvis du for eksempel mottar en tekstmelding om et kommende arrangement, kan du be Siri om å "minne meg om dette", og det vil forstå at du viser til hendelsen og angir en påminnelse. Det kan gjøre ting som å automatisk legge til invitasjoner i en tekstmelding i kalendrene dine.

Den kan huske appene du har en tendens til å bruke på et bestemt tidspunkt på dagen, og presentere dem for deg i et enkelt ikon, og legger nå til "beskrivende kort" som gir deg mer informasjon om resultatene av et søk (som lignet på konseptet til kortene i Google Nå).

Og det ser generelt ut til å ha blitt bedre. Federighi sa at Apple har hatt en reduksjon på 40 prosent i ordfeilprosent det siste året til 5 prosent. Og det handler smartere om å håndtere ting i selve systemet, nå i stand til å svare på naturlige språkforespørsler som "vis meg bilder fra Utah i august i fjor."

Mest interessant er det at det tilbyr et API for søk, slik at det kan finne innhold i apper. For eksempel snakket han om å kunne koble dypt inn i Airbnb-appen for å finne tilgjengelige utleie i et bestemt område; eller slå opp informasjon om oppskrifter i et annet program.

I en demo viste han frem en ny søkeskjerm du kommer til ved å sveipe rett fra startskjermen, og hvordan systemet i seg selv kommer med forslag til hvem du måtte ønske å kontakte, basert på de hyppigste kontaktene dine og på kommende arrangementer. Han viste hvordan det da kan "dype kobling" til spesifikke applikasjoner for å gi deg mer informasjon. Lignende funksjoner var tilgjengelige i Siri.

Én ting Apple understreket var personvern, med Federighi som sa "Vi var i stand til å bringe intelligens gjennom opplevelsen i iOS 9, men vi gjør det på en måte som ikke går ut over personvernet ditt." I det som absolutt hørtes ut som en graving etter Googles annonseringsbaserte modell, sa han at Apple ikke gruver dine bilder, e-post, bilder eller skyinformasjon. Han sa at all informasjonen gjøres på enheten og forblir på enheten under din kontroll, og når systemet må sende informasjon til skyen for å gjøre søk eller lete etter trafikk, gjør det det anonymt uten informasjon deles med tredjeparter. "Du har kontroll, " sa han.

Cortana Going Cross-plattformen

Du kan hevde at Microsoft hadde et forsprang på å tilby mange av de personlige assistentfunksjonene med sin Cortana-assistent for Windows Phone. Det var den første av de tre store telefonassistentene som prøvde å oppføre seg som en ekte assistent, når det gjelder planlegging av påminnelser og å integrere dypere med noen av telefonapplikasjonene.

Cortana er også en del av Windows 10 på skrivebordet og den bærbare PC-en. Senest kunngjorde Microsoft at en versjon av Cortana ville komme til iOS- og Android-telefoner sammen med en "Phone Companion" -app som kobler PCen din til Cortana, slik at du kan starte oppgaver på en enhet og fullføre dem på en annen.

Som Microsofts Joe Belfiore beskrev det, "Du kan få Cortana til å minne deg på å hente melk neste gang du er i matbutikken, og så vil telefonen din våkne og sive av påminnelsen. Du kan spore en fly med Cortana på både din telefon og PC, og få oppdateringene på enheten du er på, slik at du ikke går glipp av noe."

Konklusjon

På mange måter hører vi alle tre selskapene flytte sammen, spesielt i "proaktiv" innsats. Google og Apple sa at verktøyene deres ville være mer "proaktive", og bruker ordet for å beskrive hvordan de vil at deres personlige assistenter i det minste skal fremstå som om de er i stand til å forutse hva du kommer til å lete etter.

Alle tre fokuserer på bedre forbindelse med de andre applikasjonene på systemet ditt, med Apple og Google som kunngjør et fokus på "dyp lenking." Konkret ønsker de å koble til ting i en app, for eksempel å gå til riktig skjermbilde i OpenTable for å reservere et bord. På I / O viste visepresident for ingeniørvirksomhet for Android Dave Burke hvordan Android M nå har bedre måter for lenker å gå fra lenker i e-post eller nettsteder til rett sted i en applikasjon, uten den nåværende skjermbildet "disambiguation".

Resultatet av alt dette er en uskarphet av linjene mellom operativsystemet og appene som kjører på toppen av det, for å gi en mer sømløs opplevelse og systemer som virkelig vet mye mer om deg.

Alt dette skal være ganske nyttig. Men av forskjellige årsaker kan alt dette også være skummelt. Det er altfor lett å forestille seg muligheten for misbruk av dataene, enten det er bare for overvåken markedsføring eller for reelle invasjoner av personvern. Jeg er nysgjerrig på hvordan hvert av selskapene vil adressere dette. Jeg lurer på om en av grunnene til at Google ikke har kalt tjenesten sin som en "personlig assistent", er fordi det høres litt avskyelig ut fra et selskap hvis primære forretningsmodell er orientert rundt å samle inn data om mennesker og bruke dem til å bedre målrette dem.

Det er også enkelt å overdrive funksjonene til disse systemene. Konseptet med en allvitende, allverdende maskin kan være skummelt, men jeg er ikke bekymret for at noen av disse systemene utvikler "sterk AI" i betydningen The Terminator 's Skynet eller 2001: A Space Odyssey 's HAL når som helst i nær fremtid. Som en deltaker sa på et nylig panel som jeg deltok på sa: "Tenk Jarvis, ikke HAL" - forteller om den nyttige intelligensen i drakten som ble båret i Iron Man-filmene, i motsetning til den drapsdømte maskinen fra 2001. De neste årene, spørsmålet vil ikke være om disse systemene er for smarte, men om de vil være smarte nok til å være virkelig nyttige, eller om vi finner oss i å bruke dem bare som frontend for web-søk.

Selvfølgelig er djevelen i detaljene, og vi vil egentlig ikke vite hvor godt noen av systemene fungerer før de nye versjonene sendes. Mens stemmegjenkjenning forbedres, fører det til flere utfordringer å utvide dette til nye domener. Og jeg er ikke klar over hvor bra jobb systemene vil gjøre ved å la deg velge tjenestene du vil bruke som motstander av å misligholde Apple eller Googles egne tjenester.

Men det overordnede konseptet er klart, og verktøyet kan være kjempefint. Hvis de er distribuert riktig, skal slike tjenester gjøre at enhetene våre føles enklere å bruke, mer intelligente og mer personaliserte. De vil ha utfordringer og vil vekke noen bekymringer, men jeg antar at de vil gjøre mer for å endre hvordan vi samhandler med enhetene våre enn noe annet siden berøringsskjermen.

Apple, google, og veien til kunnskapsassistenten