Hjem meninger Lære av alexas feil

Lære av alexas feil

Innholdsfortegnelse:

Video: Превращение двух ШЕСТИГРАННЫХ ГАЕК в БРИЛЛИАНТОВОЕ КОЛЬЦО в 1 карат (Oktober 2024)

Video: Превращение двух ШЕСТИГРАННЫХ ГАЕК в БРИЛЛИАНТОВОЕ КОЛЬЦО в 1 карат (Oktober 2024)
Anonim

En Amazon Echo-enhet registrerte nylig den private samtalen til en bruker og sendte den til en av kontaktene sine uten deres viten og samtykke. Dette (igjen) vekker bekymring for sikkerheten og personvernet til smarte høyttalere. Men siden det senere ble tydelig, var Alexa's rare oppførsel ikke en del av et uhyggelig spionasjeplott - snarere forårsaket det av en serie koblede feil som ble tilskrevet måten den smarte høyttaleren fungerer på.

Ifølge en konto levert av Amazon: "Echo våknet på grunn av et ord i bakgrunnssamtale som hørtes ut som 'Alexa.' Deretter ble den påfølgende samtalen hørt som en "send melding" -forespørsel. På hvilket tidspunkt sa Alexa høyt "Til hvem?" På hvilket tidspunkt ble bakgrunnssamtalen tolket som et navn i kundens kontaktliste. Alexa spurte deretter høyt, 'ikke sant?' Alexa tolket deretter bakgrunnssamtale som 'riktig'. Så usannsynlig som denne hendelsesstrengen er, vurderer vi alternativer for å gjøre denne saken enda mindre sannsynlig."

Scenariet er en kantsak, den typen hendelser som skjer veldig sjelden. Men det er også en interessant studie i grensene for kunstig intelligenssteknologi som styrker Echo og andre såkalte "smarte" enheter.

For mye skyavhengighet

For å forstå stemmekommandoer, er smarte høyttalere som Echo og Google Home avhengige av dybdelæringsalgoritmer, som krever omfattende datakraft. Siden de ikke har databehandlingsressursene for å utføre oppgaven lokalt, må de sende dataene til produsentens skyservere, der AI-algoritmer transformerer taledata til tekst og behandler kommandoene.

Men smarte høyttalere kan ikke sende alt de hører til skyserverne sine, fordi det vil kreve at produsenten lagrer store mengder data på serverne deres - de fleste vil være ubrukelige. Å tilfeldig registrere og lagre private samtaler som foregår i brukernes hjem, ville også by på en personvernutfordring og kunne få produsenter i trøbbel, spesielt med nye personvernforskrifter som legger alvorlige begrensninger for hvordan teknologiselskaper lagrer og bruker data.

Derfor er smarte høyttalere designet for å bli utløst etter at brukeren ytrer et våkne ord som "Alexa" eller "Hey Google." Først etter å ha hørt våkenordet begynner de å sende mikrofonenes lydinngang til skyen for analyse og prosessering.

Selv om denne funksjonen forbedrer personvernet, presenterer den sine egne utfordringer, slik den nylige Alexa-hendelsen fremhevet.

"Hvis ord - eller noe som høres veldig ut som det - blir sendt halvveis i en samtale, vil ikke Alexa ha noen av den tidligere konteksten, " sier Joshua March, administrerende direktør i Conversocial. "På det tidspunktet lytter det ekstremt hardt etter kommandoer relatert til ferdighetene du har satt opp (som messaging-appen deres). For det meste blir personvernet sterkt forbedret ved å begrense konteksten som Alexa legger merke til (som det er ikke innspilling eller lytting til noen av de normale samtalene dine), selv om det tilbakeholdt i dette tilfellet."

Fremskritt innen databehandling kan bidra til å lindre dette problemet. Ettersom AI og dyp læring finner veien til flere og flere enheter og applikasjoner, har noen maskinvareprodusenter laget prosessorer som er spesialiserte for å utføre AI-oppgaver uten for mye avhengighet av skyressurser. Edge AI-prosessorer kan hjelpe enheter som Echo til bedre å forstå og behandle samtaler uten å krenke brukernes personvern ved å sende alle dataene til skyen.

Kontekst og intensjon

Bortsett fra å motta forskjellige og fragmenterte lydstykker, sliter Amazons AI med å forstå nyansene i menneskelig samtale.

"Selv om det har vært store fremskritt innen dyp læring de siste årene, og som gjør det mulig for programvare å forstå tale og bilder bedre enn noen gang før, er det fremdeles mange grenser, " sier March. "Mens stemmeassistenter kan kjenne igjen ordene du sier, har de ikke nødvendigvis noen form for reell forståelse av betydningen eller intensjonen bak det. Verden er et sammensatt sted, men et hvilket som helst AI-system i dag er bare i stand til å håndtere veldig spesifikke, smale brukssaker."

For eksempel har vi mennesker mange måter å avgjøre om en setning er rettet mot oss, som for eksempel tonetone, eller å følge visuelle signaler - si retningen taleren ser.

I motsetning til dette antar Alexa at det er mottakeren av en setning som inneholder "A" -ordet. Dette er grunnen til at brukere ofte utløser det ved et uhell.

En del av problemet er at vi overdriver mulighetene til gjeldende AI-applikasjoner, ofte setter de på nivå med eller over menneskesinnet og setter for stor tillit til dem. Derfor blir vi overrasket når de mislykkes spektakulært.

"En del av problemet her er at begrepet 'AI' er blitt markedsført så aggressivt at forbrukere har lagt en ufortjent mengde tro på produkter med dette uttrykket knyttet til dem, " sier Pascal Kaufmann, nevrovitenskapsmann og grunnlegger av Starmind. "Denne historien illustrerer at Alexa har mange evner og en relativt begrenset forståelse av hvordan og når de skal brukes riktig."

Dybdelæringsalgoritmer er tilbøyelige til å mislykkes når de møter innstillinger som avviker fra dataene og scenariene de er opplært til. "Et av de definerende trekkene ved AI på menneskelig nivå vil være selvforsynt kompetanse og en sann forståelse av innhold, " sier Kaufmann. "Dette er en avgjørende del av å virkelig anse en AI 'intelligent' og avgjørende for dens utvikling. Å skape selvbevisste digitale assistenter, som fører en full forståelse av menneskets natur, vil markere deres transformasjon fra en morsom nyhet til en virkelig nyttig verktøy."

Men å lage AI på menneskelig nivå, også referert til som generell AI, er lettere sagt enn gjort. I mange tiår har vi tenkt at det er rett rundt hjørnet, bare for å bli forferdet ettersom teknologiske fremskritt har vist hvor komplisert menneskesinnet er. Mange eksperter mener å jage generell AI er nytteløst.

I mellomtiden gir smale AI (som nåværende teknologier for kunstig intelligens er beskrevet) fortsatt mange muligheter og kan fikses for å unngå gjentagelse av feil. For å være tydelig, fortsetter dyp læring og maskinlæring, og selskaper som Amazon oppdaterer kontinuerlig AI-algoritmer for å adressere kantsaker hver gang de skjer.

Hva vi trenger å gjøre

"Dette er et ungt, gryende felt. Forståelse av naturlig språk er spesielt i sin spede begynnelse, så det er mye vi kan gjøre her, " sier Eric Moller, CTO for Atomic X.

Moller mener stemmeanalyse AI-algoritmer kan stilles inn for bedre å forstå intonasjon og bøyning. "Å bruke ordet 'Alexa' i en bredere setning høres annerledes ut enn en påkallelse eller kommando. Alexa burde ikke våkne fordi du sa det navnet i forbifarten, " sier Moller. Med nok trening, skal AI kunne skille hvilke spesifikke toner som er rettet mot smarthøyttaleren.

Tekniske selskaper kan også trene sin AI for å kunne skille når de mottar bakgrunnsstøy i motsetning til å bli snakket direkte. "Bakgrundsskrav har en unik auditiv 'signatur' som mennesker er veldig flinke til å plukke opp og selektivt avstemme. Det er ingen grunn til at vi ikke kan trene AI-modeller til å gjøre det samme, " sier Moller.

Som en forholdsregel bør AI-assistenter rangere virkningen av beslutningene de tar og involvere menneskelig beslutning i tilfeller der de ønsker å gjøre noe som er potensielt følsomt. Produsenter bør bake mer sikkerhet i teknologiene sine for å forhindre at sensitiv informasjon blir sendt over uten eksplisitt og tydelig samtykke fra brukeren.

"Selv om Amazon rapporterte at Alexa forsøkte å bekrefte handlingen den tolket, må noen handlinger styres mer nøye og holdes til en høyere standard for bekreftelse av brukerens intensjon, " sier Sagi Eliyahi, administrerende direktør i Tonkean. "Mennesker har de samme spørsmålene om talegjenkjenning, og til tider misforstå forespørsler. I motsetning til Alexa, er det imidlertid mer sannsynlig at et menneske bekrefter absolutt at de forstår en uklar forespørsel og, enda viktigere, måler sannsynligheten for en forespørsel sammenlignet med tidligere forespørsler."

I mellomtiden…

Mens teknologiselskaper finjusterer AI-applikasjonene sine for å redusere feil, må brukerne ta den endelige beslutningen om hvor mye de vil bli utsatt for potensielle feil som AI-drevne enheter kan gjøre.

"Disse historiene viser en konflikt med datamengden som folk er villige til å dele mot løftet om nye AI-teknologier, " sier Doug Rose, datavitenskapelig ekspert og forfatteren av flere bøker om AI og programvare. "Du kan erte Siri for å være treg. Men den beste måten for henne å oppnå større intelligens er ved å invadere våre private samtaler. Så et sentralt spørsmål i løpet av det neste tiåret er så mye vi vil la disse AI-agentene kikke inn i oppførselen vår ?"

"Hvilken familie vil plassere en human assistent i stuen og la den personen lytte til noen form for samtale hele tiden?" sier Kaufmann, nevrovitenskapsmannen fra Starmind. "Vi bør i det minste bruke de samme standardene på såkalte 'AI'-enheter (hvis ikke høyere) som vi også bruker for menneskelige intelligente vesener når det kommer til personvern, hemmelighold eller pålitelighet."

Lære av alexas feil