Hjem meninger Hvorfor ai må røpe at det er ai

Hvorfor ai må røpe at det er ai

Innholdsfortegnelse:

Video: Er aí gostaram?? (Oktober 2024)

Video: Er aí gostaram?? (Oktober 2024)
Anonim

Google har nylig repitch Duplex for eksplisitt å avsløre for verter og salongansatte at de snakker med Google Assistant og blir spilt inn.

Google utelot denne lille, men viktige detaljene da den først introduserte Duplex på sin I / O-utviklerkonferanse i mai. Det oppsto et medieoppslag, og kritikere fornyet gammel frykt for implikasjonene av å slippe løs AI-agenter som kan utgjøre personers oppførsel på ikke skjelne måter.

Ved å finpusse Duplex, hviler Google på noe av den kritikken. Men hvorfor er det så viktig at selskaper er transparente om identiteten til AI-agentene sine?

Kan AI-assistenter tjene onde formål?

"Det er en økende forventning om at når du sender en melding til en bedrift, kan du samhandle med en AI-drevet chatbot. Men når du faktisk hører et menneske som snakker, forventer du generelt at det skal være en ekte person, " sier Joshua March, administrerende direktør av Coversocial.

Mars sier at vi er i begynnelsen av at folk har meningsfulle interaksjoner med AI regelmessig, og fremskritt på området har skapt frykten for at hackere kan utnytte AI-agenter til ondsinnede formål.

"I et best scenario kan AI-roboter med ondsinnede intensjoner fornærme folk, " sier Marcio Avillez, SVP for Networks ved Cujo AI. Men Marcio legger til at vi kan møte mer alvorlige trusler. For eksempel kan AI lære spesifikke språklige mønstre, noe som gjør det enklere å tilpasse teknologien til å manipulere mennesker, etterligne ofre og angripe på scenen (tale phishing) og lignende aktiviteter.

Mange eksperter er enige om at trusselen er reell. I en spalte for CIO la Steven Brykman ut de forskjellige måtene en teknologi som Duplex kan utnyttes: "I det minste med mennesker som ringer mennesker, er det fremdeles en begrensende faktor - et menneske kan bare ringe så mange samtaler per time, per dag. Mennesker må betales, ta pauser og så videre. Men en AI-chatbot kan bokstavelig talt ringe et ubegrenset antall samtaler til et ubegrenset antall mennesker på et ubegrenset antall måter!"

På dette stadiet er det meste av det vi hører spekulasjoner; vi vet fortsatt ikke omfanget og alvoret av truslene som kan oppstå ved bruk av stemmeassistenter. Men mange av de potensielle angrepene som involverer stemmebaserte assistenter kan misbrukes hvis selskapet som leverer teknologien eksplisitt kommuniserer til brukerne når de samhandler med en AI-agent.

Bekymringer om personvern

Et annet problem rundt bruken av teknologier som Duplex er den potensielle risikoen for personvern. AI-drevne systemer trenger brukerdata for å trene og forbedre algoritmene sine, og Duplex er intet unntak. Hvordan den vil lagre, sikre og bruke disse dataene er veldig viktig.

Det dukker opp nye forskrifter som krever at selskaper skal innhente eksplisitt samtykke fra brukere når de ønsker å samle inn informasjonen sin, men de er mest designet for å dekke teknologier der brukere med vilje setter i gang interaksjoner. Dette gir mening for AI-assistenter som Siri og Alexa, som er brukeraktivert. Men det er ikke klart hvordan de nye reglene vil gjelde for AI-assistenter som når ut til brukere uten å bli utløst.

I sin artikkel understreker Brykman behovet for å etablere forskriftsmessige garantier, for eksempel lover som krever at selskaper skal erklære tilstedeværelsen av en AI-agent - eller en lov om at når du spør en chatbot om det er en chatbot, må den si: "Ja, Jeg er en chatbot. " Slike tiltak vil gi den menneskelige samtalepartneren sjansen til å koble seg ut eller i det minste bestemme om de vil samhandle med et AI-system som registrerer deres stemme.

Selv med slike lover vil ikke personvernhensynene forsvinne. "Den største risikoen jeg ser for i teknologiens nåværende inkarnasjon, er at den vil gi Google enda mer data om våre private liv det ikke allerede hadde. Frem til dette tidspunktet visste de bare om vår online kommunikasjon; de vil nå få virkelig innblikk i samtalene våre i den virkelige verden, "sier Vian Chinner, grunnlegger og administrerende direktør for Xineoh.

Nyere personvernskandaler som involverer store teknologiselskaper, der de har brukt brukerdata på tvilsomme måter for sine egne gevinster, har skapt en følelse av mistillit om å gi dem flere vinduer inn i livene våre. "Folk generelt føler at de store Silicon Valley-selskapene ser på dem som varelager i stedet for kunder og har en stor grad av mistillit til nesten hva som helst de gjør, uansett hvor banebrytende og livsendrende det vil ende opp med, " sier Chinner.

Funksjonsfeil

Til tross for å ha en naturlig stemme og tone og bruke menneskelignende lyder som "mmhm" og "ummm", er Duplex ikke forskjellig fra andre moderne AI-teknologier og lider av de samme begrensningene.

Enten stemme eller tekst brukes som grensesnitt, AI-agenter er flinke til å løse spesifikke problemer. Det er derfor vi kaller dem "smal AI" (i motsetning til "generell AI" - den typen kunstig intelligens som kan drive med generell problemløsing, slik menneskesinnet gjør). Selv om smal AI kan være usedvanlig god til å utføre oppgavene den er programmert for, kan den mislykkes spektakulært når den gis et scenario som avviker fra problemdomenet.

"Hvis forbrukeren tror de snakker med et menneske, vil de sannsynligvis spørre noe som er utenfor AIs normale manus, og vil da få en frustrerende respons når boten ikke forstår, " sier Conversocials mars.

I motsetning til dette, når en person vet at de snakker med en AI som har blitt opplært til å reservere bord på en restaurant, vil de prøve å unngå å bruke språk som vil forvirre AI og få den til å oppføre seg på uventede måter, spesielt hvis den bringer dem en kunde.

"Ansatte som mottar samtaler fra Duplex, bør også motta en grei introduksjon om at dette ikke er en ekte person. Dette vil bidra til at kommunikasjonen mellom personalet og AI blir mer konservativ og tydelig, " sier Avillez.

Av denne grunn, inntil (og hvis) vi utvikler AI som kan prestere på nivå med menneskelig intelligens, er det i selskapenes interesse å være gjennomsiktige om bruken av AI.

På slutten av dagen er en del av frykten for stemmeassistenter som Duplex forårsaket av at de er nye, og vi blir fortsatt vant til å møte dem i nye innstillinger og bruke saker. "I det minste virker noen mennesker veldig ukomfortable med ideen om å snakke med en robot uten å vite det, så foreløpig bør det sannsynligvis røpes motpartene i samtalen, " sier Chinner.

  • AI er (også) en styrke for god AI er (også) en styrke for godt
  • Når AI slører linjen mellom virkelighet og skjønnlitteratur Når AI slører linjen mellom virkelighet og fiksjon
  • Kunstig intelligens har et skjevhetsproblem, og det er vårt feil Kunstig intelligens har et skjevhetsproblem, og det er vårt feil

Men på lang sikt vil vi bli vant til å samhandle med AI-agenter som er smartere og mer dyktige til å utføre oppgaver som tidligere ble antatt å være det eksklusive domenet til menneskelige operatører.

"Neste generasjon vil ikke bry seg om de snakker med en AI eller et menneske når de kontakter en virksomhet. De vil bare ønske å få svaret raskt og enkelt, og de vil ha vokst opp med å snakke med Alexa. Venter på hold for å snakke med et menneske vil være mye mer frustrerende enn bare å samhandle med en bot, "sier Conversocials mars.

Hvorfor ai må røpe at det er ai