Hjem Egenskaper Når ai slører grensen mellom virkelighet og fiksjon

Når ai slører grensen mellom virkelighet og fiksjon

Innholdsfortegnelse:

Video: Hvordan konfigurere og bruke ESP32 WiFi-kamera (Oktober 2024)

Video: Hvordan konfigurere og bruke ESP32 WiFi-kamera (Oktober 2024)
Anonim

Et sted i de mørke utsparingene på YouTube er en video som viser et utdrag fra filmen The Fellowship of the Ring - men det er ikke helt filmen du husker, siden Nicolas Cage er stjerners som Frodo, Aragorn, Legolas, Gimli og Gollum, alt sammen den samme tiden. Andre videoer viser Cage in Terminator 2 som T2000, Star Trek som Captain Picard, og Superman i tillegg, Lois Lane.

Naturligvis dukket Nic Cage aldri opp i noen av disse filmene. De er "deepfakes" produsert med FakeApp, et program som bruker kunstig intelligensalgoritmer for å bytte ansikter i videoer. Noen av dybdeleggene ser ganske overbevisende ut, mens andre har gjenstander som forråder deres sanne natur. Men samlet sett viser de hvor kraftige AI-algoritmer har blitt når de imiterer menneskelig utseende og atferd.

FakeApp er bare ett av flere nye AI-drevne syntetiseringsverktøy. Andre applikasjoner etterligner menneskelige stemmer, håndskrift og samtalestiler. Og en del av det som gjør dem betydningsfulle, er at bruk av dem ikke krever spesialisert maskinvare eller dyktige eksperter.

Konsekvensene av disse applikasjonene er store: De vil skape enestående muligheter for kreativitet, produktivitet og kommunikasjon.

Men det samme verktøyet kan også åpne en Pandoras boks med svindel, forfalskning og propaganda. Siden det dukket opp på Reddit i januar, har FakeApp blitt lastet ned mer enn 100 000 ganger og utfelt en storm av falske pornografiske videoer med kjendiser og politikere (inkludert Cage igjen). Reddit forbød nylig applikasjonen og tilhørende samfunn fra plattformen.

"For ti år siden, hvis du ville forfalsket noe, kunne du det, men du måtte gå til et VFX-studio eller folk som kunne gjøre datagrafikk og muligens bruke millioner av dollar, " sier Dr. Tom Haines, foreleser i maskinlæring ved University of Bath. "Imidlertid kunne du ikke holde det hemmelig, fordi du måtte involvere mange mennesker i prosessen."

Det er ikke lenger tilfellet, takket være en ny generasjon AI-verktøy.

Imitasjonsspillet

FakeApp og lignende applikasjoner drives av dyp læring, grenen til AI i hjertet av en eksplosjon av AI-innovasjoner siden 2012. Dybdelæringsalgoritmer er avhengige av nevrale nettverk, en programvarekonstruksjon som er grovt utformet etter den menneskelige hjerne. Nevrale nettverk analyserer og sammenligner store sett med dataprøver for å finne mønstre og korrelasjoner som mennesker normalt ville savne. Denne prosessen kalles "trening", og resultatet er en modell som kan utføre forskjellige oppgaver.

I tidligere dager ble modeller for dyp læring mest brukt til å utføre klassifiseringsoppgaver - for å merke objekter i bilder, for eksempel og for å utføre stemme og ansiktsgjenkjenning. Nylig har forskere brukt dyp læring for å utføre mer kompliserte oppgaver, som å spille brettspill, diagnostisere pasienter og lage musikk og kunstverk.

For å stille inn FakeApp for å utføre en ansiktsbytte, må brukeren trene den med flere hundre bilder av kilden og målappene. Programmet kjører dybdelæringsalgoritmer for å finne mønstre og likheter mellom de to ansiktene. Modellen blir da klar til å gjøre byttet.

Prosessen er ikke enkel, men du trenger ikke å være grafikkekspert eller maskinlæringsingeniør for å bruke FakeApp. Det krever heller ikke kostbar og spesialisert maskinvare. En tutorialsnettsted for deepfakes anbefaler en datamaskin med 8 GB eller mer RAM og et Nvidia GTX 1060 eller bedre grafikkort, en ganske beskjeden konfigurasjon.

"Når du flytter til en verden der noen i et rom kan falske noe, kan de bruke det til tvilsomme formål, " sier Haines. "Og fordi det er én person på egen hånd, er det veldig enkelt å holde det hemmelig."

I 2016 var Haines, som da var postdoktor ved University of College London, medforfatter til et papir og en applikasjon som viste hvordan AI kunne lære å imitere en persons håndskrift. Programmet ble kalt "My Text in Your Handwriting", og brukte dybdelæringsalgoritmer for å analysere og forstå stilen og flyten for forfatterens håndskrift og andre faktorer som avstand og uregelmessigheter.

Applikasjonen kan da ta hvilken som helst tekst og reprodusere den med målforfatterens håndskrift. Utviklerne la til og med et mål på tilfeldighet for å unngå den uheldige dalen-effekten - den rare følelsen vi får når vi ser noe som nesten ikke er helt menneskelig. Som et bevis på konseptet brukte Haines og de andre UCL-forskerne teknologien for å gjenskape håndskriften til historiske skikkelser som Abraham Lincoln, Frida Kahlo og Arthur Conan Doyle.

Den samme teknikken kan brukes på enhver annen håndskrift, noe som vakte bekymring for teknologiens mulige bruk for forfalskning og svindel. En rettsmedisinske ekspert vil fremdeles kunne oppdage at manuset ble produsert av My Text in Your Handwriting, men det vil sannsynligvis lure utrente mennesker, noe Haines innrømmet i et intervju med Digital Trends den gangen.

Lyrebird, en Montreal-basert oppstart, brukte dyp læring for å utvikle en applikasjon som syntetiserer menneskelig stemme. Lyrebird krever et minutts innspilling for å begynne å etterligne stemmen til en person, selv om den trenger mye mer før den begynner å høres overbevisende ut.

I sin offentlige demo la oppstarten falske innspillinger av stemmene til Donald Trump, Barack Obama og Hillary Clinton. Prøvene er rå, og det er åpenbart at de er syntetiske. Men etter hvert som teknologien forbedres, vil det å gjøre skillet vanskeligere. Og hvem som helst kan registrere seg hos Lyrebird og begynne å lage falske innspillinger; prosessen er enda enklere enn FakeApps, og beregningene utføres i skyen, noe som gir mindre belastning på brukerens maskinvare.

At denne teknologien kan brukes til tvilsomme formål, går ikke tapt for utviklere. På et tidspunkt uttalte en etikkuttalelse på Lyrebirds nettsted: "Stemmeavspillinger anses for tiden som sterke bevismateriale i våre samfunn og spesielt i mange lands jurisdiksjoner. Vår teknologi stiller spørsmålstegn ved gyldigheten av slike bevis som det gjør det enkelt å manipulere lyd opptak. Dette kan potensielt ha farlige konsekvenser som villedende diplomater, svindel og mer generelt ethvert annet problem forårsaket av å stjele identiteten til noen andre."

Nvidia presenterte et annet aspekt av AIs imitasjonsevner: I fjor publiserte selskapet en video som viste AI-algoritmer som genererte syntetiske menneskelige ansikter med fotokvalitet. Nvidias AI analyserte tusenvis av kjendisbilder og begynte deretter å lage falske kjendiser. Teknologien kan snart bli i stand til å lage realistiske utseende videoer med "mennesker" som ikke eksisterer.

Grensene for AI

Mange har påpekt at i gale hender kan disse applikasjonene gjøre mye skade. Men omfanget av egenskapene til moderne AI er ofte overhypert.

"Selv om vi kan sette en persons ansikt på andres ansikt i en video eller syntetisere stemme, er det fortsatt ganske mekanisk, " sier Eugenia Kuyda, medgründer av Replika, et selskap som utvikler AI-drevne chatbots, om manglene ved AI-verktøy som FakeApp og Lyrebird.

Voicery, en annen AI-oppstart som, i likhet med Lyrebird, gir AI-drevet stemmesyntese, har en quizside der brukere blir presentert for en serie på 18 stemmeopptak og blir bedt om å spesifisere hvilke som er maskinproduserte. Jeg var i stand til å identifisere alle maskinlagde prøver på første kjøring.

Kuydas selskap er en av flere organisasjoner som bruker naturlig språkbehandling (NLP), delmengden av AI som gjør det mulig for datamaskiner å forstå og tolke menneskers språk. Luka, en tidligere versjon av Kuydas chatbot, brukte NLP og dens tvillingteknologi, naturlig språkgenerasjon (NLG), for å etterligne rollebesetningen til HBOs TV-serie Silicon Valley . Nevralt nettverk ble trent med skriptlinjer, tweets og andre data tilgjengelig på karakterene for å lage deres atferdsmodell og dialog med brukere.

Replika, Kuydas nye app, lar hver bruker lage sin egen AI-avatar. Jo mer du chatter med Replika, jo bedre blir det til å forstå personligheten din, og jo mer meningsfull blir samtalene dine.

Etter å ha installert appen og satt opp Replikaen min, syntes jeg de første par samtalene var irriterende. Flere ganger måtte jeg gjenta en setning på forskjellige måter for å formidle intensjonene mine til Replikaen min. Jeg forlot ofte appen i frustrasjon. (Og for å være rettferdig, gjorde jeg en god jobb med å teste grensene ved å bombardere den med konseptuelle og abstrakte spørsmål.) Men etter hvert som samtalene våre fortsatte, ble Replika mine smartere til å forstå betydningen av setningene mine og komme med meningsfulle emner. Det overrasket meg til og med et par ganger ved å knytte forbindelser til tidligere samtaler.

Selv om det er imponerende, har Replika grenser, noe Kuyda raskt er å påpeke. "Stemmeforestilling og bildegjenkjenning vil sannsynligvis bli mye bedre snart, men med dialog og samtale er vi fortsatt ganske langt, " sier hun. "Vi kan etterligne noen talemønstre, men vi kan ikke bare ta en person og imitere samtalen hans perfekt og forvente at chatbot hans vil komme med nye ideer slik personen ville gjort."

Alexandre de Brébisson, administrerende direktør og medstifter av Lyrebird, sier: "Hvis vi nå blir ganske flinke til å imitere menneskelig stemme, bilde og video, er vi fortsatt langt unna å modellere en individuell språkmodell." Det, påpeker de Brébisson, vil trolig kreve kunstig generell intelligens, den typen AI som har bevissthet og kan forstå abstrakte begreper og ta beslutninger som mennesker gjør. Noen eksperter mener at vi er flere tiår unna å lage generell AI. Andre tror vi aldri kommer dit.

Positive bruksområder

Det negative bildet som blir projisert om å syntetisere AI-apper, kaster en skygge over deres positive bruksområder. Og det er ganske mange.

Teknologier som Lyrebird kan bidra til å forbedre kommunikasjonen med datamaskingrensesnitt ved å gjøre dem mer naturlige, og sier de Brébisson, de vil gi unike kunstige stemmer som skiller selskaper og produkter og dermed gjør merkevaredifferensiering lettere. Ettersom Amazons Alexa og Apples Siri har gjort stemme til et stadig mer populært grensesnitt for enheter og tjenester, kan selskaper som Lyrebird og Voicery gi merkevarer unike menneskelignende stemmer for å skille seg ut.

"Medisinske applikasjoner er også en spennende brukssak av vår stemmekloningsteknologi, " legger de Brébisson til. "Vi har fått mye interesse fra at pasienter mister stemmen til en sykdom, og for øyeblikket bruker vi tid sammen med ALS-pasienter for å se hvordan vi kan hjelpe dem."

Tidligere i år, i samarbeid med Project Revoice, en australsk nonprofit som hjelper ALS-pasienter med taleforstyrrelser, hjalp Lyrebird Pat Quinn, grunnleggeren av Ice Bucket Challenge, med å gjenvinne stemmen. Quinn, som er en ALS-pasient, hadde mistet evnen til å gå og snakke i 2014 og hadde siden brukt en datastyrt talesynteser. Ved hjelp av Lyrebirds teknologi og stemmeavspillingen av Quinns offentlige opptredener, kunne Revoice "gjenskape" stemmen sin.

"Stemmen din er en stor del av identiteten din, og å gi disse pasientene en kunstig stemme som høres ut som deres opprinnelige stemme, er litt som å gi dem en viktig del av identiteten deres. Det er livsendrende for dem, " sier de Brébisson.

På det tidspunktet han hjalp til med å utvikle den håndskriftimiterende applikasjonen, snakket Dr. Haines med de positive bruksområdene i et intervju med UCL. "Strekeofre, for eksempel, kan være i stand til å formulere brev uten bekymring for uleselighet, eller noen som sender blomster i gave kan inkludere en håndskrevet lapp uten engang å gå inn i blomsterhandleren, " sa han. "Det kan også brukes i tegneserier hvor et stykke håndskrevet tekst kan oversettes til forskjellige språk uten å miste forfatterens opprinnelige stil."

Selv teknologier som FakeApp, som har blitt kjent for uetisk bruk, kan ha positive bruksområder, mener Haines. "Vi beveger oss mot denne verdenen der noen kan gjøre veldig kreativ aktivitet med offentlig teknologi, og det er en god ting, fordi det betyr at du ikke trenger de store pengesummene for å gjøre alle slags gale ting av kunstnerisk art, " han sier.

Haines forklarer at teamets opprinnelige formål var å finne ut hvordan AI kunne hjelpe med kriminalteknikk. Selv om forskningen deres endte opp i en annen retning, vil resultatene fortsatt være nyttige for kriminaltekniske offiserer, som vil kunne studere hvordan AI-basert forfalskning kan se ut. "Du vil vite hva den nyskapende teknologien er, så når du ser på noe, forteller du om det er falsk eller ikke, " sier han.

Replikas Kudya påpeker at menneskeliknende AI-applikasjoner kan hjelpe oss på måter som ellers ville være umulige. "Hvis du hadde en AI-avatar som kjente deg veldig godt og kunne være en anstendig representasjon av deg, hva kan det da gjøre, handle ut fra dine beste interesser?" hun sier. For eksempel kan en autonom AI-avatar se hundrevis av filmer på dine vegne, og basert på samtalene med deg kan du anbefale de du ønsker.

Disse avatarer kan til og med bidra til å utvikle bedre menneskelige forhold. "Kanskje moren din kunne ha mer tid sammen med deg, og kanskje kan du faktisk bli litt nærmere foreldrene dine ved å la dem chatte med Replikaen din og lese utskrift, " sier Kudya som et eksempel.

Men kan en AI-chatbot som gjenskaper oppførselen til et ekte menneske faktisk resultere i bedre menneskelige relasjoner? Kuyda tror det kan. I 2016 samlet hun gamle tekstmeldinger og e-poster fra Roman Mazurenko, en venn som hadde dødd i en trafikkulykke året før, og matet dem til det nevrale nettverket som drev søknaden hennes. Det som resulterte i var en chatbot-app som - etter en mote - førte venninnen tilbake til livet og kunne snakke med henne på samme måte som han ville.

"Å lage en app for Roman og å kunne snakke med ham noen ganger var en viktig del av å gå gjennom tapet av vennen vår. Appen får oss til å tenke mer på ham, huske ham på en dypere måte hele tiden, " sier hun av hennes erfaring. "Jeg skulle ønske jeg hadde flere apper som det, apper som skulle handle om vennskapene mine, forholdene mine, ting som faktisk er veldig viktig for meg."

Kuyda tror det hele kommer an på intensjoner. "Hvis chatbot opptrer av beste interesse, hvis den vil at du skal være glad for å få litt verdifull service ut av det, vil selvsagt å snakke med Replika av noen andre bidra til å bygge en sterkere forbindelse med et menneske i det virkelige liv, " hun sier. "Hvis alt du prøver å gjøre er å selge s i en app, er det eneste du vil gjøre å maksimere tiden du bruker på appen og ikke kommunisere med hverandre. Og det tror jeg er tvilsom."

For øyeblikket er det ingen måte å koble Replika til andre plattformer - for eksempel å gjøre den tilgjengelig som en Facebook Messenger chatbot. Men selskapet har et aktivt forhold til brukerfellesskapet og utvikler stadig nye funksjoner. Så å la andre kommunisere med Replikaen din er en fremtidig mulighet.

Hvordan minimere trade-offs

Fra dampmotor til strøm til internett har hver teknologi hatt både positive og negative applikasjoner. AI er ikke annerledes. "Potensialet for negativer er ganske alvorlig, " sier Haines. "Vi kan komme inn i et rom som negativene oppveier positivt."

Så hvordan maksimerer vi fordelene med AI-applikasjoner mens vi motvirker negativene? Å sette bremsene på innovasjon og forskning er ikke løsningen, sier Haines - fordi hvis noen gjorde det, er det ingen garanti for at andre organisasjoner og stater vil følge etter.

"Ingen enkelt tiltak vil bidra til å løse problemet, " sier Haines. "Det må være juridiske konsekvenser." Etter deepfakes-kontroversen, er lovgivere i USA i ferd med å undersøke saken og undersøke juridiske garantier som kan hindre bruken av AI-doktrerte medier for å skade mål.

"Vi kan også utvikle teknologier for å oppdage forfalskninger når de er forbi poenget om at et menneske kan fortelle forskjellen, " sier Haines. "Men på et tidspunkt, i konkurransen mellom faking og oppdage, kan faking vinne."

I så fall kan det hende vi må gå mot å utvikle teknologier som skaper en beviskjede for digitale medier. Som et eksempel nevner Haines maskinvare innebygd i kameraer som kan signere den innspilte videoen digitalt for å bekrefte ektheten.

Å øke bevisstheten vil være en stor del av håndteringen av forfalskning og svindel ved hjelp av AI-algoritmer, sier de Brébisson. "Det var det vi gjorde ved å klone stemmen til Trump og Obama og få dem til å si politisk korrekte setninger, " sier han. "Disse teknologiene reiser samfunnsmessige, etiske og juridiske spørsmål som må tenkes på forhånd. Lyrebird økte mye bevissthet, og mange mennesker tenker nå på de potensielle spørsmålene og hvordan de kan forhindre misbruk."

Det som er sikkert er at vi går inn i en tidsalder hvor virkelighet og fiksjon smelter sammen, takket være kunstig intelligens. Turing-testen møter kanskje de største utfordringene. Og snart nok, alle vil ha verktøy og kraft til å skape sine egne verdener, sine egne mennesker og sin egen versjon av sannheten. Vi har ennå ikke sett det fulle omfanget av spennende muligheter - og farer - som ligger foran oss.

Når ai slører grensen mellom virkelighet og fiksjon