Hjem meninger Kan noe beskytte oss mot deepfakes? | ben dickson

Kan noe beskytte oss mot deepfakes? | ben dickson

Innholdsfortegnelse:

Video: Improving Tron Legacy using Deep Fakes (Oktober 2024)

Video: Improving Tron Legacy using Deep Fakes (Oktober 2024)
Anonim

På slutten av 2017 rapporterte Motherboard om en AI-teknologi som kunne bytte ansikter i videoer. På den tiden ga teknologien - senere kalt deepfakes - rå, kornete resultater og ble mest brukt til å lage falske pornovideoer med kjendiser og politikere.

To år senere har teknologien avansert enormt og er vanskeligere å oppdage med det blotte øye. Sammen med falske nyheter har forfalskede videoer blitt et nasjonalt sikkerhetsproblem, spesielt etter hvert som presidentvalget i 2020 nærmer seg.

Siden deepfakes dukket opp, har flere organisasjoner og selskaper utviklet teknologier for å oppdage AI-tuklede videoer. Men det er frykt for at deepfakes-teknologien en dag vil være umulig å oppdage.

Forskere ved University of Surrey utviklet en løsning som kan løse problemet: i stedet for å oppdage hva som er usant, vil det bevise hva som er sant. Planlagt å bli presentert på den kommende konferansen om datavisjon og mønstergjenkjenning (CVPR), teknologien, kalt erkeengelen, bruker AI og blockchain for å lage og registrere et manipulasjonssikkert digitalt fingeravtrykk for autentiske videoer. Fingeravtrykket kan brukes som et referansepunkt for å bekrefte gyldigheten av medier som distribueres online eller kringkastes på TV.

Bruke AI til å signere videoer

Den klassiske måten å bevise ektheten til et binært dokument er å bruke en digital signatur. Utgivere kjører dokumentet sitt gjennom en kryptografisk algoritme som SHA256, MD5 eller Blowfish, som produserer en "hash", en kort rekke byte som representerer innholdet i filen og blir dens digitale signatur. Å kjøre den samme filen gjennom hash-algoritmen når som helst vil produsere den samme hasjen hvis innholdet ikke har endret seg.

Hashes er overfølsomme for endringer i den binære strukturen til kildefilen. Når du modifiserer en enkelt byte i hashfilen og kjører den gjennom algoritmen igjen, gir den et helt annet resultat.

Men mens hasjer fungerer bra for tekstfiler og applikasjoner, byr de på utfordringer for videoer, som kan lagres i forskjellige formater, ifølge John Collomosse, professor i datavisjon ved University of Surrey og prosjektleder for Erkeengel.

"Vi ønsket at signaturen skulle være den samme uavhengig av kodeken videoen komprimeres med, " sier Collomosse. "Hvis jeg tar videoen min og konverterer den fra, for eksempel, MPEG-2 til MPEG-4, vil den filen ha en helt annen lengde, og bitene vil ha endret seg fullstendig, noe som vil gi en annen hasj. Det vi trengte var en innholdsbevisst hashing-algoritme."

For å løse dette problemet utviklet Collomosse og kollegene et dypt nevralt nettverk som er følsomt for innholdet i videoen. Dype nevrale nettverk er en type AI-konstruksjon som utvikler sin oppførsel gjennom analyse av store mengder eksempler. Interessant er nevrale nettverk også teknologien som er kjernen i deepfakes.

Når du lager deepfakes, mater utvikleren nettverket med bilder av ansikts ansikt. Nevralt nettverk lærer funksjonene i ansiktet og blir med nok trening i stand til å finne og bytte ansikter i andre videoer med motivets ansikt.

Erkengels nevrale nettverk er opplært i videoen som det er fingeravtrykk. "Nettverket ser på innholdet i videoen i stedet for de underliggende bitene og bytene, " sier Collomosse.

Etter opplæring, når du kjører en ny video gjennom nettverket, vil den validere den når den inneholder samme innhold som kildevideoen uavhengig av formatet, og vil avvise den når den er en annen video eller har blitt tuklet med eller redigert.

I følge Collomosse kan teknologien oppdage både romlig og tidsmessig manipulering. Romlig sabotasje er endringer som gjøres i individuelle rammer, for eksempel de ansiktsbyttende endringene som gjøres i deepfakes.

Men deepfakes er ikke den eneste måten videoer kan tukles med. Mindre diskutert, men like farlig, er forsettlige endringer som er gjort i rammen og til hastigheten og varigheten av videoen. En nylig, mye sirkulert tuklet video av hushøyttaler Nancy Pelosi brukte ikke deepfakes, men ble opprettet gjennom nøye bruk av enkle redigeringsmetoder som fikk henne til å virke forvirret.

"En av de formene for sabotasje vi kan oppdage er fjerning av korte segmenter av videoen. Dette er temporære tampere. Og vi kan oppdage inntil tre sekunder med tukling. Så hvis en video er flere timer lang, og du bare fjerner tre sekunder av den videoen, kan vi oppdage det, "sier Collomosse og legger til at Erkeengelen også vil oppdage endringer som er gjort i hastigheten på den opprinnelige videoen, slik det ble gjort i Pelosi-videoen.

Registrering av fingeravtrykket på Blockchain

Den andre komponenten i Archangel-prosjektet er en blockchain, en manipuleringssikker database der ny informasjon kan lagres, men ikke endres - ideell for videoarkiver, som ikke gjør endringer i videoer når de er registrert.

Blockchain-teknologien ligger til grunn for digitale valutaer som Bitcoin og Ether. Det er en digital hovedbok vedlikeholdt av flere uavhengige partier. Flertallet av partiene må være enige om endringer i blockchain, noe som gjør det umulig for noen enkelt parti å ensidig blande seg med hovedboken.

Det er teknisk mulig å angripe og endre innholdet i en blockchain hvis mer enn 50 prosent av deltakerne samstemmer. Men i praksis er det ekstremt vanskelig, spesielt når blockchain opprettholdes av mange uavhengige partier med varierende mål og interesser.

Erkeengelsels blockchain er litt annerledes enn offentlig blockchain. For det første produserer den ikke cryptocurrency og lagrer bare identifikatoren, det innholdsbevisste fingeravtrykket og den binære hasjen til verifiseringsnevralt nettverk for hver video i et arkiv (blockchains er ikke egnet til å lagre store datamengder, og det er derfor selve videoen og nevrale nettverket er lagret utenfor kjeden).

Det er også en tillatt eller "privat" blockchain. Dette betyr at i motsetning til Bitcoin blockchain, der alle kan registrere nye transaksjoner, kan bare tillatte parter lagre nye poster på Erkeengelen blockchain.

Erkeengelen blir for tiden prøvet av et nettverk av nasjonale regjeringsarkiver fra Storbritannia, Estland, Norge, Australia og USA: For å lagre ny informasjon, må alle involverte land tegne tilskuddet. Men mens bare de nasjonale arkivene til de deltakende landene har rett til å legge til poster, har alle andre lesetilgang til blockchain og kan bruke den til å validere andre videoer mot arkivet.

  • AI og Machine Learning Exploit, Deepfakes, nå vanskeligere å oppdage AI og Machine Learning Exploit, Deepfakes, Now Harder to Detect
  • Deepfake videoer er her, og vi er ikke klare Deepfake videoer er her, og vi er ikke klare
  • Adobes nye AI oppdager fotoshoppede ansikter Adobes nye AI oppdager fotoshoppede ansikter

"Dette er en applikasjon av blockchain for allmennheten, " sier Collomosse. "Etter mitt syn er den eneste rimelige bruken av blockchain når du har uavhengige organisasjoner som ikke nødvendigvis stoler på hverandre, men de har denne interessen i dette kollektive målet om gjensidig tillit. Og det vi ønsker å gjøre er sikre de nasjonale arkivene til regjeringene over hele verden, slik at vi kan underskrive deres integritet ved hjelp av denne teknologien."

Fordi det blir enklere, raskere og mer tilgjengelig å lage forfalskede videoer, vil alle trenge all den hjelpen de kan få for å sikre integriteten til videoarkivene sine - spesielt regjeringer.

"Jeg tror deepfakes nesten er som et våpenløp, " sier Collomosse. "Fordi folk produserer stadig mer overbevisende dybder, og en dag kan det bli umulig å oppdage dem. Det er grunnen til at det beste du kan gjøre er å prøve å bevise herkomst av en video."

Kan noe beskytte oss mot deepfakes? | ben dickson