Hjem Virksomhet Ai og maskinlæring utnytter, deepfakes, nå vanskeligere å oppdage

Ai og maskinlæring utnytter, deepfakes, nå vanskeligere å oppdage

Innholdsfortegnelse:

Video: Improving Tron Legacy using Deep Fakes (Oktober 2024)

Video: Improving Tron Legacy using Deep Fakes (Oktober 2024)
Anonim

Når vi går inn i neste valgkampkampsesong, vil du være forsiktig med de potensielle farene som falske videoer på nettet medfører kunstig intelligens (AI) og maskinlæring (ML). Ved hjelp av AI-programvare kan folk lage deepfake (forkortelse for "dyp læring og falske") videoer der ML-algoritmer brukes til å utføre et ansiktsbytte for å skape en illusjon om at noen enten sa noe som de ikke sa eller er noen de ' er ikke det. Deepfake-videoer vises på forskjellige arenaer, fra underholdning til politikk til bedriftsverdenen. Ikke bare kan dype falske videoer urettferdig påvirke et valg med falske meldinger, men de kan føre til personlig forlegenhet eller forårsake villedende merkemeldinger hvis de for eksempel viser en administrerende direktør som kunngjør en produktlansering eller et oppkjøp som faktisk ikke skjedde.

Deepfakes er en del av en kategori av AI kalt "Generative Adversarial Networks" eller GAN, der to nevrale nettverk konkurrerer om å lage fotografier eller videoer som virker ekte. GAN-er består av en generator, som lager et nytt sett med data som en falsk video, og en diskriminator, som bruker en ML-algoritme for å syntetisere og sammenligne data fra den virkelige videoen. Generatoren prøver å fortsette å syntetisere den falske videoen med den gamle til diskriminerende ikke kan fortelle at dataene er nye.

Som Steve Grobman, McAfees Senior Vice President and Chief Technology Officer (CTO), påpekte på RSA-konferansen i mars i San Francisco i mars, har falske fotografier eksistert siden oppfinnelsen av fotografering. Han sa at å endre bilder har vært en enkel oppgave du kan utføre i et program som Adobe Photoshop. Men nå flytter også disse typer avanserte redigeringsfunksjoner inn i video, og de gjør det ved å bruke svært dyktige og lett tilgjengelige programvareverktøy.

Hvordan Deepfakes blir opprettet

Selv om det er nyttig å forstå AI-konsepter, er det ikke nødvendig å være dataforsker for å lage en dyptgående video. Det innebærer bare å følge noen instruksjoner på nettet, ifølge Grobman. På RSA-konferansen 2019 (se video over) avduket han en dybde-falske video sammen med Dr. Celeste Fralick, Chief Data Scientist og Senior Principal Engineer ved McAfee. Deepfake-videoen illustrerte trusselen denne teknologien utgjør. Grobman og Fralick viste hvordan en offentlig tjenestemann i en video som sa noe farlig kunne villede publikum til å tro at meldingen er ekte.

For å lage videoen sin, lastet Grobman og Fralick ned falske programvare. De tok deretter en video av Grobman som vitnet før det amerikanske senatet i 2017 og la Fralick munnen over Grobmans.

"Jeg brukte fritt tilgjengelige offentlige kommentarer for å lage og trene en ML-modell; det lot meg utvikle en dyptgående video med ordene mine kom ut av munnen, " sa Fralick til RSA-publikum fra scenen. Fralick fortsatte med å si at falske videoer kunne brukes til sosial utnyttelse og informasjonskrigføring.

For å lage sin dype falske video brukte Grobman og Fralick et verktøy som en Reddit-bruker utviklet kalt FakeApp, som bruker ML-algoritmer og bilder for å bytte ansikter på videoer. Under RSA-presentasjonen deres forklarte Grobman de neste trinnene. "Vi delte videoene opp i stillbilder, vi trakk ut ansiktene, og vi ryddet opp ved å sortere dem og rydde dem opp på Instagram."

Python-manus tillot McAfee-teamet å bygge munnbevegelser for å få Fralicks tale som Grobmans munn. Da trengte de å skrive noen tilpassede skript. Utfordringen når det gjelder å skape en overbevisende dybdefake er når egenskaper som kjønn, alder og hudfarge ikke stemmer overens, sa Grobman.

Han og Fralick brukte deretter en endelig AI-algoritme for å matche bildene av Grobman som vitnet før Senatet med Fralicks tale. Grobman la til at det tok 12 timer å trene disse ML-algoritmene.

McAfee skisserte trinnene det tok for å lage en dybde-video som ble vist på RSA-konferansen i 2019. Den brukte deepfake-programvare kalt FakeApp og opplæring av ML-modeller for å endre video av Grobman med tale fra Fralick. (Bildekreditt: McAfee).

Konsekvensene av Deepfakes

Hacker-laget deepfake-videoer har potensial til å forårsake mange problemer - alt fra myndighetspersoner som sprer falsk feilinformasjon til kjendiser som blir flau over å være i videoer de virkelig ikke var i til at selskaper skader konkurrenters stilling på aksjemarkedet. Når de var klar over disse problemene, sendte lovgivere i september et brev til Daniel Coats, USAs direktør for nasjonal etterretning, for å be om en gjennomgang av trusselen som deepfakes utgjør. Brevet advarte om at land som Russland kunne bruke deepfakes på sosiale medier for å spre falsk informasjon. I desember introduserte lovgivere den ondsinnede Deep Fake Prohibition Act fra 2018 for å forbudte svindel i forbindelse med "audiovisuelle poster", som viser til deepfakes. Det gjenstår å se om regningen vil passere.

Som nevnt kan kjendiser få forlegenhet av videoer der ansiktene deres er lagt over pornostjernerens ansikter, slik tilfellet var med Gal Gadot. Eller forestill deg at en administrerende direktør visstnok kunngjør produktnyheter og synker aksjen i et selskap. Sikkerhetsfagfolk kan bruke ML for å oppdage disse typer angrep, men hvis de ikke blir oppdaget i tide, kan de føre til unødvendig skade på et land eller et merke.

"Med deepfakes, hvis du vet hva du gjør og du vet hvem du skal målrette mot, kan du virkelig komme med en overbevisende video for å forårsake mye skade på et merke, " sier Dr. Chase Cunningham, Principal Analyst ved Forrester Research. Han la til at hvis du distribuerer disse meldingene på LinkedIn eller Twitter eller bruker en bot-form, "kan du knuse aksjen til et selskap basert på total falsk video uten en god stund."

Gjennom falske videoer kan forbrukere bli lurt til å tro at et produkt kan gjøre noe de ikke kan. Cunningham bemerket at hvis en administrerende direktør i en stor bilprodusent sa i en falsk video at selskapet ikke lenger ville produsere bensindrevne kjøretøy og deretter spre den meldingen på Twitter eller LinkedIn i den videoen, kan den handlingen lett skade et merke.

"Interessant nok fra min forskning, tar folk avgjørelser basert på overskrifter og videoer på 37 sekunder, sa Cunningham." Så du kan tenke deg om du kan få en video som går lenger enn 37 sekunder, kan du få folk til å ta en beslutning basert på enten saklig eller ikke. Og det er skremmende."

Siden sosiale medier er et sårbart sted der deepfake-videoer kan virke, jobber sosiale mediesider aktivt for å bekjempe trusselen om deepfakes. Facebook, for eksempel, har ingeniørteam som kan se manipulerte bilder, lyd og video. I tillegg til å bruke programvare, ansetter Facebook (og andre selskaper i sosiale medier) folk for å manuelt lete etter deepfakes.

"Vi har utvidet vår pågående innsats for å bekjempe manipulerte medier til å omfatte takling av deepfakes, " sa en Facebook-representant i en uttalelse. "Vi vet at den fortsatte fremveksten av alle former for manipulerte medier gir reelle utfordringer for samfunnet. Det er grunnen til at vi investerer i nye tekniske løsninger, lærer av akademisk forskning og jobber sammen med andre i bransjen for å forstå deepfakes og andre former for manipulerte medier.."

Ikke alle Deepfakes er dårlige

Som vi har sett med den pedagogiske deepfake-videoen av McAfee og de komiske deepfake-videoene på sen kveld TV, er noen deepfake-videoer ikke nødvendigvis dårlige. Mens politikk faktisk kan utsette de virkelige farene ved falske videoer, viser underholdningsindustrien ofte bare dybde fakes videoer lettere.

For eksempel ble det i en fersk episode av The Late Show With Stephen Colbert vist en morsom dybdevideo der skuespilleren Steve Buscemis ansikt ble lagt over legemet til skuespillerinnen Jennifer Lawrence. I et annet tilfelle erstattet komikeren Jordan Peeler en video av tidligere president Barack Obama som snakket med sin egen stemme. Humoristiske dype falske videoer som disse har også dukket opp på nettet, der president Trumps ansikt legges over den tyske forbundskansleren Angela Merkels ansikt mens personen snakker.

Igjen, hvis de dype falske videoene brukes til et satirisk eller humoristisk formål eller bare som underholdning, så tillater eller bruker sosiale medier-plattformer og til og med filmproduksjonshus dem. For eksempel tillater Facebook denne typen innhold på plattformen sin, og Lucasfilm brukte en type digital rekreasjon for å inneholde en ung Carrie Fisher på kroppen til skuespillerinnen Ingvild Deila i "Rogue One: A Star Wars Story."

McAfees Grobman bemerket at noe av teknologien bak deepfakes brukes til god bruk med stunt-dobler i filmframstilling for å holde skuespillere trygge. "Kontekst er alt. Hvis det er for komiske formål, og det er åpenbart at det ikke er ekte, er det noe som er en legitim bruk av teknologi, " sa Grobman. "Det er viktig å erkjenne at den kan brukes til alle slags forskjellige formål."

(Bildekreditt: Statista)

Hvordan oppdage Deepfake-videoer

McAfee er ikke det eneste sikkerhetsselskapet som eksperimenterer med å oppdage falske videoer. I sin artikkel som ble levert på Black Hat 2018 med tittelen "AI Gone Rogue: Exterminating Deep Fakes Before They Cause Menace", skriver to Symantec sikkerhetseksperter, Security Response Lead Vijay Thaware og Software Development Engineer Niranjan Agnihotri, at de har laget et verktøy for å få øye på falske videoer basert på Google FaceNet. Google FaceNet er en neural nettverksarkitektur som Google-forskere utviklet for å hjelpe med ansiktsverifisering og anerkjennelse. Brukere trener en FaceNet-modell på et bestemt bilde og kan deretter bekrefte identiteten deres under testene deretter.

For å prøve å stoppe spredningen av deepfake-videoer tilbyr AI Foundation, en ideell organisasjon som er fokusert på menneskelig og AI-interaksjon, programvare kalt "Reality Defender" for å oppdage falske innhold. Den kan skanne bilder og video for å se om de er endret ved å bruke AI. Hvis de har det, vil de få et "Ærlig AI-vannmerke."

  • Bedriftsveiledningen for maskinlæring Bedriftsguiden til maskinlæring
  • PornHub, Twitter Ban 'Deepfake' AI-Modified Porn PornHub, Twitter Ban 'Deepfake' AI-Modified Porn
  • Siste Deepfake Tech vil få deg til å danse som Bruno Mars. Siste Deepfake Tech vil få deg til å danse som Bruno Mars

En annen strategi er å ha begrepet Zero Trust i tankene, som betyr "aldri stole på, alltid bekrefte" - et motto for cybersecurity som betyr at IT-fagpersoner bør bekrefte at alle brukere er legitime før de gir tilgangsprivilegier. Å være skeptisk til gyldigheten av videoinnhold vil være nødvendig. Du vil også at programvare med digital analysefunksjoner for å oppdage falske innhold.

Ser opp for Deepfakes

Fremover må vi være mer forsiktige med videoinnhold og huske farene de kan utgjøre for samfunnet hvis de misbrukes. Som Grobman bemerket, "På kort sikt må folk være mer skeptiske til hva de ser og anerkjenne at video og lyd kan produseres."

Så hold et skeptisk øye med de politiske videoene du ser når vi går inn i neste valgsesong, og ikke stol på alle videoene som inneholder bedriftsledere. Fordi det du hører kanskje ikke er det som egentlig ble sagt, og misvisende dybde falske videoer har potensial til å virkelig skade samfunnet vårt.

Ai og maskinlæring utnytter, deepfakes, nå vanskeligere å oppdage