AI-assistert bildemanipulering blir et problem, mener de to forskerne Vijay Thaware og Niranjan Agnihotri (t v), som fortalte om emnet på Black Hat Europe. Foto: Jakob Møllerhøj
AI-assistert bildemanipulering blir et problem, mener de to forskerne Vijay Thaware og Niranjan Agnihotri (t v), som fortalte om emnet på Black Hat Europe. Foto: Jakob Møllerhøj (Foto: Jakob Møllerhø)

Deepfake

Forskere advarer mot AI-baserte videoer: Kan misbrukes til politisk påvirkning

Teknikker basert på kunstig intelligens kan misbrukes til propaganda, advarer forskere.

  • IT

LONDON: Seeing is believing. I takt med at datamaskiner blir kraftigere og algoritmer til bildemanipulering bedre, er det i stadig større grad grunn til ikke å tro på det man ser.

I hvert fall ikke hvis det er snakk om en online-video.

Teknikker basert på kunstig intelligens til å forfalske videoer med er på frammarsj, og det kan blant annet for eksempel misbrukes til cyber-propaganda, advarer forskere.

– Deepfakes utvikles raskt

Security Response Lead Vijay Thaware og Associate Threat Analysis Engineer Niranjan Agnihotri fra Symantec har sett nærmere på videoer som er manipulert ved hjelp av algoritmer i kategorien kunstig intelligens.

De fortalte om jobben sin i et innlegg på it-sikkerhetskonferansen Black Hat Europe, som ble arrangert i London i forrige uke.

– Deepfakes utvikles raskt, og dette skjer her og nå, sa Vijay Thaware under presentasjonen.

Begrepet omfatter manipulerte videoer og bilder som kan skapes ved hjelp av AI-algoritmer og et kraftig spill-grafikkort. Resultatet kan være at et ansikt i en video erstattes med et ansikt fra for eksempel en politiker, som nå opptrer i en mulig uheldig sammenheng.

Algoritmen må fôres med tilstrekkelig bildemateriale av personen som skal klippes inn i en ny sammenheng, men ifølge de to forskere er det ofte mer enn nok å ta av på nettet.

Denne formen for manipulasjon kalles face swapping. Teknikken kan brukes i en ganske legitim og kanskje til og med underholdende sammenheng.

Det begynte med porno

Men algoritmene kan også brukes til for eksempel sjikane. Flere medier har fortalt historien om hvordan Reddit-brukeren Deepfakes i desember 2017 kunne demonstrere hvordan kjente kvinner kunne face-swappes inn i pornografiske videoer ved hjelp av AI.

Ifølge Vice Motherboard gikk det bare et par måneder fra Reddit-brukerens demonstrasjon til flere programmer online gjorde teknikken bredt tilgjengelig.

Denne formen for manipulasjon kan være vanskelig å oppdage umiddelbart, noe som naturligvis er belastende for dem det går ut over.

– Videoene er lagd slik at de kan lure det menneskelige øyet, og det er lett å bli lurt, sa Vijay Thaware.

Og selv om noen teknikker for videoforfalskning er relativt primitive og faktisk kan oppdages med det menneskelige øye, er det ikke sikkert at folk ser særlig grundig etter før videoen blir delt på sosiale medier.

Dessuten kan det hende at videokvaliteten – kanskje bevisst – er dårlig, noe som kan gjøre det vanskelig å finne ut av hva som egentlig er ekte og hva som er juks i en slik sammenheng.

Manipulering med politikeransikter

Et av de potensielle misbruksscenariene for AI-manipulerte videoer, er det forskerne kaller cyber-propaganda.

Dette kan være en manipulert video, hvor en politikers ansikt opptrer i en forfalsket video som blir frigitt på sosiale medier kort tid før et valg.

Selv om det kanskje vil bli oppdaget at det er snakk om en forfalskning, kan mange ha rukket å trykke på dele-knappen i sosiale medier, og satt et kryss på stemmeseddelen før budskapet om den forfalskede videoen trenger gjennom.

– Dette er ganske uhyggelig når vi snakker om politikere, fordi det skaper spenninger; ikke bare i et land, men også på et globalt nivå, sa Vijay Thaware.

Når det gjelder cyber-propaganda, ga forskerne under presentasjonen uttrykk for at deepfake-videoer rettet mot politikere virkelig bør vekke bekymring, sett i lys av de nasjonale valgene som skal avholdes rundt om i verden i løpet av 2019.

Fake video news

I tillegg til cyber-propaganda forestiller forskerne seg også at deepfake news kommer til å erstatte fake news i en nær fremtid. Altså der manipulerte videoer i stedet for oppdiktede artikler blir brukt til spredning av falsk informasjon.

Når forfalskede videoer først blir spredd, kan dette ifølge forskerne skape en generell mistillit til videoinnhold, uansett om det er ekte eller ikke.

ABC News har en lesverdig, interaktiv historie fra september om emnet her.

Nyhetsmediet legger fram en tenkt situasjon hvor en amerikansk president lettere får mulighet til å feie videodokumentasjon til side som forfalsket innhold skapt med maskinlæring.

Programvare på nettet

Ifølge Symantec-forskerne krever det i utgangspunktet ikke ekstreme kodekunnskaper for å lage deepfakes, siden det ligger fritt tilgjengelig programvare på nettet, og etter sigende kan den face-swappe ansiktet til en person inn i en video.

– Alt, som kreves er en gaming-laptop, en internettforbindelse, litt lidenskap og tålmodighet, samt kanskje litt grunnleggende kjennskap til nevrale nettverk, sa Vijay Thaware.

I begynnelsen av 2018 besluttet forskerne seg for å se om de kunne finne en løsning for automatisk gjenkjennelse av deepfakes.

Det kan utmerket godt være slik at det med litt grundig granskning er mulig å avsløre en falsk video, og stoppe den før den blir spredt over alt.

Men hva om det blir lastet opp hundrevis av falske videoer på samme tid – kanskje som et ledd i en cyberpropaganda-kampanje? Da kan det selvfølgelig være praktisk med et automatisert system som med noenlunde treffsikkerhet kan oppdage forfalskninger.

Sannhetstest

Niranjan Agnihotri og Vijay Thaware har kommet fram til en løsning hvor en algoritme for ansiktsgjenkjenning trenes til å oppdage ansiktet til utvalgte personer – dette kunne være visse politikere eller andre fremtredende personer som kan være særlig opplagte mål.

Ansiktsopplysningene lagres i en database. Deretter kan programvaren til forskerne analysere videoer i forhold til ansiktsopplysninger i databasen.

Programmet spytter deretter ut et resultat som viser hvor stor sannsynligheten er for at det faktisk er den amerikanske presidenten Donald Trump eller skuespilleren Nicolas Cage som vises i en video.

Forskerne har blant annet testet algoritmen sin på en amerikansk skuespiller og USAs president.  Foto: Jakob Møllerhøj

På et bilde under presentasjonen brukte forskerne nettopp disse to personene som eksempel.

Programmet kunne med stor sikkerhet fastslå at det var henholdsvis Cage og Trump i uforfalskede videoer. Men da Nicolas Cages ansikt ble swappet inn i stedet for den amerikanske presidenten i en video, meldte programmet at sannsynligheten talte for at det var et ukjent individ i videoen.

I løpet av presentasjonen understreket forskerne at det finnes andre prosjekter som også dreier seg om å oppdage videoforfalskninger. Blant annet er det et prosjekt som bruker blinkefrekvensen til øynene for å detektere et face-swap.

De to Symantec-forskerne ser for seg at en løsning som deres kan implementeres på sosiale medier, slik at manipulert innhold kan gjenkjennes og fjernes før det løper løpsk.

Fokusskifte

Det var egentlig forskningsarbeidet med ansiktsgjenkjenning som var den opprinnelige kjernen for presentasjonen deres.

Det fortalte de om under et intervju med danske Version2.

– Tidligere dreide emnet for presentasjon vår seg utelukkende om løsningen vår. Men etter hvert som vi undersøkte dette nærmere, tenkte vi at i stedet for å fokusere på løsningen vår, er det bedre å skape bevissthet om dette, og diskutere hvordan disse tingene blir lagd, og hvordan disse tingene kan oppdages med menneskelig intelligens, sier Niranjan Agnihotri til Version2.

Han innrømmer også at det var en annen årsak til at presentasjonen under hadde fått et mer generelt, bevissthets-preget fokus i stedet for bare å dreie seg om forskernes eget arbeid.

Området for videoer skapt ved hjelp av kunstig intelligens har nemlig utviklet seg siden forskerne begynte å se på hvordan problemet kan bekjempes med automatiserte metoder.

Dermed har det nå blitt demonstrert AI-støttede forfalsknings-teknikker som slett ikke benytter seg av face-swapping. Disse teknikkene genererer et kunstig ansikt ut fra mediemateriale av en virkelig person.

Dette syntetiske ansiktet, som altså ligner til forveksling på den virkelige personen, kan deretter manipuleres slik man måtte finne det for godt.

Det ligger en video på Youtube som demonstrerer denne teknikken brukt på USAs tidligere president Barack Obama.

– Det er faktisk ganske uhyggelig – hvis du har tid, så ta en titt på videoen, lød oppfordringen til tilhørerne fra Vijay Thawares.

Symantec-folkenes deteksjonsmekanisme med ansiktsgjenkjenning fungerer ikke på denne form for videoforfalskning, som forskerne kaller «videos without facetampering».

Uansett om det er snakk om den ene eller den andre manipuleringsteknikken, ga forskerne klar beskjed om at folk bør tenke seg om før de sender en video videre, og spørre seg selv om kilden til videoen er troverdig.

Artikkelen ble først publisert på Ingeniøren/Version2.dk og gjort tilgjengelig for TUs lesere gjennom vår samarbeidsavtale.

Kommentarer (4)

Kommentarer (4)

Eksklusivt for digitale abonnenter

På forsiden nå