«Deep fakes»:Du trodde kanskje fake news var ille? «Deep fakes» er stedet sannheten drar for å dø

Video: En manipulert video laget og delt av det belgiske partiet Socialistische Partij Anders provoserte frem hundrevis av kommentarer. Det hele var et klima-stunt fra partiets side.
Artikkelen fortsetter under annonsen

Teknologi kan få det til å se ut som om hvem som helst har sagt eller gjort noe. Er det dette som er neste bølge i (feil)informasjonskrigen?

Denne artikkelen er over ett år gammel og kan innholde utdatert informasjon

Artikkelen fortsetter under annonsen

I mai dukket en video opp på internett av Donald Trump som snakket om klimaendringer til Belgias befolkning.

– Som dere vet hadde jeg baller nok til å trekke USA fra Paris-klimaavtalen, sier han og ser direkte inn i kameraet.

– Og det samme burde dere ha.

Videoen ble laget av et belgisk politisk parti, Socialistische Partij Anders (Sp.a), og er lagt ut på partiets Twitter- og Facebook-kontorer. Det provoserte frem hundrevis av kommentarer, hvor en rekke av de som kommenterer uttrykker sinne over at den amerikanske presidenten ville våge å blande seg inn i Belgias klimapolitikk.

En kvinne skriver:

«Humpy Trump må se på sitt eget land med sine forskrudde barnemordere som gang på gang ender opp på skolene med de tyngste våpnene.»

En annen la til:

«Trump burde ikke gå så høyt ut der han står i glasshuset sitt, amerikanerne er like dumme.»

Artikkelen fortsetter under annonsen
Artikkelen fortsetter under annonsen

Les også: Fakta og «fake news» om Trumps første halvår

– Denne videoen skal være en vits

Alt dette viste seg å være villedet sinne. Talen ble senere avslørt som intet mer enn en høyteknologisk forfalskning.

Hvem kan man stole på? Nyhetskiosk på Manhattan i New York. NTB Scanpix/Reuters.
Hvem kan man stole på? Nyhetskiosk på Manhattan i New York. NTB Scanpix/Reuters.

Sp.a hadde brukt et produksjonsstudio som gjennom maskinlæring produserte det som er kjent som en «deep fake» – en datagenerert replikasjon av en person, i dette tilfellet Trump, som sier eller gjør ting de aldri har sagt eller gjort.

Hensikten til Sp.a hadde vært å bruke den falske videoen til å få folks oppmerksomhet, og deretter omdirigere dem mot et digitalt opprop som ba den belgiske regjeringen å ta mer radikale grep på klimafeltet. Videoens skapere sa senere at de antok at den dårlige kvaliteten ville være nok til å varsle følgerne om at videoen var falsk.

Artikkelen fortsetter under annonsen
Artikkelen fortsetter under annonsen

– Det er tydelig ut fra leppebevegelsene at dette ikke er en ekte tale av Trump, sa en talsmann fra Sp.a til Politico.

Artikkelen fortsetter under annonsen

Da det ble klart at spøken hadde gått galt, gikk partiets sosiale medier-team ut for å prøve å kontrollere skadene.

– Hei Theo, dette skal være en morsom video. Trump kom egentlig ikke med disse uttalelsene.

– Hei, Dirk, denne videoen skal være en vits. Trump sa egentlig ikke dette.

En isskulptur utenfor den amerikanske kongressbygningen krever «Sannhet».NTB Scanpix/AFP.
En isskulptur utenfor den amerikanske kongressbygningen krever «Sannhet».NTB Scanpix/AFP.

Partiets kommunikasjonsteam hadde tydeligvis undervurdert kraften i forfalskningen, eller kanskje overvurdert dømmekraften til sitt publikum. Uansett hadde dette lille, venstreorienterte politiske partiet, kanskje uvitende, med dette skapt det første eksemplet på bruk av deep fakes i en eksplisitt politisk sammenheng.

Det ble en liten demonstrasjon på hvordan denne teknologien kan brukes for å true vårt allerede sårbare informasjonsøkosystem – og kanskje til og med undergrave mulighetene for en pålitelig, felles virkelighet.

Artikkelen fortsetter under annonsen

Les også: Rekord for Trumps «fake news»-avis

(Artikkelen fortsetter under bildet)

Forfalsket video basert på bilder av USAs president Barack Obama. Ved hjelp av ansiktskartlegging kunne man få det til å se ut som om den daværende presidenten sa ting han aldri hadde sagt. NTB Scanpix/AP.
Forfalsket video basert på bilder av USAs president Barack Obama. Ved hjelp av ansiktskartlegging kunne man få det til å se ut som om den daværende presidenten sa ting han aldri hadde sagt. NTB Scanpix/AP.

Begynte med porno

Den falske Trump-videoen ble opprettet ved hjelp av en maskinlæringsteknikk kalt «a generative adversarial network», også kalt et GAN. En nyutdannet student, Ian Goodfellow, oppfant GANs i 2014 som en måte å generere nye typer data ut av eksisterende datasett. For eksempel kan et GAN se på tusenvis av bilder av Barack Obama, og så produsere et nytt bilde som likner de bildene uten å være et eksakt kopi av noen av dem, som om det har kommet opp med et helt nytt portrett av den tidligere presidenten. GANer kan også brukes til å generere ny lyd fra eksisterende lyd, eller ny tekst fra eksisterende tekst.

Artikkelen fortsetter under annonsen

Bruken av maskinlæringsteknikken var for det meste begrenset til AI-forskningsmiljøet fram til slutten av 2017, da en Reddit-bruker som gikk under aliaset «Deepfakes» - en sammenstilling av «deep learning» og «falsk» - begynte å legge ut digitalt endrede pornografiske videoer. Han bygde GANer som ved hjelp av TensorFlow, Googles gratis programvare for åpen kildekode-maskinvare, la kjendisers ansikter på kroppene til pornoskuespillere.

Artikkelen fortsetter under annonsen
USAs president Donald Trump anklager CNN-journalist Jim Acosta for «fake news» under en pressekonferanse i Det hvite hus 7. november. NTB Scanpix/Reuters.
USAs president Donald Trump anklager CNN-journalist Jim Acosta for «fake news» under en pressekonferanse i Det hvite hus 7. november. NTB Scanpix/Reuters.

En rekke medier rapporterte om pornovideoene som ble kjent som «deep fakes ». Som svar forbød Reddit videoene med bakgrunn i at de overskred nettstedets innholdspolitikk mot ufrivillig pornografi. På dette stadiet har imidlertid skaperen av videoene allerede gitt ut FakeApp, en brukervennlig plattform for å lage forfalskede videoer. Den gratisprogramvaren demokratiserte effektivt kraften i GAN.

Plutselig kan alle som har tilgang til internett og bilder av en persons ansikt generere sin egen deep fake.

Les også: Trumps falske nyheter splitter Amerika

– Sannhetsfordervelse

Da jussprofessor ved Universitetet i Maryland, Danielle Citron, først ble oppmerksom på de falske pornofilmene, ble hun i første omgang slått av hvor gjennomgripende de krenket kvinners rett til privatliv. Men når hun begynte å tenke over potensialet i deep fakes, innså hun hvor farlige de kunne bli når de spres til andre aktører utover Reddits nettroll. De har potensial til å brukes som våpen på måter som svekker selve grunnmuren i det demokratiske samfunnet.

Artikkelen fortsetter under annonsen
Artikkelen fortsetter under annonsen

– Jeg begynte å tenke på min by, Baltimore, fortalte hun meg.

– I 2015 var byen en kruttønne etter drapet på Freddie Gray. Så begynte jeg å forestille meg hva som ville skjedd hvis en deep fake av politimesteren hadde dukket opp hvor han sa noe dypt rasistisk nettopp i dette tidsrommet. Byen ville ha eksplodert.

Citron og hennes kollega Bobby Chesney begynte å jobbe med en rapport som skisserte den potensielle faren ved det nye verktøyet. I tillegg til å ta i betraktning trusselen mot personvern og nasjonal sikkerhet ble begge forskerne opptatt av at spredning av deep fakes kunne ødelegge tilliten mellom ulike grupperinger i et allerede politisk polarisert samfunn.

Spesielt kunne de forutse at deep fakes ville bli brukt av skaperne av falske nyheter. Alle med tilgang til denne teknologien, fra statlig sanksjonerte propagandister til nettroll, vil kunne skape informasjon og manipulere oppfatning, og slik presse ideologisk motsatte nettsamfunn dypere inn i sine egne subjektive realiteter.

Artikkelen fortsetter under annonsen

(Artikkelen fortsetter under bildet)

En isskulptur utenfor den amerikanske kongressbygningen krever «Sannhet».NTB Scanpix/AFP.
En isskulptur utenfor den amerikanske kongressbygningen krever «Sannhet».NTB Scanpix/AFP.

– Forverrer problemet betydelig

– Ideenes markedsplass lider allerede av «sannhetsfordervelse» som følge av at informasjonsnettverkene preges av våre kognitive forstyrrelser på usunne måter, lyder rapporten.

Deep fakes vil forverre dette problemet betydelig.

Citron og Chesney er ikke alene i sin bekymring. I april lanserte filmregissøren Jordan Peele og BuzzFeed en deep fake av Barack Obama, hvor han kalte Trump en «komplett og gjennomgående suppegjøk» for å øke bevisstheten rundt hvordan AI-genererte syntetiske medier kan brukes til å fordreie og manipulere virkeligheten. I september sendte tre kongressmedlemmer et brev til direktøren for nasjonal etterretning, og slo alarm om hvordan deep fakes kunne utnyttes av «desinformasjonskampanjer i forbindelse med valg».

Artikkelen fortsetter under annonsen

Spekteret av hvordan politisk motiverte deep fakes forstyrrer demokratiske valg er øverst på Citrons liste over bekymringer.

Artikkelen fortsetter under annonsen

– Det som holder meg våken om natten er et hypotetisk scenario hvor noen utgir en deep fake av Beto O'Rourke som har sex med en prostituert eller noe, rett før avstemningen i Texas, sier Citron til meg.

– Nå vet jeg at dette ville være lett å tilbakevise, men hvis dette dukker opp natten før rekker du ikke korrigere det før alvorlig skade har spredt seg.

Hun legger til:

– Jeg begynner å se hvordan en godt forbedret og vel-timet deep fake enkelt kunne forstyrre den demokratiske prosessen.

Les også: Oljefondet ønsket Facebook-rapport om «fake news»

(Artikkelen fortsetter under bildet)

Trump-tilhenger med t-skjorte der det står: «CNN er falske nyheter.» NTB Scanpix/Reuters.
Trump-tilhenger med t-skjorte der det står: «CNN er falske nyheter.» NTB Scanpix/Reuters.

Photoshop like effektivt

Selv om disse bekymringsfulle scenarioene er enkle å konstruere, er direktør for Harvard-MIT Ethics and Governance of Artificial Intelligence Initiative, Tim Hwang, ikke villig til å satse på at deep fakes vil ha stor innvirkning på demokratiske valg i nær fremtid. Hwang har studert spredning av feilinformasjon i datanettverk i en årrekke, og med unntak av episoden i Belgia har han enda til gode å se noen eksempler på virkelig ødeleggende hendelser på grunn av deep fakes.

Artikkelen fortsetter under annonsen

Hwang mener at dette delvis er fordi bruk av maskinlæring for å generere overbevisende falske videoer fortsatt krever mye data, og en viss grad av kompetanse.

– Hvis du er propagandist, vil du spre arbeidet ditt så langt som mulig med minst mulig innsats, sier han.

Artikkelen fortsetter under annonsen

– Akkurat nå kan en rå Photoshop-jobb være like effektiv som noe som er skapt med maskinlæring.

Samtidig erkjenner Hwang at deep fake-scenarioer blir mer og mer realistisk og enklere å produsere i de kommende årene, og at de har potensiale til å innlede en tid med forfalskning som er kvalitativt forskjellig fra det vi har sett før.

– Vi har lenge vært i stand til å fremstille syntetiske bilder og filmer, sa han.

– Men frem til i dag trengte du et team av eksperter om du ønsket å lage en video av presidenten som sa noe han ikke sa. Maskininnlæring vil ikke bare automatisere denne prosessen, det vil trolig også lage bedre forfalskninger.

Artikkelen fortsetter under annonsen

Kobler man dette med at tilgangen til denne teknologien vil spre seg over internett, og plutselig har du som Hwang sier det, «en perfekt storm av feilinformasjon».

Trump raser mot Mueller: – Lekker han til fake news-mediene?

(Artikkelen fortsetter under bildet)

Den kanadiske dataanalytikeren Christopher Wylie vitner om hvordan det britiske selskapet Cambridge Analytica forsøkte å påvirke det amerikanske presidentvalget i 2016 gjennom falske nyheter på Facebook. NTB Scanpx/AFP. Foto: Pru / AFP
Den kanadiske dataanalytikeren Christopher Wylie vitner om hvordan det britiske selskapet Cambridge Analytica forsøkte å påvirke det amerikanske presidentvalget i 2016 gjennom falske nyheter på Facebook. NTB Scanpx/AFP. Foto: Pru / AFP

– Spesialeffekt-produsenter vil elske dette

I alle tilfeller fortsetter forskningen innen maskinlæringsdrevet media ufortrødent videre.

I august presenterte en internasjonal forskergruppe tilknyttet Tysklands Max Planck Institute for Informatics en teknikk for å produsere det de kalte «dype videoportretter», en form for ansiktsbuktaling hvor en person kan ta kontroll over video av noens ansikt og si eller gjøre hva de vil med det. En video som fulgte forskningsrapporten viste en forsker som åpnet munnen og et tilsvarende bevegelig bilde av Barack Obama som gjorde det samme; Forskeren flytter deretter hodet til siden, hvorpå en syntetisk Obama følger samme bevegelse.

Artikkelen fortsetter under annonsen
Artikkelen fortsetter under annonsen

Christian Theobalt, en av forskerne bak studien fortalte meg via e-post at han forestiller seg at dype videoportretter vil brukes mest effektivt for nøyaktig dubbing av utenlandske filmer, og avanserte ansiktsredigeringsteknikker for etterproduksjon i film og spesialeffekter. I en pressemelding som fulgte med den originale studien anerkjente forskerne potensielt misbruk av teknologien, men understreket hvordan deres tilnærming, som er i stand til å syntetisere ansikter på en måte som er «nesten umulig å skille fra ekte vare», kan gjøre «en reell forskjell for den visuelle underholdningsindustrien».

Professor i informatikk ved University of California, Berkeley, Hany Farid, mener at selv om maskinens læringsdrevne gjennombrudd i datagrafikk er imponerende, bør forskere være mer oppmerksomme på de bredere sosiale og politiske konsekvensene av hva de skaper.

Artikkelen fortsetter under annonsen

– Spesialeffekt-samfunnet vil elske denne nye teknologien, fortalte Farid.

– Men utenfor denne verden, utenfor Hollywood, er jeg ikke sikker på at de positive implikasjonene vil veie opp for de negative.

Farid, som i løpet av de siste 20 årene har utviklet rettsmedisinsk teknologi for å identifisere digitale forfalskninger, jobber for tiden med nye deteksjonsmetoder for å motvirke spredningen av deep fakes. En av Farids siste gjennombrudd har fokusert på subtile endringer av farge som oppstår i ansiktet ettersom blod pumpes inn og ut. Signalet er så lite at programvaren ikke klarer å plukke den opp – i hvert fall foreløpig.

Artikkelen fortsetter under annonsen

(Artikkelen fortsetter under bildet.)

Hva kan vi tro på? To indiske sadhuer (hellige menn) betrakter en mobiltelefon mens de venter på å registrere seg for pilegrimsferd ved et tempel i Jammu. NTB Scanpix/AFP.
Hva kan vi tro på? To indiske sadhuer (hellige menn) betrakter en mobiltelefon mens de venter på å registrere seg for pilegrimsferd ved et tempel i Jammu. NTB Scanpix/AFP.

Bør være mulig å oppdage

Mens trusselen fra deep fakes øker , øker også behovet for å produsere nye metoder for å påvise falskneriet. I juni publiserte forskere fra Universitetet i Albany (SUNY) et dokument som beskriver hvordan falske videoer kunne identifiseres gjennom manglende blunking i syntetisk genererte bilder. Facebook har også forpliktet seg til å utvikle maskinlæringsmodeller for å oppdage deep fakes.

Artikkelen fortsetter under annonsen

Men Farid er urolig. Det blir en mindre og mindre levedyktig metode å kun stole på rettsmedisinsk deteksjon for å bekjempe deep fakes, mener han, på grunn av hvor hurtig maskinlæringsteknikkene lærer å omgå dem.

– Det pleide å gå et par år mellom at en ny deteksjonsteknikk så dagens lys og at forfalskerne klarte å arbeide seg rundt den. Nå tar det bare to til tre måneder.

Dette skyldes fleksibiliteten i maskinlæring, ifølge Farid.

Twitter har vært en viktig kanal for propagandister, statssponsede nettroll og andre som har interesse i å distribuere desinformasjon. NTB Scanpix/AFP.
Twitter har vært en viktig kanal for propagandister, statssponsede nettroll og andre som har interesse i å distribuere desinformasjon. NTB Scanpix/AFP.

– Alt programmereren må gjøre er å oppdatere algoritmen for å se etter, si, farger i ansiktet som samsvarer med hjerterytmen, og så plutselig har forfalskningene også dette på plass. (Av samme grunn valgte Farid ikke å dele noen av hans nyere rettsmedisinske gjennombrudd med meg. «I øyeblikket jeg forklarer forskningen, er alt som trengs at ett rasshøl legger det inn i systemet.»)

Artikkelen fortsetter under annonsen

Selv om Farid er låst i denne tekniske katt-og-mus-leken med deep fake-skaperne, er han klar på at løsningen ikke ligger i ny teknologi alene.

Artikkelen fortsetter under annonsen

– Problemet er ikke bare at deep fake-teknologien blir bedre, sier han.

– Det er at de sosiale prosessene som kollektivt lar oss komme i kontakt med nye ting og veie dem som sanne eller usanne er truet.

Som den falske videoen av Trump som spredte seg gjennom sosiale nettverk i Belgia tidligere i år viste, trenger ikke deep fake være umulig å oppdage eller til og med overbevisende for å gjøre skade. Det er mulig at den største trusselen som følger deep fakes ikke ligger i selve det falske innholdet, men kun i muligheten for dets eksistens.

Kommentar: Det forlokkende speilgalleriet

– Forsterker løgnernes utbytte

Dette er et fenomen som forsker Aviv Ovadya har kalt «virkelighetsapati» – at konstant møte med feilinformasjon tvinger folk til å slutte å stole på hva de ser og hører. Med andre ord er ikke den største trusselen at folk blir lurt, men at de vil komme til å betrakte alt som bedrageri.

Artikkelen fortsetter under annonsen

Nylige meningsmålinger tyder på at tillit til store, etablerte institusjoner, så vel som til media, faller. Spredning av deep fakes vil sannsynligvis forverre denne trenden, mener Ovadya.

Ifølge Danielle Citron begynner vi allerede å se de sosiale konsekvensene av dette epistemiske forfallet.

– Umiddelbart forsterker deep fakes bare det jeg kaller løgnerens utbytte, sier hun.

– Når ingenting er sant, vil den uærlige trives gjennom å påstå at det som er sant, er usant.

Oversatt av Inge Kvivik /ABC Nyheter / Pressworks © Guardian News & Media Limited

Les også: Seriøse tidsskrift lurt: «Rumpe-dildo endrer holdninger»

USAs president Donald Trump har vendt «fake news»-begrepet til sin fordel. NTB Scanpix/AFP.
USAs president Donald Trump har vendt «fake news»-begrepet til sin fordel. NTB Scanpix/AFP.