Deepfakes:Porno og psykologisk krigføring
– Poengløst å ta opp kampen mot deepfakes, sier skuespiller Scarlett Johansson. Hennes ansikt har blitt misbrukt i titalls forfalskede pornovideoer på nett.
De kalles Deep Fakes; digitalt manipulerte videoer og bilder som kan være så overbevisende at de knapt kan skilles fra den ekte varen.
På samme måte som programmet Photoshop gjorde det lett å tilpasse og eventuelt forfalske bilder vil deepfake-programvaren gjøre denne formen for manipulasjon enklere, mer tilgjengelig for privatpersoner og stadig vanskeligere å påvise, skriver CNET.
Den tidligere amerikanske sikkerhetsministeren, Michael Chertoff mener utviklingen kan gå svært raskt:
– Allerede i 2020 kan vi ha nådd et punkt der kun eksperter eller spesialisert programvare vil kunne blinke ut forfalskede videoer av dette slaget, sier han til Reuters. Chertoff var statsråd i president George W. Bushs regjering, og er i dag del av ledelsen for Den transatlantiske komiteen for valgsikring. Han mener deepfake-videoer kan underminere eller forstyrre fremtidige valg på en rekke vis.
Artikkelen fortsetter under annonsenArtikkelen fortsetter under annonsenDette kan for eksempel være fabrikkerte videoer som foregir seg å vise synder en politiker har begått.
Les også: Det hvite hus kan ha delt manipulert videoopptak fra opphetet pressekonferanse
Kunstig intelligens
Videoene utgjør et stort sprang fra enklere billedmanipulasjon, og tar i bruk nyvinninger innen kunstig intelligens.
Med slik teknologi og kompetanse kan man fremstille det som virkelige mennesker sier og gjør noe de slett aldri har gjort. Fenomenet skjerper kravene til publikums kildekritikk og årvåkenhet ytterligere, i en tid der oppmerksomheten om og forståelsen av desinformasjon heldigvis er økende.
Artikkelen fortsetter under annonsenArtikkelen fortsetter under annonsenSeniorrådgiver i Norsk senter for informasjonssikring (NorSIS), Vidar Sandland, sier til ABC Nyheter at senteret foreløpig ikke har mottatt bekymringsmeldinger om deepfakes blant de over 8000 norske henvendelsene de mottar årlig.
Artikkelen fortsetter under annonsenMen hva skiller egentlig «deepfakes» fra spesialeffekter filmbransjen har brukt i tiår?
Datateknologi har for lengst blitt brukt til å bringe avdøde skuespillere «til live» på lerretet, som med avdøde Carrie Fisher i den nyeste Star Wars-filmen.
Flere eksperter og medier har advart om at teknologien blir stadig lettere tilgjengelig, og ikke lenger er forbeholdt profesjonelle filmskapere. Sandland stiller seg mer tvilende:
– Selv om deepfakes har blitt fremstilt som enkle å lage er det foreløpig langt fra tilfellet. Dette krever fortsatt høy teknisk kompetanse, sier seniorrådgiveren.
Å fremstille en slik video kan ta fra timer til dager.
Kjendis-porno
Media og myndigheter har fokusert på risikoen for bruk av deepfakes i politisk propaganda, men teknologien er foreløpig mest kjent fra konstruerte kjendisvideoer på pornonettsteder, heter det i en kommentarartikkel hos Forbes.
Artikkelen fortsetter under annonsenEn bruker av nettstedet Reddit bidro til offentlighetens bevissthet om fenomenet da vedkommende begynte å laste opp kjendisporno laget ved hjelp av kunstig intelligens i desember 2017.
– Da vi først hørte om fenomenet i 2017 trodde vi for eksempel det kunne bli brukt til «hevnporno» mot folk i Norge. Det har foreløpig ikke skjedd etter hva vi kjenner til, sier Sandland i NorSIS.
Artikkelen fortsetter under annonsenTjenesten FakeApp og gratis programvare som TensorFlow er eksempler på verktøy som har blitt brukt til å fremstille forfalskede sex-videoer av kjendiser, med ofre som Emma Watson, Scarlett Johansson og Katy Perry, skrev nettstedet Digi.no tidligere i år.
Les også: Facebook tar i bruk ny teknologi i kampen mot hevnporno
(Saken fortsetter under)
– Nedverdigende
– Folk vil skjønne at det ikke er meg i porno-videoene, uansett hvor nedverdigende de måtte være. Det er langt mer forstyrrende ting enn dette i «det mørke nettet», dessverre, sa skuespillerinnen Scarlett Johansson til Washington Post i desember.
Artikkelen fortsetter under annonsenHennes ansikt har blitt brukt i titalls pornovideoer på nett. Noen av dem blir fremstilt som ekte sexvideoer på avveie, og har opptil 1,5 millioner sidevisninger på et større pornonettsted.
– Det ville være poengløst for meg å ta opp kampen mot dette, mens det for privatpersoner kanskje kan stå om jobben hvis deres ansikt misbrukes på denne måten. Internett er et mer eller mindre lovløst område, sier Johansson.
Hun bemerker også at lovgivningen varierer fra land til land, noe som gjør videoene enda vanskeligere å bli kvitt. Isteden oppfordrer hun folk til å ta forholdsregler for å sikre sin identitet, private foto og opplysninger.
I september la Google «ufrivillige syntetiske pornobilder» til sin liste over forbudt innhold.
Les også: Trump gikk rett i strupen på kritiske journalister
Artikkelen fortsetter under annonsen«Global trussel»?
En høring i det amerikanske senatet i januar tok for seg «globale trusler». Nye teknologiske trusler som desinformasjon og deep fakes ble særlig fremhevet, skrev CNET.
Artikkelen fortsetter under annonsen– Da USAs demokrati ble angrepet i 2016 var det ikke med bomber, missiler eller fly. Det var med kontoer på sosiale medier som enhver 13-åring kan opprette gratis, sa senatoren, sa senator Richard Burr, den republikanske formannen for Senatets etterretningskomité.
Hackerangrep mot bedrifter og infrastruktur har kostet enkelte land milliardbeløp det siste tiåret.
Les også: Din epost er mål for kriminelle
(Saken fortsetter under)
– Lettere å lage enn å avsløre
Det amerikanske forsvarsdirektoratet DARPA opprettet allerede i 2014 et prosjekt for å granske teknologien. Matt Turek, sjefen for DARPA-programmet har tidligere uttalt at det per i dag er langt lettere å produsere overbevisende deepfakes enn å avsløre dem.
Igjen maner Sandland i NorSIS til å holde hodet kaldt:
– Flere og flere er fenomenet bevisst, og foreløpig betrakter jeg det ikke som så dramatisk som det tidvis har blitt fremstilt. Samtidig vil det også komme bedre verktøy til å avsløre falsknerier. Google og YouTube vil kunne reagere mot slike videoer relativt fort, sier han til ABC Nyheter.
Artikkelen fortsetter under annonsenLes også: Du trodde kanskje fake news var ille? «Deep fakes»er stedet sannheten drar for å dø.
Identitetstyveri
Ansiktsgjenkjenning spiller en stadig viktigere rolle i overvåking og sikkerhet som på flyplasser, men brukes også i nyere smarttelefoner. Tyveri av slike data vil kunne misbrukes til identitetstyveri og utpressing.
Artikkelen fortsetter under annonsenI USA studeres fenomenet deepfakes ved flere læresteder og offentlige instanser. Disse utvikler også metoder for å forebygge eller avsløre deepfakes.
– Foreløpig later deepfakes til å være forbeholdt profesjonelle med teknisk innsikt, tid og ressurser. Og da kan de faktisk gjøre stor skade, sier Sandland i NorSIS. Verktøyene er gratis, så kostnaden blir først og fremst tid og spesialistkompetanse.
Fenomenet skaper likevel bekymring blant amerikanske toppolitikerne frem mot presidentvalget til neste år.
Artikkelen fortsetter under annonsen– Den tiltakende strømmen av teknologiske utfordringer mot USA er noe etterretningsmiljøet må omorganiseres for å møte, sa direktør for nasjonal etterretning i USA Dan Coats under en senatshøring i januar, skrev CNET.
– Vi forventer at Russland vil fortsette sin informasjonskrig mot demokratiske land og å bruke sosiale medier til å så splid. Vi er absolutt oppmerksomme på trusselen fra deepfake-videoene, sa Coats under høringen.
Les også: Nord-Koreas hacker-hær: Bankran, svindel,spionasje og hevn
– Aksje-manipulasjon
– Mitt skrekkscenario er det økonomiske. Se for deg at jeg lager en jukse-video der det ser ut som Elon Musk kommer med en dramatisk melding om Tesla. Aksjen vil kunne stupe, og de som står bak kan tjene store penger på ned- og oppturen, sier Sandland i NorSIS til ABC Nyheter.
– Jeg har sett flere såkalt profesjonelle eksempler, og vurderer det foreløpig slik at det er en stund til alle vil la seg lure. Den dagen dette blir programvare for hvermansen vil man nok kunne se alt fra sketsjer og underholdning til mer skadelige uttrykk, sier Sandland.
Artikkelen fortsetter under annonsenLes også: Britiske soldater brukte bilde av Jeremy Corbyn som blink
(Saken fortsetter under)
– Skreddersyr annonser
Seniorrådgiveren i NorSIS bekrefter at det foregår ulike «påvirkningsoperasjoner» rettet mot vanlige borgere, men understreker igjen at falske filmer langt fra er det mest brukte verktøyet i dag:
– Man kan påvirke folk over tid med målrettet politisk reklame og store mengder fake news.
Google og Facebook selger skreddersydde annonseplasser tilpasset den enkelte brukers nettvaner og interesser.
– Jo mer man vet om målgrupper og velgere, jo mer målrettet reklame kan man kjøre. Dette er fortsatt helt lovlig, sier Sandland.
Les også: