Verden

Deepfake-teknologi brukes til å lage hevnporno

Flere millioner kvinner kan være rammet ifølge forskere.

Bruken av deepfake-teknologi i forbindelse med hevnporno bekymrer forskerne.
Publisert Sist oppdatert

Kunstig intelligens (AI) og bilde- og videomanipulasjon har utviklet seg i stor fart de siste årene. I nyere tid har såkalte «deepfakes» blitt populært.

Medietilsynet skriver at deepfakes er lyd, bilde eller video som er satt sammen med kunstig intelligens. Videre advarer de mot at deepfakes i mange sammenhenger blir brukt til å påvirke eller lure folk. Deepfakes kalles også ofte syntetisk media.

Nå brukes også teknologien til å lage hevnporno, ifølge nyhetsbyrået Reuters.

Millioner av kvinner er rammet

Apper som tilbyr teknologien tilbyr i hovedsak forbrukerne å plassere sitt eget ansikt på kropper til kjendiser og omvendt.

Men i en rapport skrevet av selskapet Sensity kommer det frem at slik kunstig intelligens nå går inn i en farlig fase.

Sensity jobber med å oppdage og avdekke syntetiske medier som deepfakes.

Til Reuters sier en av forfatterne bak rapporten at den største utfordringen innenfor deepfake-tekonologi er hevnporno.

Sensity estimerer at millioner av kvinner har blitt utnyttet i det de kaller deepfake-porno. Da har altså ansiktet av kvinner blitt plassert på andre kropper i pornografisk innhold.

Eksperter er bekymret for at teknologien nå er så avansert at det er vanskelig å skille mellom hva som er en falsk video og hva som er ekte.

Ikke et kjent problem i Norge

Lover mot misbruk av slik teknologi har blitt vedtatt i Kina, Sør-Korea og i den amerikanske staten California. Her kan det å avbilde noen pornografisk uten deres samtykke, eller å dele dette videre straffes med bøter opp til 150.000 dollar, rundt 1,3 millioner norske kroner.

Under en presentasjon i EU-parlamentet i oktober sa forskere at man manglet lover som spesifikt gikk på kriminalisering av deepfake-pornografi. De oppfordret samtidig parlamentet til å utvide lovene til å også gjelde utviklere og distributører av applikasjoner og nettsteder brukt til deepfake-pornografi.

I Norge har vi ifølge Kripos hittil sluppet unna problemet:

– Vi i Kripos har ikke noen spesiell kjennskap til saker med denne problemstillingen i Norge, skriver de til ABC Nyheter i en e-post.