Verden
Deepfake-teknologi brukes til å lage hevnporno
Flere millioner kvinner kan være rammet ifølge forskere.
Kunstig intelligens (AI) og bilde- og videomanipulasjon har utviklet seg i stor fart de siste årene. I nyere tid har såkalte «deepfakes» blitt populært.
Medietilsynet skriver at deepfakes er lyd, bilde eller video som er satt sammen med kunstig intelligens. Videre advarer de mot at deepfakes i mange sammenhenger blir brukt til å påvirke eller lure folk. Deepfakes kalles også ofte syntetisk media.
Nå brukes også teknologien til å lage hevnporno, ifølge nyhetsbyrået Reuters.
Millioner av kvinner er rammet
Apper som tilbyr teknologien tilbyr i hovedsak forbrukerne å plassere sitt eget ansikt på kropper til kjendiser og omvendt.
Men i en rapport skrevet av selskapet Sensity kommer det frem at slik kunstig intelligens nå går inn i en farlig fase.
Sensity jobber med å oppdage og avdekke syntetiske medier som deepfakes.
Til Reuters sier en av forfatterne bak rapporten at den største utfordringen innenfor deepfake-tekonologi er hevnporno.
Sensity estimerer at millioner av kvinner har blitt utnyttet i det de kaller deepfake-porno. Da har altså ansiktet av kvinner blitt plassert på andre kropper i pornografisk innhold.
Eksperter er bekymret for at teknologien nå er så avansert at det er vanskelig å skille mellom hva som er en falsk video og hva som er ekte.
Ikke et kjent problem i Norge
Lover mot misbruk av slik teknologi har blitt vedtatt i Kina, Sør-Korea og i den amerikanske staten California. Her kan det å avbilde noen pornografisk uten deres samtykke, eller å dele dette videre straffes med bøter opp til 150.000 dollar, rundt 1,3 millioner norske kroner.
Under en presentasjon i EU-parlamentet i oktober sa forskere at man manglet lover som spesifikt gikk på kriminalisering av deepfake-pornografi. De oppfordret samtidig parlamentet til å utvide lovene til å også gjelde utviklere og distributører av applikasjoner og nettsteder brukt til deepfake-pornografi.
I Norge har vi ifølge Kripos hittil sluppet unna problemet:
– Vi i Kripos har ikke noen spesiell kjennskap til saker med denne problemstillingen i Norge, skriver de til ABC Nyheter i en e-post.