Livsstil

Advokat: Elon Musks X kan holdes ansvarlig for KI-«avkledning»

Ansvaret ligger først hos brukeren som initierer og deler bildene. Men advokat Jon Wessel-Aas mener også tjenesten bak har ansvar.

X-sjefen selv i all sin KI-genererte «prakt».
Publisert Sist oppdatert

Elon Musks og hans kunstige intelligens «Grok» har vekket sterke reaksjoner de siste dagene, etter det ble populært blant brukere på X å be Grok om å «kle av» bilder av i utgangspunktet påkledde mennesker ned til undertøyet. Tilsynelatende med tenkoligarkens velsignelse. 

Én analyse anslo omfanget til mange tusen KI-genererte lettkledde bilder i timen. Flere av personene avbildet har i tillegg vært mindreårige.

Myndigheter verden over har gått hardt ut mot praksisen, og talsmann for Europakommisjonen Thomas Regnier uttalte nylig dette: 

Dette er ikke “spicy”. Dette er ulovlig. Dette er forkastelig. Dette er kvalmende. Slik ser vi det har dette ingen plass i Europa.

Portrett av Jon Wessel-Aas i dress og slips mot nøytral bakgrunn.
Advokat Jon Wessel-Aas advarer mot at KI-verktøy brukes til å lage seksualiserte bilder av gjenkjennbare personer uten samtykke.

I tillegg har Malaysia varslet rettslige skritt mot X, som i likhet med Indonesia også har blokkert Grok. I Storbritannia fremskyndes en lov som skal kriminalisere såkalt deepfaking. 

Norge strammer inn: Atomfrykt etter Ukraina-krigen

"Som hovedregel vil det være ulovlig"

For advokat Wessel-Aas er det avgjørende at denne typen KI-generering typisk tar utgangspunkt i et ekte menneske med et gjenkjennbart ansikt – og at det derfor i praksis handler om publisering av en person, selv om kroppen er kunstig generert.

Han er partner i advokatfirmaet Glittertind og jobber særlig med ytringsfrihet, personvern, opphavsrett og medierett. 

Wessel-Aas forklarer at vernet mot offentliggjøring av personbilder gjør at terskelen fort blir høy for å spre slike «avkledde» fremstillinger uten samtykke. 

– Som hovedregel vil det være ulovlig. Bare fordi du har ansiktet til et menneske du ikke har samtykke fra. 

Ulovlig selv om det ikke er «ekte»

Han peker også på at forbudet mot spredning av krenkende bilder i straffeloven kan være relevant når slike bilder deles videre, selv om det ikke skjer offentlig, men bare spres til andre - og at nakenhet og seksualiserte fremstillinger typisk ligger nær kjernen av det loven skal ramme, selv om kroppen ikke er «ekte».

– Så vil det likevel rammes som krenkende fordi det fremstilles som om det er dem.

Samtidig understreker han at jussen ikke bare handler om publisering. I intervjuet beskriver han hvordan selve bruken av en KI-tjeneste kan reise spørsmål etter personopplysningsloven, fordi et gjenkjennbart bilde regnes som en personopplysning – og fordi man ved opplasting i en tredjeparts systemer i praksis flytter opplysninger ut av det private.

– Et bilde av et identifiserbart menneske er en personopplysning, sier Wessel-Aas.

Elon Musk og hans KI Grok er i hardt vær.

Han fortsetter:

– Der mener jeg at det vil være juridisk problematisk etter personopplysningsloven i det hele tatt å legge inn bilder av andre uten deres samtykke, sier han.

Se brannvesenets skrekk-eksempler fra norske nattklubber

Hvem har egentlig ansvaret?

Når det gjelder ansvar, sier Wessel-Aas at det først og fremst er brukeren som initierer og eventuelt publiserer som rammes. 

Men han mener også at selve tjenesten som tilbyr funksjonen kan ha et selvstendig ansvar – særlig hvis den behandler bilder av personer uten samtykke, og i enda større grad dersom mindreårige rammes.

Hender som holder en smarttelefon med tastatur åpent og en KI-chat på skjermen.
«What would you like to create», spør Grok. Nå bruker flere tjenesten til å fremstille lettkledde bilder av andre.

– Den som leverer den tjenesten, vil jo selv ha et ansvar. Ikke minst etter personopplysningsloven, og eventuelt også etter reglene i straffeloven om besittelse av seksualiserte bilder av mindreårige.

Og det er nettopp her han mener tjenester som Grok skiller seg fra «vanlig» brukergenerert innhold på en plattform. For i dette tilfellet er KI-verktøyet ikke bare noe som brukes utenfor plattformen og så lastes opp i etterkant: funksjonen er bygget inn i selve tjenesten.

Når en plattform tilbyr en slik knapp, og samtidig ser at den brukes til å seksualisere identifiserbare personer, mener Wessel-Aas at det kan peke mot et såkalt medvirkningsansvar etter norsk rett. 

– Der vil i hvert fall norsk rett i utgangspunktet kunne etablere et medvirkningsansvar for at de bildene blir som de blir, sier Wessel-Aas.

Han peker dessuten på at plattformens kunnskap om misbruk betyr noe. I intervjuet trekkes det fram at saken er blitt så synlig at X vanskelig kan hevde at de ikke visste hva verktøyet ble brukt til.

– I dag kan de i hvert fall ikke påstå at de ikke er klar over at dette også er en mulighet, avslutter Wessel-Aas.