Advarer mot ChatGPTs påvirkning på unge – svarer med nye sikkerhetstiltak

Selvskading, selvmord og ekstremslanking. En ny rapport hevder at tenåringer får skadelig innhold fra ChatGPT. Selskapet avviser kritikken, men innrømmer dilemmaer. Det får norsk KI-ekspert til å reagere.

I en rapport, Fake friends, publisert i august av Center for Countering Digital Hate, kommer det frem at ChatGPT kan gi farlig informasjon til unge.
Publisert Sist oppdatert

I en rapport fra CCDH, Center for Countering Digital Hate, i august kommer det frem at ChatGPT kan gi barn og unge detaljerte råd om alkohol, narkotika, spiseforstyrrelser og selvskading – til tross for at chatboten advarer mot farlig atferd.

Ifølge Common Sense Media bruker over 70 prosent av amerikanske tenåringer AI-chatboter for selskap. Nettsiden forklarer at yngre tenåringer er mer tilbøyelige til å stole på chatbotenes råd enn eldre ungdommer forklarer nettsiden. 

I 2024 rapporterte SSB at 7 av 10 unge mellom 16 og 24 år, i Norge, bruker KI. Prosenten ligger noe høyere enn hos kvinner enn hos menn, med 68 prosent mot 62 prosent. 

– Nesten ikke eksisterende

Nyhetsbyrået Associated Press (AP) har gjennomgått over tre timer med samtaler der forskere utga seg for å være sårbare 13-åringer, i rapporten. Mer enn halvparten av ChatGPTs 1200 svar ble klassifisert som «farlige». Blant annet genererte chatboten selvmordsbrev til foreldre, søsken og venner. 

Imran Ahmed, direktør for Center for Countering Digital Hate, forteller til Associated Press at han var sjokkert over funnene i rapporten.

Hva er ChatGPT?

En avansert chatbot utviklet av OpenAI  og ble lansert i 2022.

Boten bygger på en språkmodell trent på store mengder tekst fra internett. Den Kan skrive tekster, svare på spørsmål og føre samtaler.

Boten kan brukes til alt fra kundeservice og skolearbeid til idéutvikling.

Etter lanseringen har boten blitt kritisert for å kunne gi feilaktige eller skadelige råd, særlig til unge brukere.

Kilde: SNL

Svarene med genererte brev skal ifølge AP ha fått direktøren hos CCDH, Imran Ahmed, til å gråte. 

– Vi ville teste sikkerhetsnettene. De er nesten ikke-eksisterende, sier direktøren til nyhetsbyrået. 

Flere av svarene til ChatGPT skal blant annet inneholdt anbefalinger på hvilke husholdningsartikler som kan brukes til selvskading, og gitt tips til hvordan de kan brukes. ChatGPT skal også ha foreslått ekstreme dietter og oppskrifter med så få kalorier som mulig, samt gitt unge forslag til unnskyldninger for å skjule problematisk atferd fra voksne.

KI-ekspert reagerer

– Jeg er ikke overrasket, men bekymret. Det er ikke enkeltstående feil, men et systematisk mønster. Dette bekrefter at dagens sikkerhetsmekanismer ikke er gode nok, sier Morten Goodwin, professor ved Universitetet i Agder og en av Norges fremste KI-eksperter.

Morten Goodwin, professor ved Universitetet i Agder og en av Norges fremste KI-eksperter reagerer på rapporten, og de nye tiltakene til OpenAI.

OpenAI, som står bak ChatGPT, sier på sin egen nettside at de jobber med å forbedre chatbotens evne til å håndtere sensitive temaer og oppdage tegn på psykisk eller emosjonell krise. Selskapet påpeker at samtaler kan begynne uskyldig, men gli over i mer alvorlige temaer.

ABC Nyheter har prøvd å komme i kontakt med OpenAI i forbindelse med denne saken, uten hell.

Krevende balangsegang

I en pressemelding fra 16. september innrømmer OpenAI at de står i en krevende balansegang mellom personvern, frihet og beskytte unge. Selskapet skriver at samtaler med AI bør behandles som svært sensitive og være beskyttet på linje med medisinske eller juridiske opplysninger. 

Samtidig understreker de at voksne brukere skal ha stor grad av frihet til å bruke tjenesten slik de ønsker. 

For tenåringer varsler OpenAI imidlertid en helt annen linje. Sikkerhet skal  prioriteres foran både personvern og frihet. Selskapet informerer om at de holder på å utvikle et system for å anslå alder basert på bruksmønster, og i tvilstilfeller vil alle behandles som under 18 år.

 Ikke bra nok

KI-ekspert Morten Goodwin mener dette er nødvendig, men langt fra nok.

ChatGPT krever ingen verifisering av alder, og forskerne bak rapporten viste hvor enkelt det er for barn å omgå retningslinjene. Mens andre plattformer har innført strengere alderskontroller, kan en 13-åring registrere seg hos OpenAI ved å oppgi en fødselsdato.

Dette er flere av tiltakene til OpenAI:

  • ChatGPT skal ikke kunne diskutere selvmord eller selvskading med unge brukere, selv i en kreativ kontekst.

  • Strengere regler for seksualisert innhold og temaer som kan skade unge.

 – Det er for eksempel ingen aldersverifikasjon, noe som ville vært veldig trivielt å installere. Alle kan i praksis opprette en konto, også unge under 13, sier Goodwin.

Foreldrekontroll

I en oppdatering 29. september lanserte OpenAI appen Sora som skal gi foreldre mer kontroll. Foreldre får muligheten til å koble sin konto til tenåringens og styre diverse innstillinger som: 

  • Redusert tilgang til grafisk og seksualisert innhold.

  • Begrensning av meldingsfunksjoner og personaliserte feeds.

  • Mulighet til å skru av stemmemodus, bildegenerering, hukommelsesfunksjonen og å sette «stille timer» der ChatGPT ikke kan brukes.

Samtidig innføres et varslingssystem som kan gi foreldre beskjed dersom ChatGPT fanger opp tegn på at en tenåring vurderer selvskading eller selvmord. Da kan foreldrene kontaktes direkte via e-post, SMS eller varsler på telefonen.

– Foreldrekontroller er et godt startpunkt, men fungerer best når de kombineres med samtaler i familien og klare regler for teknologi, sier Robbie Torney i Common Sense Media, som har bidratt i utviklingen av tiltakene.

– Vi vet at ikke alle er enige i hvordan vi balanserer disse hensynene, men vi mener dette er det beste etter råd fra eksperter, blir det informert i pressemeldingen.

Skeptisk

Goodwin er imidlertid skeptisk til effekten av slike løsninger. 

– De sier selv at man ikke blir bedt om å legge frem bevis for foreldresamtykke. Det betyr at hvem som helst kan registrere seg uten foreldrenes ansvar.

Han peker på at tekniske sikkerhetsnett er mulig å bygge, men at OpenAI må ta i bruk mer robuste systemer, som BankID-lignende løsninger for aldersbekreftelse.

 – Alle slike systemer kan omgås, men i mange tilfeller handler det om å gjøre det godt nok, sier han.

Ansvar

Når det gjelder ansvaret, mener Goodwin at dette må deles. 

– Foreldre må selvsagt ta sin del, men selskapene må ta en stor del av ansvaret, og myndigheter bør passe på. På samme måte som et slankemiddelfirma ikke kan publisere oppskrifter for anorektikere, bør teknologiselskapene holdes ansvarlig dersom språkmodellene deres gir skadelig innhold, sier han til ABC Nyheter.

Goodwin mener regulering er nødvendig, og viser til at såkalte «guard rails» – tekniske sperrer som skal hindre visse typer svar – allerede finnes, men må styrkes. 

– Jeg tror risikoen for misbruk blant unge vil øke i takt med at teknologien blir mer utbredt, sier han.

– En ekte venn sier nei

Overfor AP mener Ahmed at funnene i rapporten viser at ChatGPT kan fremstå som en «falsk venn» som ikke setter grenser.

– En ekte venn sier nei. ChatGPT sier ja. 

Til foreldre har Morten Goodwin ett råd: 

– Vær med barna. Snakk med ChatGPT sammen, la den skrive historier eller vitser, men forklar også hva som er begrensningene. Ikke sett en stopper for teknologien, men la dem utforske – trygt.