Meny

Kontroversiell forsker: – Kan se om du er homofil

Dr Michal Kosinski. Foto fra forskerens hjemmeside.
Dr Michal Kosinski. Foto fra forskerens hjemmeside.
Psykologen Michael Kosinski sier kunstig intelligens kan fastslå legning og politisk ståsted, bare ved å se på ansiktet ditt. Hva om han har rett?

Vladimir Putin var ikke tilstede, men det var hans lojale undersåtter. Den 14. juli i fjor var Russlands statsminister Dmitrij Medvedev og flere medlemmer av regjeringen samlet i en kontorbygning i utkanten av Moskva. På scenen sto psykologen Michal Kosinski, som hadde blitt hentet inn for å holde foredrag om forskningen sin.

«Lavrov satt på første rad»: Russlands utenriksminister Sergej Lavrov var ifølge Kosinski blant de russiske toppolitikerne der forskeren holdt innlegg i Russland 14. juli 2017. Scanpix/AP. Foto: Ivan Sekretarev / AP
«Lavrov satt på første rad»: Russlands utenriksminister Sergej Lavrov var ifølge Kosinski blant de russiske toppolitikerne der forskeren holdt innlegg i Russland 14. juli 2017. Scanpix/AP. Foto: Ivan Sekretarev / AP

– Utenriksminister Lavrov satt på første rad. Ikke sant, en fyr som starter kriger og erobrer andre land, mimrer Kosinski flere måneder senere.

Den 36 år gamle amanuensisen innen Organisational behaviour ved Standford University ble smigret da de russiske regjeringsmedlemmene ville høre forskningen hans. – Dette er en gruppe mennesker jeg opplever som svært kompetent og velinformert. De gjorde hjemmeleksen sin. De leste materialet mitt.

Kosinskis materiale består blant annet av banebrytende forskning rundt teknologi, massesuggesjon og kunstig intelligens (AI) – forskning som medvirket til opprettelsen av det politiske konsultasjonsbyrået Cambridge Analytica. For fem år siden, mens han studerte ved Cambridge University, viste han hvordan folks aktivitet på Facebook kunne avsløre personlighetstrekk. Oppdagelsen ble senere misbrukt av data-analysefirmaet, som hjalp Donald Trump med å innta Det hvite hus.

Varsleren Christopher Wylie ga nye detaljer om PR-bedriften Cambridge Analyticas bruk av Facebook-data. Scanpix/AP.
Varsleren Christopher Wylie ga nye detaljer om PR-bedriften Cambridge Analyticas bruk av Facebook-data. Scanpix/AP.

Det var i seg selv nok til at den russiske regjeringen fattet interesse for Kosinski. Men publikummet hans i Moskva var også fascinert av Kosinskis studier av bruken av AI for å fange opp psykologiske karaktertrekk. Noen uker etter turen til Moskva, publiserte Kosinski en kontroversiell artikkel hvor han beskrev hvordan algoritmer for ansiktsgjenkjennelse kunne skille mellom bilder av homofile og heteroseksuelle personer. I tillegg til legning, tror Kosinski teknologien kan brukes til å fange opp følelser, IQ og til og med en disposisjon for å utføre enkelte kriminelle handlinger. Kosinski har også brukt algoritmen til å skilne mellom republikanere og demokrater, i et upublisert eksperiment han hevder var en suksess – selv om han innrømmer at resultatet kan avhenge av om han «inkluderer skjegg eller ikke».

«En tenker som bryter ned tabuer»

Hvordan fanget denne 36 år gamle akademikeren, som fortsatt har til gode å utgi en eneste bok, oppmerksomheten til den russiske regjeringen? Vi møtte Kosinski flere ganger i California og London. Han beskriver seg selv som en tenker som bryter ned tabuer, og som er villig til å ta for seg vanskelig felt innenfor kunstig intelligens og overvåkning, felt som andre akademikere ikke vil nærme seg.

– Jeg kunne vært opprørt over at privatlivet og personvernet vårt er i fare. Men faktum er at vi allerede har mistet disse tingene, og vi får de ikke tilbake uten å ødelegge sivilisasjonen vår, påpeker Kosinski.

London er en av verdens mest overvåkede byer. Scanpix/AP.
London er en av verdens mest overvåkede byer. Scanpix/AP.

Selv sier han at formålet med forskningen er å sette søkelyset på farene. Likevel viser han en forbløffende entusiasme over deler av teknologien han hevder å advare oss mot, og snakker oppglødd om kameraer som kan fange opp personer som er «nervøse, har gått seg vill, er offer for menneskehandel eller er potensielt farlige. Se for deg at vi har slike verktøy for å overvåke offentlige steder, og kan fange opp personer som kan være en fare for seg selv eller andre», forklarer han.

– Det er problemer knyttet til personvern og privatliv med alle disse problemstillingene, men til syvende og sist kan man redde liv.

Kosinski mener at framskritt får folk til å føle seg ukomfortable, og alltid har gjort det.

– Da de første apene klatret ned fra trærne og begynte å rusle rundt på savannen, mente sikkert de andre apene at det var uhørt, og følte seg utilpass der de fortsatt hang i treet. Det er det samme med ny teknologi.

Har aldri analysert eget ansikt

Kosinski har analysert tusenvis av ansikter, men aldri sitt eget. Vi vet derfor ikke hva de personlighets-tolkende modellene hans mener om hans egne blekgrå øyne eller smilehull. Jeg ber han beskrive sin egen personlighet. Kosinski svarer at han er pliktoppfyllende, ekstrovert og sannsynligvis en emosjonell person, med en IQ som er «kanskje litt høyere enn gjennomsnittet». Dessuten mener han at han kan være ubehagelig, men avfeier spørsmålet om hva som har gjort han slik.

– Etter det vitenskapen vet om personligheter, ser det ut til at man i all hovedsak er født slik.

Vennene hans beskriver Kosinski som en briljant, provoserende og ukuelig forsker med et umettelig ønske om å flytte grensene for forskningen sin. «Michal er som en liten gutt med en hammer», sier en av vennene hans i forskningskretsen. «Plutselig ser alt ut som spiker for han».

Michal Kosinski ble født i Warsawa i 1982. Talentet for koding arvet han etter foreldrene, som jobbet med programvare. Kosinski og søsknene hadde en datamaskin hjemme, «sannsynligvis mye tidligere enn jevnaldrende i vestlige land». Da Polens post-kommunistiske økonomi begynte å våkne til live på slutten av 90-tallet, hadde Kosinski sitt eget IT-firma, og ansatte klassekamerater til å jobbe for seg. Dette bidro til å finansiere universitetsstudiene, og i 2008 begynte han på forskerutdanningen sin hos universitetet i Cambridge. Der var han tilknyttet senteret for psykometri, som spesialiserte seg i målinger av psykologiske personlighetstrekk.

Det var på denne tiden han møtte David Stillwell, en studiekompis som hadde laget en personlighetstest han delte med venner på Facebook. Appen spredte seg på nettet, og etter hvert tok flere tusen mennesker testen for å se hvordan de scoret på «Femfaktormodellen »: Åpenhet for erfaring, Planmessighet, Ekstroversjon, Medmenneskelighet og Nevrotisisme. Etter at brukerne hadde gjennomført testene, kalt myPersonality (noen av dem målte også IQ og tilfredshet), kunne man velge å donere bort dataene sine til akademisk forskning.

Kosinski ble en del av teamet, og brukte sine digitale evner til å rydde opp i dataene, anonymisere dem, og deretter gjøre de tilgjengelig for andre i miljøet. Innen 2012 hadde mer enn 6 millioner mennesker tatt testene – og mer enn 40 prosent donerte bort dataene sine. Dermed ble dette verdens største datasett av denne typen.

Kongressmedarbeidere ved en stand for Facebook under bedriftens pårlige F8 utviklerkonferanse i San Jose i California april 2017. Scanpix/AP.
Kongressmedarbeidere ved en stand for Facebook under bedriftens pårlige F8 utviklerkonferanse i San Jose i California april 2017. Scanpix/AP.

Passordet lå åpent på nett

I mai avslørte magasinet New Scientist at brukernavnet og passordet man trengte for å få tilgang til datasettet ved et uhell hadde blitt liggende på GitHub, et nettsted som er mye brukt for deling av datakode. I fire år hadde hvem som helst hatt tilgang til dataene. Før magasinets graving i saken, hadde Kosinski innrømmet overfor meg at den liberale tilnærmingen til arbeidet medførte en viss risiko.

– Vi anonymiserte dataene, og fikk forskerne til å skrive under på at de ikke ville bruke dataene i kommersielt øyemed. Men du har egentlig aldri noen garanti for at det ikke vil skje.

Kosinski la til at mye at dataene fra Facebook ikke kunne anonymiseres. Etter at New Scientist publiserte artikkelen om prosjektet, la Stillwell ned myPersonality. Kosinski sendte meg da en link til kunngjøringen, og klaget over at «Twitter-krigere og sensasjonsmakere har fått David til å stenge myPersonality-prosjektet».

I løpet av perioden hvor dataene fra myPersonality var tilgjengelig, publiserte 280 forskere mer enn 100 studier på dataene. Mest oppmerksomhet fikk en studie fra 2013, som Kosinski, Stillwell og en annen forsker var involvert i. Her så de på sammenhengen mellom «Likes» på Facebook, og psykologiske og demografiske trekk ved 58 000 mennesker. Noen av funnene var forventet. Blant annet var noen av de tydeligste tegnene på introversjon at man hadde «likt» facebooksider som «Videospill» og «Kabal». Andre var langt mer overraskende: Blant de sikreste tegnene på høy IQ fant man «likes» for sider som «Tordenvær» og «Morgan Freemans stemme». Personer som likte sider for «iPod» og «Gorillaz» var som regel misfornøyd med livet.

Kosinski og kollegaene hans oppdaget at dersom de foret algoritmen med tilstrekkelig informasjon om «likes» på Facebook, kunne den lage et mer nøyaktig bilde av en persons karaktertrekk, enn vedkommendes venner i den virkelige verden. I en annen studie viste de hvordan data fra Facebook kunne brukes som et effektivt verktøy for påvirkning av store folkemasser.

Samlet data fra 320.000 amerikanere

Forskningen deres vekket interessen til SCL Group, Cambridge Analyticas moderselskap. I 2014 forsøkte SCL å kjøpe dataene fra myPersonality og verktøyene for tolkning av karaktertrekk, og selskapet ville også ha Stillwell og Kosinski med på laget. Etter at forhandlingene brøt sammen, henvendte de seg til Aleksandr Kogan, amanuensis ved psykologiavdelingen på Cambridge. Ved hjelp av sin egen personlighetstest på Facebook, som han betalte brukerne for å ta (med penger fra SCL), samlet han inn data fra 320.000 amerikanere. I tillegg hentet han inn ytterligere data fra så mange som 87 millioner mennesker, ved å utnytte et smutthull som tillot utviklere å hente inn data fra vennene til brukerne av Facebook-appen – uten at de selv hadde godkjent dette.

Kosinski under en forelesning i Stockholm. Foto fra forskernes hjemmeside.
Kosinski under en forelesning i Stockholm. Foto fra forskernes hjemmeside.

Christopher Wylie var varsleren som avslørte Cambridge Analytica sine arbeidsmetoder tidligere i år. Han har fortalt om hvordan selskapet forsøkte å kopiere arbeidet til Kosinski og hans medarbeidere, og gjøre det om til et våpen for «psykologisk krigføring».

Det sveitsiske magasinet Das Magazin var de første som fant sammenhengen mellom Kosinski sitt arbeid og Cambridge Analytica. Til magasinet uttalte Kosinski at det som hadde skjedd ikke var hans feil: – Det var ikke jeg som bygget bomben. Jeg viste bare at den kunne bygges.

Cambridge Analytica har benektet at de brukte Facebook-basert psykografisk segmentering for å hjelpe Donald Trumps valgkamp, men skandalen rundt selskapets datahøsting tvang det til å legge ned.

Affæren viste seg også å bli svært skadelig for Facebook, som har hovedkvarter drøye seks kilometer fra Stanford Business School i Silicon Valley, hvor Kosinski i dag holder til. Første gang jeg besøker kontoret hans, spør jeg om et bilde han har ved siden av datamaskinen; motivet er en demonstrant bevæpnet med en Facebook-logo i stedet for en pistol.

– Folk tror jeg er anti-Facebook, men jeg synes det generelt sett er fantastisk teknologi.

Likevel er han skuffet over Facebooks administrerende direktør Mark Zuckerberg, som i kongresshøringen i april uttalte at han «forsøkte å finne ut om det foregikk noe ureglementert hos Cambridge University.» Ifølge Kosinski hadde Facebook god kjennskap til forskningen hans. Han viser meg eposter fra ansatte i Facebook, som han mottok i 2011. Her avslører de at selskapet brukte «analyser av lingvistiske data til å kartlegge personlighetstrekk». I 2012 søkte de samme ansatte om patent på en metode for å lese personlighetstrekk ut ifra statusoppdateringer og meldinger på Facebook.

– Generelt sett en fantastisk teknologi

Kosinski virker uanfektet av furoren Cambridge Analytica-saken skapte, og føler psykometrisk microtargeting innen politikk har blitt stilt i et ufortjent dårlig lys. – Det har sine negative sider, men generelt sett er det fantastisk teknologi, som er bra for demokratiet, sier han. – Dersom du kan lage målrettede politiske budskap basert på folks interesser, drømmer og personlighet, blir budskapet mer relevant. Dermed blir velgerne mer engasjerte, og engasjerte velgere er bra for demokratiet.

Jeg kontrer med at dette også gir muligheten til å bruke samme teknikk til å rette seg mot motpartens velgere, og medvirke til at de ikke bruker stemmeretten – noe som er dårlig for demokratiet. Kosinski trekker på skuldrene. – I så fall gjør alle politikere i USA det. Hvis man går etter velgerne til konkurrenten, er det velger-undertrykking.

Det største problemet Kosinski har med etterspillet etter Cambridge Analytica-skandalen, er at det i følge han har skapt en illusjon av at myndighetene kan beskytte innbyggernes informasjon og privatliv. Selv mener han den krigen er tapt.

– I post-personvern æraen burde vi fokusere på å gjøre samfunnet et beboelig og hyggelig sted å leve.

Kosinski sier han aldri hadde til hensikt å bevise at AI kan forutsi en persons legning, men at han «snublet over oppdagelsen» mens han kikket gjennom facebookprofiler i forbindelse med et annet prosjekt. Han begynte å ane et mønster i ansiktene til brukerne. – Det slo meg at introverte og ekstroverte har helt forskjellige ansikter, noe som fikk meg til å tenke at det kunne være noe mer i dette.

Fysiognomikk, læren om sammenhengen mellom kropps- eller ansiktstrekk og personlighetstrekk, går helt tilbake til antikkens Hellas. Mest populært var det på 1800-tallet, da den italienske antropologen Cesare Lombroso publiserte sin berømte klassifisering som blant annet hevdet at «nesten alle kriminelle har utstående ører, tykt hår, tynt skjegg, underbitt og brede kinnben».

Analysen hadde sitt utgangspunkt i en sterkt rasistisk tankegang som baserte seg på at kriminelle lignet «villmenn og aper», selv om Lombroso presenterte sine funn med presisjonen til en rettsmedisinsk fagmann. Tyver var gjenkjennelige ved sine «små, flakkende øyne», voldtektsmenn hadde «hovne lepper og øyelokk», mens drapsmenn «ofte hadde ørnenese, og nesen er alltid stor».

Studier av «kriminelle ansiktstrekk». Fra Cesare Lombrosos «Det kriminelle mennesket». (1911) Illustrasjon via Internet Archive.
Studier av «kriminelle ansiktstrekk». Fra Cesare Lombrosos «Det kriminelle mennesket». (1911) Illustrasjon via Internet Archive.

Lombrosos skjelett er fortsatt utstilt på et museum i Torino, ved siden av hodeskallene til de hundrevis av kriminelle han undersøkte over flere tiår. Mens Lombroso brukte skyvelære og andre instrumenter for å måle kraniet i sine undersøkelser, bruker Kosinski nevrale nettverk til å finne mønster i bilder hentet fra internett.

«Overtro og rasisme forkledd som vitenskap»

I sin forskning betegner Kosinski ideen om fysiognomikk som «en blanding av overtro og rasisme, forkledd som vitenskap». Samtidig hevder han at dette har skapt et tabu rundt det å «studere eller i det hele tatt diskutere sammenhengene mellom ansiktstrekk og personlighetstrekk». Han hevder det er en økende mengde bevis for at det finnes sammenhenger mellom ansikter og psykologi, selv om de kan være usynlige for det blotte øye. Med framskrittene innen maskinlæring, kan slike sammenhenger fanges opp, sier Kosinski. – For 50 år siden hadde vi ikke algoritmer som kunne fange opp mønster. Vi hadde bare menneskelig bedømmelse.

Datamaskin med «homoradar»

I fjor publiserte Kosinski og Yilun Wang, en dataingeniør ved universitetet i Stanford, en studie hvor de hevdet at et system for maskinlæring i stor grad var i stand til å skille mellom bilder av heteroseksuelle og homoseksuelle. De brukte 35 326 bilder fra datingsider på internett og software for ansiktsgjenkjenning.

Algoritmen fikk presentert to bilde, et av ansiktet til en homofil person, og et av ansiktet til en heteroseksuell. Programmet valgte riktig i 81 prosent av tilfellene for menn, og 74 prosent for kvinner. Da mennesker forsøkte det samme, fikk de riktig i henholdsvis 61 og 54 prosent av tilfellene.

Da algoritmen fikk se fem bilder per person, økte nøyaktigheten til 91 prosent for menn, og 83 prosent for kvinner. – Det var sjokkerende lett for algoritmen å skille mellom homofile og heteroseksuelle. Jeg skjønte ikke hvordan det var mulig, sier Kosinski.

Den følelsen delte han med mange andre. Forskningen ble umiddelbart kritisert, og fikk kallenavnet «AI gaydar» - altså en homoradar med kunstig intelligens. To av de fremste LHBT-organisasjonene i USA krevde at Stanford University tok avstand fra det de kalte «farlig og mangelfull forskning». Kosinski mottok en flom av eposter, mange kom fra personer som var usikre på sin egen seksualitet, og ville at han skulle kjøre et bilde av dem gjennom algoritmen sin. Kosinski avslo alle slike forespørsler. Andre var sinte fordi Kosinski hadde forsket på teknologi som kunne brukes til å forfølge homoseksuelle i land som Iran og Saudi Arabia, hvor homoseksualitet kan føre til dødsstraff.

Kosinski mener kritikerne misforstår. – Dette er paradokset som ligger i det å advare mot potensielt farlig teknologi. Jeg snublet over dette, og var nær å putte alt i en skuff og glemme hele greia – jeg hadde et helt fint liv uten å publisere disse funnene. Men så spurte en kollega om jeg kunne sove godt om natten dersom et selskap eller et land tok i bruk lignende teknologi med hensikt å skade mennesker. Det ville vært moralsk feil å begrave funnene.

En av kritikerne er Alexander Todorov, professor ved Princeton og kjent for sin forskning på ansikter og psykologi. Han hevder at Kosinskis metoder er svært mangelfulle, og at mønstrene som plukkes opp av algoritmer som sammenligner tusenvis av bilder kan ha lite å gjøre med ansiktstrekk. I en syrlig kritikk som ble postet på internett påpekte Todorov og to forskere innen kunstig intelligens hos Google, at Kosinskis algoritme kan ha reagert på mønster i personenes sminke, skjegg eller briller, og til og med vinkelen de holdt kameraet. Bilder som postes på datingsteder inneholder mye informasjon som har lite med ansiktene å gjøre, påpekte Todorov.

«Utypiske ansiktstrekk»

Kosinski medgir at maskinlæringssystemet hans plukker opp signaler som ikke er relatert til ansiktstrekk, men er fast bestemt på at programvaren også skiller mellom ansiktstrekk. Han sier at forskningen hans sammenfaller med teorien om at mengden mannlige kjønnshormoner et foster utsettes for i livmoren, er med på å avgjøre om personen blir heteroseksuell eller homoseksuell. Kosinski mener de samme hormonene kan føre påvirke ansiktstrekkene i en retning som er «utypisk for personens kjønn». I studien skriver han at «homoseksuelle menn ofte har mindre kjeve og kinnben, tynnere øyebryn, lengre nese og større panne … For lesbiske er det det motsatte som gjelder.»

Det er her Kosinskis arbeid streifer over i biologisk determinisme ; determinisme er læren om at alt er årsaksbestemt (Store norske leksikon). Han benekter ikke at sosiale og miljømessige faktorer har innvirkning, men er usikker på i hvilken stor grad. Til tider minner uttalelsene hans uhyggelig mye om Lombrosos, som var kritisk til ideen om at kriminelle hadde fri vilje. Lombroso mente man burde ha medynk med kriminelle heller enn å straffe dem, siden de var «programmert til å gjøre skade» - som aper, katter og andre dyr.

– Jeg tror ikke på skyld eller anger, fordi jeg ikke tror på fri vilje, sier Kosinski, og forklarer at han mener en persons tanker og oppførsel er «fullstendig biologisk, fordi de oppstår i den biologiske datamaskinen vi har i hodene våre».

I et senere møte utdyper han uttalelsen: – Dersom du godtar at vi i bunn og grunn er datamaskiner, kan ikke datamaskiner være skyldig i lovbrudd. Datamaskiner kan svikte og gjøre feil. Men da kan du ikke skylde på datamaskinen, på samme måte som at man vanligvis ikke skylder på en hund dersom den oppfører seg uskikkelig.

«Etisk svært tvilsom»

Todorov mener Kosinskis forskning er «etisk sett særdeles tvilsom», siden den kan bidra til å rettferdiggjøre bruken av slik teknologi av regjeringer i forskjellige land. Han viser til en studie som dukket opp på internett for to år siden, hvor kinesiske AI-forskere hevdet å ha trent en ansiktsgjenkjennelses-algoritme til å plukke ut personer som var dømt for lovbrudd, med en suksessrate på 90 prosent. Forskerne brukte offentlige arrestasjonsfoto av hundrevis av mannlige kriminelle, men studien ble ikke eksternt vurdert, og ble plukket fra hverandre av Todorov. Han advarte om at utviklingen innen kunstig intelligens og maskinlæring hadde gjort det mulig for «vitenskapelig rasisme å tre inn i en ny æra».

Kosinski har et annet syn på saken. – Selv om konklusjonene i studien var fullstendig ugyldige og ubegrunnede, betyr ikke det at premisset er feil, sier han. – I mine øyne er det ingen grunn til at man ikke skal kunne anslå en persons tilbøyelighet til å begå kriminelle handlinger, ved å studere ansiktet deres. Man vet for eksempel at testosteronnivået er medvirkende til slike tilbøyeligheter, og det er også knyttet til ansiktstrekk – og det er bare ett eksempel. Det er tusenvis eller millioner av andre sammenhenger som vi ikke vet om, som datamaskiner lett kan plukke opp.

På spørsmålet om han noen gang vil gjøre lignende forskning på temaet, nøler han. Så påpeker han at «kriminelle handlinger» er en forenkling, og at det fornuftige ville være å forsøke å fange opp trekk eller disposisjoner som kan være farlig for en person eller samfunnet – for eksempel aggressiv oppførsel. – Jeg tror noen må gjøre det… For hvis denne teknologien har sine risikable sider, bruker myndigheter og store selskaper den allerede.

En israelsk startup...

Når jeg ber Kosinski gi eksempler på hvordan teknologien blir brukt av myndigheter, kommer han stadig tilbake til en obskur israelsk startup kalt Faception. Selskapet tilbyr programvare som skanner en persons pass, visa og profiler på sosiale medier, og gir en poengsum som kategoriserer vedkommende med bakgrunn i flere typer personligheter. På nettsiden sin nevner Faception åtte slike kategorier, inkludert «Hvitsnippforbryter», «Høy IQ», «Pedofil» og «Terrorist». Kosinski betegner selskapet som «tvilsomt», og et kroneksempel på hvorfor forskere som bryr seg om personvern burde opplyse publikum om farene ved kunstig intelligens. – Ta en titt på hva Faception gjør, og hva slags kunder de har, oppfordrer han mens vi diskuterer etikken rundt forskningen hans.

Jeg ringer Faceptions administrerende direktør, Shai Gilboa, som tidligere jobbet i det israelske forsvarets etterretningstjeneste. Han forteller at selskapet leverer løsninger knyttet til offentlig sikkerhet i Asia, Midtøsten og Europa. Til min store overraskelse forteller han om et forskningssamarbeid han gjennomførte for to år siden: – Når man leter etter samarbeidspartnere i det akademiske miljøet ser man etter de beste folkene, som har store databaser og lang erfaring. Det var derfor vi knyttet til oss professor Kosinski.

Når jeg nevner dette for Kosinski, forsøker han å avfeie det hele, og hevder at han var i møte med Faception for å diskutere etikken rundt teknologi for ansiktsgjenkjenning. – De kom (til Stanford) fordi de innså at det de gjorde potensielt sett kunne ha store, negative implikasjoner, og var svært risikabelt.

Senere medgir han imidlertid at det var mer kontakt mellom de to partene, og at han møtte Faception «kanskje tre ganger» i Silicon Valley. Han sier at Faception tilbød han en andel i selskapet, mot at han tok en rolle som rådgiver. Dette skal han ha takket nei til.

Kosinski benekter at han var del av noe forskningsprosjekt med Faception, men innrømmer at selskapet ga han adgang til programvaren sin. Han sier han eksperimenterte med Facebook-bilder i myPersonality-datasettet, for å fastslå hvor nøyaktig Faceptions programvare var når det gjaldt å gjenkjenne personlighetstrekk. Deretter foreslo han at Gilboa skulle forsøke å kjøpe myPersonality-dataene fra Stillwell, men Stillwell takket nei.

Når jeg antyder at slike samtaler er i en etisk gråsone, blir Kosinski irritabel. Han sier at han gjør slikt ofte; nystartede selskaper kommer til han med tilbud, ikke om penger, men om å rådgi dem i prosjekter. Kosinski mener han ville vært en «arrogant drittsekk» dersom han avviste slike henvendelser.

Han har en lignende forklaring for turen til Moskva, som han sier var en «læringsdag for russiske embedsmenn» i regi av Sberbank Corporate University. Universitetet er en del av Sberbank, den statlige banken som har blitt rammet av EU-sanksjoner. Bankens administrerende direktør, som tidligere var minister for økonomisk utvikling i Russland, er i Putins nære krets. Hva var egentlig hensikten med turen til Moskva?

MI6-bygningen i London. Arkivfoto: Scanpix/AP.
MI6-bygningen i London. Arkivfoto: Scanpix/AP.

– Jeg forsto egentlig ikke konteksten. De plasserte meg i et helikopter, og fløy meg ut dit mens jeg ble briefet om noen av dem som ville være tilstede. Så snakket jeg om arbeidet mitt, og vi diskuterte hva slags påvirkning kunstig intelligens har på samfunnet. Deretter dro jeg igjen.

Irritabel når jeg spør om Russland

Mitt siste møte med Kosinski skjer i London. Han blir irritabel igjen når jeg spør mer om Russland, med fokus på landets strenge holdning til homofili. Jeg spør om han snakket om å bruke ansiktsgjenkjenning for å oppdage legning, under presentasjonen i Moskva. Kosinski sier at han gjorde det, men at presentasjonen var den samme han alltid bruker når han forteller om forskningen sin (noen dager senere kontakter Kosinski meg. Han forteller at han har gått igjennom presentasjonen, og sier at han ikke fortalte russerne om AI gaydar-en sin).

Men hvem var tilstede, bortsett fra Medvedev og Lavrov? Kosinski vet ikke. Det er mulig at han snakket til et rom fullt av russiske etterretningsagenter? Ja, sier Kosinski, men påpeker at det er ekstra viktig at de som jobber for overvåkningsstater får vite risikoen som er involvert i det de gjør. Han sier at han ikke er noen tilhenger av Russland, og understreker de aldri diskuterte spionering eller påvirkning av valg. Akademikere har en plikt til å forsøke å motvirke dårlige ideer, og spre gode, sier Kosinski. Han legger til at han derfor er villig til å møte de mest nedrige diktatorer i verden.

Kreml og Vasilijkatedralen i Moskva. Scanpix/AFP.
Kreml og Vasilijkatedralen i Moskva. Scanpix/AFP.

Jeg spør om Kosinski noen gang har blitt forsøkt rekruttert til etterretning. Han vil hverken bekrefte eller avkrefte spørsmålet, men snakker rundt det.

– Hvis en etterretningsorganisasjon ønsker å verve noen, tror du at de går rett til vedkommende og sier «Hei, jeg er fra CIA»? Nei, de sier «Hei, jeg kommer fra et nystartet selskap, og er interessert i arbeidet ditt – kunne du tenke deg å bidra som rådgiver?» Det skjedde helt klart i Storbritannia, da jeg var på Cambridge.

Kosinski forteller om en britisk forsvarsekspert som var svært interessert i forskningen hans, og som inviterte han til seminarer hvor høytstående militære i uniformer var blant tilhørerne. Kosinski mistenker at forsvarseksperten jobbet for etterretningen.

I en av våre siste samtaler forteller Kosinski at han ikke burde ha fortalt meg om besøket i Moskva, siden vertene hadde bedt han om ikke å snakke om turen. Kosinski mener det ville vært «lite elegant» å nevne turen i denne artikkelen, og uansett så er det «helt irrelevant».

Jeg påpeker at han selv i stor grad har fortalt om turen ved å poste et bilde av seg selv i helikopteret på Facebook, med teksten «Take off, på vei til å holde et foredrag for statsminister Medvedev». Senere forandret Kosinski personvernsinnstillingene: Bildet var ikke lenger offentlig, men «bare synlig for venner».


Oversatt av Henning Skjørsæter / ABC Nyheter / Pressworks © Guardian News & Media Limited


Helse og livsstil
Populært