Vann pris for forsking på korleis kunstig intelligens kan føre til diskriminering i offentleg sektor

Cheshta og Hilde

Få i offentleg sektor fryktar at bruken av kunstig intelligens kan føre til diskriminering, samtidig som forsking viser at risikoen er stor. Forskarar ved Vestlandsforsking fekk nyleg ein pris for ein forskingsartikkel som kastar lys over dette.

På få år har kunstig intelligens gjort sitt inntog i dei fleste offentlege verksemder her i landet. Teknologien sparar alt frå sakshandsamarar til legespesialistar for ei rekkje oppgåver og bidreg til at du og eg får raskare svar på søknader og legeundersøkingar, for å nemne noko.

Ei hake ved denne effektiviseringa er at det er vanskeleg å vite om dei nye teknologiske hjelpemidla behandlar oss likt etter lova. Kunstig intelligens er nemleg ikkje smartare enn at den gjenspeglar samfunnet vårt, slik det er, med innebygde skeivheiter og feil. Dermed er det fort gjort at teknologien bidreg til diskriminering – med mindre ein passar godt på.

Internasjonal konferanse

Det er ikkje alltid lett å få auge på måtane vi kan bli diskriminerte på, verken for oss eller offentlege aktørar.

Vestlandsforsking og Rambøll har tidlegare gjennomført ein studie av denne problematikken på oppdrag frå Bufdir. I ettertid har forskarane Hilde G. Corneliussen, Gilda Seddighi (Norce) og Cheshta Arora skrive ein forskingsartikkel om ei utfordring dei merka seg i studien, nemleg at informantane «omsette» omgrepet diskriminering til andre ord og omgrep.  I sommar la dei fram resultata for IT-forskarar frå heile verda på ein konferanse i Budapest. 

Artikkelen fekk toppskår frå forskarpanelet i Budapest, og Cheshta Arora tok imot utmerkinga for beste artikkel, eller «Outstanding Paper Award». 

– Denne forskingsartikkelen utdjupar nokre av årsakene til, og utfordringane med, at få trur at det er stor risiko for diskriminering gjennom bruk av KI, seier forskingsleiar Hilde G. Corneliussen.

Brukar andre ord

Forskarane intervjua representantar for offentlege verksemder som har spesielt god innsikt i korleis dei brukar kunstig intelligens. I intervjua var dei klare på at dei snakka om diskriminering i lys av likestillings- og diskrimineringslova, altså at det er ulovleg å forskjellsbehandle folk på bakgrunn av til dømes alder, etnisitet, inntekt eller religion.

Forskarane la merke til at dei fleste svarde på den same måten, nemleg med å bruke andre ord enn «diskriminering», som «bias» eller «skeivheit», «representativitet», «etikk», «openheit» og «forklarbarheit», eller GDPR – personvernforordninga til EU. 

– Alle desse omgrepa er viktige, men dei rører ikkje direkte ved diskriminering. Vi analyserte ordvalet og kva for effektar det kan ha, forklarer Corneliussen. Ei av dei største utfordringane er at dei ulike omgrepa gav inntrykk av at risiko for diskriminering allereie var handtert, sjølv om fokus på t.d. GDPR eller representativitet ikkje i seg sjølv er ein garanti for å unngå diskriminering.

Ufråvikelege krav

I tillegg var det nokre som enno ikkje hadde byrja å tenke på risiko for diskriminering, men heller svarte at dei skulle ta tak i denne tematikken seinare.

– Det går ikkje. Dette er utfordringar du må ha med heilt frå starten av, seier Corneliussen.

Likestillings- og diskrimineringslova er ufråvikeleg, også for stat og kommunar. Jussprofessor Ingunn Ikdahl, som sat i forskingsprosjektet si referansegruppe, var heilt klar på dette punktet: Lovverket forbyr diskriminering, så du kjem ikkje unna med at du ikkje visste. 

Under rapportlanseringa i Oslo i mars 2023 stilte ho dette retoriske spørsmålet: «Dersom offenntleg sektoor ikkje er heilt sikre på om KI-verktøy dei utviklar, diskriminerer, bør dei då ta dei i bruk?»

Skal brukast til å forbetre jobben vi gjer

Corneliussen understrekar at kunstig intelligens brukt i offentleg sektor si tildeling av rettar og tenester til enkeltpersonar alltid må fungere i samspel med menneskelege moderatorar og saksbehandlar.

faksimile
Faksimile av kronikk i Nationen i august 2024.

– Sluttproduktet må vere eit menneske sin vurdering. Vi skal ikkje i framtida bli kvitt sakshandsamarar, legar eller forskarar, men dei som ikkje brukar KI til å forbetre jobben sin vil nok vere i fare, slår ho fast.

Utvidar diskusjonen

Som følgje av prisen er forskarane inviterte til å skrive ein utvida vitskapleg artikkel i tidsskriftet IADIS, International Journal on Computer Science and Information Systems om problematikken. Her skal forskarane utdjupe potensielle konsekvensar av at «diskriminering» blir omtalt med andre ord i offentleg sektor.

Vestlandsforsking har ekspertise både om teknologi og samfunnsvitskap, og forskarane jobbar på tvers av fag, både i dette prosjektet og i forskingsprosjekt som SOCYTI

– Dette er òg litt av nøkkelen til at vi ser på dette spørsmålet slik vi gjer, seier Corneliussen.

Les forskarane sin kronikk om temaet