Advarer mot maskiner som diskriminerer

Ny teknologi er på ingen måte nøytral. Kunstig intelligens produserer diskriminering av kvinner. I anledning 8. mars inviterte YS en fremtredende norsk teknolog, to utenlandske fagforeningsrepresentanter og en statssekretær til frokostmøte for å snakke om hvordan ny teknologi kan diskriminere.

Tre damer snakker samen på et frokostmøte i anledning 8. mars hos YS.
I anledning 8. mars inviterte YS til frokostmøte for å snakke om hvordan ny teknologi kan diskriminere. F.v.: YS-rådgiver Mirjam Sorge Folkvord, Christina Colclough fra UNI Global Union og Tone Marie Wahlstrøm fra IT-selskapet Evry. Foto: Nicklas Knudsen

Tellef Øgrim

Journalist (Finansfokus)

Kunstig intelligens (KI) er datasystemer som er i stand til å utføre oppgaver som krever menneskelig intelligens. Feltet er stort og uoversiktlig. Det dreier seg blant annet om løsninger som stiller, eller hjelper til å stille, medisinske diagnoser eller som gir en kunde anbefalinger om potensielt interessante produkter.

Et viktig spørsmål var hvordan de som lager dataløsninger med kunstig intelligens (KI) bestemmer  hvilke konklusjoner maskinene kommer fram til?

I de siste årene har vi fått flere eksempler på hvordan kunstig intelligens produserer uønskede resultater. Det dreier seg både om selvkjørende biler som ikke kjenner igjen, eller rekrutteringsløsninger som forlenger og forsterker diskriminering.

Populært med kunstig intelligens når nye ansatte skal rekrutteres

– Det er populært å bruke kunstig intelligens i rekrutteringsprosesser. Her har mange feilet, sa Tone Marie Wahlstrøm fra IT-selskapet Evry.

Hun viste til Amazon som til slutt trakk tilbake sin rekrutteringsløsning, fordi den viste seg å reprodusere diskriminering.

– Hvis du putter 10 år med data inn i en algoritme og ber den anbefale en leder, så vil dataene inneholde flest menn og da vil algoritmen gjerne også anbefale menn, sa hun.

Wahlströms svar på utfordringen, som hun først advarte mot i en kronikk i Dagens Næringsliv i 2019, er å sørge for at de teamene som lager dataløsningene er så mangfoldige som mulig.

Hun mente at Evry nå har fått fram grupper som er bedre i stand til å oppdage og forebygge urettferdigheter i teknologi.

– Mange av eksemplene kan se uskyldige ut, men er i realiteten alvorlige, sier hun.

– Et søk etter Johanne på Linkedin nylig førte til svaret «mente du Johan?». Vi tenker at maskiner er nøytrale, men kunstig intelligens blir ikke mer nøytral enn informasjonen vi putter inn i den. De som programmerer både tolker og bestemmer mye av innholdet, sa Wahlstrøm.

Christina Colclough fra UNI Global Union advarer mot «overvåkningskapitalismen». Foto: Nicklas Knudsen

Mener menneskene  er vi i ferd med å bli objekter for IT-systemene

Vi deler oss ofte i to grupper: De som ønsker kunstig intelligens velkommen på alle områder, og de som betrakter den som en av vår tids største trusler. Det var ikke minst grunnen til at to representanter fra den internasjonale arbeidstakerorganisasjonen UNI, der Finansforbundet og Negotia er norske medlemmer, hadde tatt turen til frokostmøtet.

– KI er ikke én ting. Det finnes mange forskjellige former for KI, og det glemmer vi ofte, sa Christina Colclough fra UNI.

Hun mener dette er feil som altfor ofte blir gjort i debatten om teknologien. Ifølge Christina Colclough er vi i ferd med å bli objekter for IT-systemene.

Mener fagbevegelsen må ta ansvar for å etablere digital etikk

– En gang var jeg min. Nå er jeg deres, sa Christina Colclough for å illustrere hvordan våre dagligliv konstant blir brukt i andres innsamling av data.

Colclough kaller det overvåkingskapitalisme, og mener fagbevegelsen har en stor oppgave i å etablere en digital etikk.

– Teknologien må være rettferdig, men for hvem? Hun minnet om at systemene som vokser fram i stor grad er basert på amerikanske regler og verdier. Vi må ikke tillate at kontroll og ansvar overlates til en ting.

Tone Marie Wahlström i IT-selskapet Evry mener at flere kvinner i teknologibransjen kan forebygge maskindiskrimineringen. Foto: Nicklas Knudsen

Regjeringen la frem nasjonal KI-strategi i januar

I januar i år ble Regjeringens nasjonale KI-strategi lansert. Her blir flere viktige spørsmål stilt: Hvem har ansvaret for konsekvensene av en beslutning som er truffet av KI? Hva skjer når autonome systemer tar egne beslutninger som vi ikke er enige i og som i verste fall fører til skade? Og hvordan sørger vi for at teknologien ikke viderefører og forsterker bevisst og ubevisst diskriminering og forutinntatthet?
Hva skjer i boksen?

Statssekretær Paul Chaffey i Kommunal- og moderniseringsdepartementet pekte på at det ikke er vanlig å lage nasjonale strategier for nærområder. Men utfordringen er at kunstig intelligens stiller spørsmål som likevel krever en slik sentral plan.

Han nevnte blant annet det faktum at KI har evnen til å endre seg etter hvert som den blir klokere. Dermed kan vi ikke helt vite hva som skjer.

– Vi kan mene at maskinen gir fantastiske svar, men i offentlig sektor må beslutninger kunne forklares og begrunnes. Kanskje vet vi ikke klart hvorfor beslutningen ble som den ble.

– Vi må ha kontroll og åpenhet om hva som skjer inne i boksene, sa han.

Han viste også til den nye arkivloven, som han mener har spennende tanker om hvordan sikre åpenhet og innsikt i prosessene.

I stedet for å erklære kunstig intelligens som enten en velsignelse eller en forbannelse, må den vurderes, ikke minst ut fra et likestillings- og mangfoldperspektiv.

F.v.: Christina Colclough og Marta Ochoa, begge fra UNI Global Union. Foto: Nicklas Knudsen

Tellef Øgrim

Journalist (Finansfokus)
Hei, jeg heter Yrsa. Hva kan jeg hjelpe med?