Go to main navigation Navigation menu Skip navigation Home page Search

Är rättvisan blind för algoritmer? Handelsprojekt utsett till ett av årets mest samhällsviktiga

Allt fler beslut inom offentlig sektor styrs av algoritmer, men ofta glöms rättvisan bort i processen. Forskare från Handelshögskolan i Stockholm har undersökt hur myndigheter kan missa de orättvisor som skapas av algoritmer. Kungliga Ingenjörsvetenskapsakademien (IVA) har listat forskningsprojektet som ett av de mest lovande med avseende på samhällspåverkan i Sverige i år.

Algoritmer utlovar effektivitet inom offentlig förvaltning, men rättvisan kan bli lidande om tekniken inte fungerar som tänkt. Forskarna Anna Essén och Magnus Mähring från Handelshögskolan i Stockholm, tillsammans med forskaren Charlotta Kronblad från Göteborgs universitet, har undersökt en viktig fråga: Vad händer när algoritmer fattar beslut som får skadliga konsekvenser?

Studien visar att myndigheter ibland inte uppmärksammar eller ens identifierar negativa effekter orsakade av algoritmers beslut. Detta kan utgöra ett hot för både social och legal rättvisa. Projektet har uppmärksammats av Kungliga Ingenjörsvetenskapsakademien (IVA), som utsett det till ett av de 103 mest lovande projekten i år med potential att komma till nytta i samhället.

Forskarna har inte bara tittat på tekniska brister. De har också studerat hur myndigheter ibland ”gömmer” problem orsakade av algoritmers beslut bakom komplicerade och svårgenomträngliga strukturer.

– Vår studie visar att organisationer ibland ignorerar eller tonar ner de sociala orättvisor som uppstår på grund av algoritmer, vilket kan leda till omfattande orättvisor som inte rättas till, säger Anna Essén.

Exempel från studien visar på hur algoritmer har placerat barn i skolor på ett sätt som bröt mot lokala regler, utan att det i tid uppmärksammades eller korrigerades av myndigheterna.

”Organisatoriskt ignorerande”

Forskarteamet använder begreppet organisational ignoring – organisatoriskt ignorerande – för att beskriva hur myndigheter kan undvika att se algoritmiska fel i stället för att rätta till dem, vilket kan leda till sociala och legala orättvisor. Social orättvisa uppstår när offentliga resurser fördelas felaktigt, och juridisk orättvisa när medborgare hindras från att få rättslig kompensation. Forskarna har tagit fram ett ramverk som ska hjälpa myndigheter att bedöma och hantera de sociala och juridiska konsekvenserna av algoritmers beslutsfattande.

– Vi hoppas att detta ramverk kan bidra till ett mer ansvarstagande arbetssätt i offentliga verksamheter och stärka skyddet mot algoritmiska orättvisor, säger Magnus Mähring.

Charlotta Kronblad tillägger:

– Det är hög tid att vi uppdaterar vår juridiska infrastruktur för den digitala verkligheten.

Forskarna tror att deras ramverk kan hjälpa myndigheter att skapa en mer rättvis och transparent användning av algoritmer, som gör att den fortsatta digitaliseringen av samhället och rättsväsendet sker på ett sätt som respekterar medborgerliga rättigheter.

För mer information, vänligen kontakta: 

Charlotta Kronblad
Email: charlotta.kronblad@ait.gu.se

Magnus Mähring
Email: magnus.mahring@hhs.se

Anna Essén
Email: anna.essen@hhs.se

Författare: 

Anna Essén (Handelshögskolan i Stockholm)
Charlotta Kronblad (Göteborgs universitet)
Magnus Mähring (Handelshögskolan i Stockholm)

Länk till studien: 

When justice is blind to algorithms: Multilayered blackboxing of algorithmic decision-making in the public sector

 

SSE House of Innovation Misum Artificial intelligence Technology