Breadcrumb

Algoritmer inför domstol

År 2020 placerade Göteborgs stad drygt tolv tusen barn i skolor genom att använda en algoritm, något som gav många barn ohållbart lång resväg till skolan. För att felet skulle rättas till bestämde sig en förälder till en av de drabbade eleverna för att stämma staden. Samma förälder har forskat på automatiserat beslutsfattande i offentlig verksamhet med utgångspunkt i de egna erfarenheterna.

Image
Kvinna med axellångt hår och blommönstrad blus
Charlotta Kronblad
Photo: Agnes Ekstrand

Charlotta Kronblad, jurist och doktor i digital transformation vid Göteborgs universitet, har forskat om offentligt beslutsfattande som bygger på algoritmer. Forskningen bottnar i händelserna kring placeringen av Göteborgs grundskoleelever 2020.

– Göteborgs stad skulle för första gången använda ett algoritmiskt system för att hjälpa dem i placeringen av platserna, berättar hon.

Misstaget som skulle få stora konsekvenser för Göteborgs skolelever var att algoritmen programmerades att placera eleverna utifrån fågelvägen till skolan i stället för gångvägen. Närmare tusen överklaganden skickades in till Göteborgs stad av föräldrar vars barn fått felaktiga placeringar.

Rättvisa för alla drabbade

Ett antal föräldrar till drabbade elever, däribland Kronblad själv, gick samman för att analysera placeringarna och räknade ut att det måste ligga en felprogrammerad algoritm utan mänsklig påsyn bakom besluten. Något som staden inte själva varit öppna med, eftersom det inte fanns lagligt stöd för att använda algoritmer för annat än stöd till beslut.

Kronblad insåg att det inte skulle räcka med att enskilda föräldrar överklagade de beslut de fått för att felet skulle åtgärdas på ett systematiskt och omfattande sätt. Med ett intresse att främja rättvisa för alla och med hennes juridiska kunskaper i ryggen, tog hon därför beslutet att stämma Göteborgs stad. Stämningen fungerade dessutom som ett forskningsprojekt, för att se vad som händer när det inte är ett enskilt ärende som utreds, utan en algoritm som blir föremål för bevisutvärdering.

Bristande kompetens hos domare

Det gick inte som hon hade önskat och hon vann inte målet. Hon tror att förklaringen till att domstolen varken kunde se eller rätta till de systematiska felen, är en bristande kompetens hos domare att förstå algoritmiska system och att kunna värdera algoritmer som bevis. Det var i princip omöjligt för henne att bevisa att algoritmen var olaglig, eftersom hon som privatperson inte hade tillgång till den. Den juridiska infrastrukturen finns helt enkelt inte på plats för den här typen av fall, förklarar hon.

Digitaliseringen viktig, men riskfylld

Kronblad ser trots erfarenheterna vikten av att utveckla digitaliseringen och däribland automatiserat beslutsfattande.

– Digitalisering i sig är väldigt bra för samhället och framför allt för offentlig sektor. Ska vi klara framtidens utmaningar, måste vi digitalisera mycket mer.

Hon påpekar att automatiserat beslutsfattande i många fall fungerar fantastiskt bra, så som hos myndigheter som Försäkringskassan och Skatteverket.

– Men jag tror att man ska ha varningens lampa på just när vi släpper lös det här hos myndigheter och i offentlig verksamhet. Man måste vara ödmjuk inför att man kan göra fel när man verkar i teknologins framkant.

 

Text: Agnes Ekstrand

Ta del av Charlotta Kronblads forskning

 

I podden ”Fabriken” medverkar Charlotta Kronblad i ett avsnitt med titeln AI och orättvisa beslut. Där beskrivs fallet med Göteborgs stads skolplaceringar och andra situationer där algoritmer varit inblandade i beslut som fått allvarliga konsekvenser.

Lyssna på podden: https://sverigesradio.se/avsnitt/ai-och-orattvisa-beslut

 

Hon har skrivit ett kapitel i antologin AI & makten över besluten: Vad alla borde veta om algoritmer i offentlig sektor.

https://volante.se/bocker/ai-makten-over-besluten/

 

Resultaten av hennes forskning går också att läsa om i artikeln ”When Justice is Blind to Algorithms: Multilayered Blackboxing of Algorithmic Decision Making in the Public Sector”, publicerad i MIS Quarterly och skriven tillsammans med forskarkollegorna Magnus Mähring och Anna Essén. I artikeln positioneras rättsprocessen som en ”deliberate field intervention” och ”engaged scholarship”. Det är också ett bra exempel på att kombinera olika akademiska fält och kompetenser för att tillsammans komma åt riktiga samhällsproblem, beskriver Kronblad.

https://misq.umn.edu/when-justice-is-blind-to-algorithms-multilayered-blackboxing-of-algorithmic-decision-making-in-the-public-sector.html