Verktyg för automatiserade beslut kan öka effektiviteten inom offentlig sektor, men riskerar samtidigt undergräva grundläggande demokratiska principer. Det menar forskare från bland annat Göteborgs universitet 

Förutsägbarhet och transparens är grundläggande principer i demokratiska välfärdsstater. Enskilda individer ska utifrån vad som sägs i lagen kunna förutse beslut som tjänstepersoner på en myndighet tar. Det ska gå att förstå på vilka grunder beslutet är taget och om fel begåtts ska ansvar kunna utkrävas. Hur de här principerna kan komma att påverkas när AI används alltmer för att hantera ärenden inom välfärden är omtvistat. Viss forskning pekar på att AI gör bedömningar mer effektivt och opartiskt. Annan forskning ifrågasätter grunderna för de slutsatserna.  

Vanja Carlsson är forskare inom offentlig förvaltning vid Göteborgs universitet. Hon har i en studie tittat på hur AI-användning påverkar öppenhet och förutsägbarhet i beslutsprocesser inom Arbetsförmedlingen. I studien gick hon igenom policydokument, rapporter, olika arbetsmaterial samt intervjuade anställda. Hon kunde konstatera att det finns en spänning mellan kalkylerbarhet å ena sidan och förutsägbarhet å den andra.  

– AI är ett bra verktyg för att generera slutsatser utifrån statistiska data som ålder, kön, utbildning och arbetslivserfarenhet. Samtidigt missar sådana slutsatser mycket av den komplexitet som individuellt anpassade åtgärder kräver, säger hon.  

Olika syn på kunskap 

Kvaliteten i individuella bedömningar kommer ur professionella tjänstepersoners utbildning och yrkeserfarenhet, medan statistiska kalkyler genererar säkra generella bedömningar. Två sorters kunskap – och frågan är vilken av dem individbeslut rätteligen ska grundas på.  

– En del hävdar att AI gör bedömningar mer opartiska eftersom dessa bygger på objektiva data. Andra trycker på att det som i lagens anda menas med förutsägbarhet också måste ta hänsyn till varje individs personliga förutsättningar i nuet, säger Vanja Carlsson.  

En annan problematik med AI i offentlig sektor är att transparensen och möjligheter till ansvarsutkrävande minskar. Detta bland annat på grund av att de algoritmer AI-verktygen bygger på kan vara svåra att förstå, om de ens är tillgängliga.  

– Aktörer inom offentlig sektor köper oftast in AI-verktyg från privata företag, för vilka algoritmerna är helt centrala affärshemligheter, säger Vanja Carlsson.  

Övergripande frågor diskuteras för lite 

Om det är svårt att reda ut på vilka grunder ett AI-genererat beslut är taget så blir det också svårt att peka ut var ansvaret för beslutet ska läggas. Den här vidare aspekten av AI inom offentlig sektor diskuterar Vanja Carlsson tillsammans med statsvetarna Malin Rönnblom och Andreas Öjehag-Petterson vid Karlstads universitet i ett kapitel i boken Handbook of Critical Studies of Artificial Intellegence.  

Artikelförfattarna går igenom en lång rad studier om automatiserat beslutsfattande i offentlig sektor. De konstaterar bland annat att i takt med att AI införs blir tjänstepersoners roll mer av att legitimera redan fattade beslut än att göra egna, självständiga, bedömningar. Uppfattningen om vad en medborgare är kan också ändras, eftersom individers meriter i automatiserade beslut bedöms i jämförelse med kollektiva data istället för utifrån sina unika komplexa förutsättningar.  Medborgaren blir en kugge i samhällsmaskineriet snarare än en självständig individ. 

– I demokratiska välfärdsstater som vi känner dem är offentlig sektor en garant för grundläggande principer om medborgares lika värde, transparens och förutsägbarhet. Ifall användning av AI inom välfärden innebär att beslutsfattande reduceras till något kalkylerbart och instrumentellt riskerar de här principerna att urholkas, säger Vanja Carlsson. 

– De här mer övergripande frågorna om AI behöver diskuteras mer, anser hon.  

 

Fakta
Studien Legal certainty in automated decision-making in welfare services (AI inom Arbetsförmedlingen) är publicerad i tidskriften Public Policy and Administration, september 2023: https://journals.sagepub.com/doi/full/10.1177/09520767231202334 

Handbook for Critical Studies of Artificial Intellegence är utgiven av Edward Elgar Publishing: https://doi.org/10.4337/9781803928562 

 

Kontakt
Vanja Carlsson, telefon: 0704350704, mejl: vanja.carlsson@spa.gu.se 

Lars-Olof Karlsson
Telefon: 0766-184841
Mejl: lars-olof.karlsson@gu.se