De europeiska etiska riktlinjerna för artificiell intelligens (AI) är ett lockbete som sektorerna måste nappa på

Nyheter

En expertgrupp utsedd av EU-kommissionen publicerade den åttonde april sina etiska anvisningar (Ethics Guidelines for Trustworthy AI) efter en grundlig beredning.

Jag har haft möjlighet att under arbetets gång utväxla tankar med flera experter i gruppen. Jag anser att vi som finländare kan vara stolta över både den finländska kontributionen och slutresultatet av hela det europeiska expertarbetet.

Hittills har man hunnit sammanfatta och kommentera rapporten ur flera synvinklar. Huvudlinjen i responsen är positiv om än det finns utmanare, till och med inifrån expertgruppen. Jag ska också försöka låta bli att upprepa redan gjorda analyser och koncentrerar mig på ett par slutsatser som bör beaktas i den diskussion som gäller genomförandet av rapporten.

Som obestridliga resultat i rapporten betraktar jag följande saker:

  • Den heltäckande referensram som baserar sig på grundläggande värden som rapporten erbjuder för att strukturera etiken för AI, enligt vilken tillförlitlig AI är lagenlig, etisk, och tekniskt robust.
  • Tillförlitlig AI genomförs genom att man koncentrerar sig på ett genomförande med sju krav. Dessa enligt rapporten lika viktiga krav gäller alla intressentgrupper och deras giltighetstid ska säkerställas under hela livscykeln.
  • Rapporten blir konkret genom att en pilotversion av utvärderingsfrågorna fastställs med vilka en organisation kan evaluera hur kraven i de egna tillämpningarna tillgodoses.
  • Arbetsgruppen inbjuder AI-samfundet i Europa att pröva frågebatteriet i praktiken och dela respons om dess funktionalitet i praktiken.

När jag läser rapporten har jag fått klart för mig vilka teman anvisningen inte direkt ger svar på med vars betydelse jag anser vara central med tanke på fortsättningen. Jag sammanfattar i det följande dessa huvudteman som jag hoppas ska diskuteras:

Vi behöver förmåga att identifiera AI-tillämpningar som på grund av sin natur och verkan förtjänar särskild uppmärksamhet, eftersom samtliga tillämpningar inte är lika verkningsfulla och riskfyllda. Om vi skapar etiska krav i en storlek som bör tillämpas på all AI, skapar vi i bästa fall även ett regleringsmonster.

Ett annat slags exempel erbjuder Kanada där man har definierat fyra nivåer för tillämpningar för automatiskt beslutsfattande enligt verkningarnas omfattning och oåterkallelighet. Även USA:s lagmotion om konsekvensbedömningar avgränsar kraven till att gälla tillämpningar som påverkar en omfattande människogrupp. Det är en helt annan sak att göra det lättare att hitta information med en kundtjänst-chatbot eller optimera bussrutter än att bedöma familjers barnskyddsbehov eller identifiera riskgrupper för allvarliga sjukdomar. Det är viktigt att motsvarande sätt för att fokusera vårt huvudintresse på riktiga objekt som presenterats i Nordamerika även genomförs i Europa.

Genomförandet av etiska krav kräver sektorspecifik praxis. Medan rapporten erbjuder en god tvärsnittlig allmän anvisning och ett diskussionsunderlag ser jag att genomförandet av den förutsätter sektorspecifik praxis vid tillämpning. I rapporten konstateras också att man med allmänna anvisningar aldrig kan ersätta en etisk kontextbunden bedömning. Å ena sidan hänger detta ihop med branschvisa särdrag och å andra sidan med sektorvis lagstiftning.

Det är omöjligt att avskilja lagenlighet och etik helt och hållet, och rapporten betonar också att de är sammanflätade samtidigt som rapporten positionerar sig i etiken i stället för granskning av lagenligheten.

Ett sätt att granska denna nära relation är att länka lagstiftningen med etiska krav. Den etikutredning som vi gjorde under förutredningen av det nationella AuroraAI-projektet visade att det redan finns bestämmelser för etiska krav i form av många olika paragrafer inom offentlig sektor från allmänna förvaltningslagar till personuppgiftslagen och informationshanteringslagen. Samtidigt som man genom etiska anvisningar fastställer verksamhetsprinciper för frågor som lagstiftningen inte ger anvisningar för är dess centrala roll också att stärka lagenlighetens betydelse och en enhetlig tolkning av lagen i kontexten av AI. Vår lagstiftning är till många delar sektorspecifik varför även etisk praxis måste skapas branschvis. Endast på detta sätt blir horisontella anvisningar till praxis som på ett relevant sätt börjar styra den etiska bedömningen och riskhanteringen för tillämpningar som är typiska för branschen.

Den offentliga sektorn måste vara förebild i EU:s etiska pilotförsök. Grunden i rapporten finns i de internationella lagar om mänskliga rättigheter och de grundläggande rättigheter som är inskrivna i Europeiska unionens stadga om de grundläggande rättigheterna. Tiden för AI ska byggas på ett sätt som respekterar människovärden, frihet, demokrati, rättvisa, jämlikhet, jämställdhet och solidaritet och håller fast vid medborgarnas rättigheter. En av de mest kritiska faktorer som möjliggör detta är medborgarnas förmåga att få information om hur man utnyttjar offentliga sektorns data samt om metoder för hur etiken i användningen av information bedöms och säkerställs.

Temat väcker diskussion även utanför Europa. Det förs en kritisk diskussion om till exempel New York stads praxis när det gäller att utnyttja AI i stor omfattning i olika tillämpningar så att medborgare och oberoende bedömare inte har möjlighet att få tillräcklig information om tillämpningarnas funktion och syften.

Här måste Finland handla klokt. Det finns tillräckligt med exempel i världen om hur medborgarnas okunnighet inte är en väg till förtroende i fråga om AI. Här finns en plats för Finland som ordförande i Europa: Hur gör vi medborgarna delaktiga och skapar gemensam praxis för information till medborgarna om AI? Här erbjuder EU:s etiska pilotförsök en utmärkt övningsplattform. Låt oss erövra pilotförsöken på ett sätt som gör medborgarna delaktiga och lyfter oss även internationellt till ett mönsterland när det gäller människocentrerad och etisk tillämpning av AI.

Dokumentet Ethics Guidelines for Trustworthy AI utarbetades sedan i fjol våras av en expertgrupp på 52 personer under ledning av Pekka Ala-Pietilä. Den andra finländska representanten i expertgruppen är professor Leo Kärkkäinen från Aalto-universitetet.

Meeri Haataja
Ordförande för AI FInlands etikarbetsgrupp
Ordförande för projektet som fastställer IEEE:s etiska certifikat
Verkställande direktör, Saidot

Vad tänker du?

Mitä mieltä sinä olet?