Euroopan tekoälyn eettiset linjaukset ovat syöttö, josta sektorien on otettava koppi

Uutiset

Huhtikuun kahdeksantena EU-komission nimittämä tekoälyn asiantuntijaryhmä julkaisi perusteellisen valmistelun jälkeen eettiset ohjeistuksensa (Ethics Guidelines for Trustworthy AI).

Minulla on ollut mahdollisuus vaihtaa ajatuksia matkan varrella useiden ryhmän asiantuntijoiden kanssa, ja näen että suomalaisina voimme olla ylpeitä sekä suomalaisesta kontribuutiosta että koko eurooppalaisen asiantuntijatyön lopputuloksesta.

Raporttia on ehditty tähän mennessä kiteyttää ja kommentoida jo monesta kulmasta. Palautteiden päälinja on positiivinen, joskin haastajiakin löytyy, jopa itse asiantuntijaryhmän sisältä. Yritänkin tässä olla toistamatta jo tehtyjä analyyseja ja keskityn muutamaan johtopäätökseen, jotka tulee ottaa huomioon raportin toimeenpanoa koskevassa keskustelussa.

Raportin ehdottomina saavutuksina pidän seuraavia asioita:

  • Raportin tarjoama, kattava perusarvoihin pohjautuva viitekehys tekoälyn etiikan jäsentämiseksi, jonka mukaan luotettava tekoäly on lainmukaista, eettistä, ja teknisesti robustia.
  • Luotettava tekoäly toteutetaan keskittymällä seitsemän vaatimuksen toimeenpanoon. Nämä raportin mukaan yhtä tärkeät vaatimukset koskettavat kaikkia sidosryhmiä, ja niiden voimassaolo on varmistettava koko elinkaaren ajan.
  • Raportti menee konkretiaan määrittämällä pilottiversion arviointikysymyksistä, joilla organisaatio voi evaluoida vaatimusten toteutumista omissa sovelluksissa.
  • Työryhmä kutsuu Euroopan tekoäly-yhteisöä kokeilemaan kysymyspatteristoa käytännössä ja jakamaan palautetta sen toimivuudesta käytännössä.

Lukiessani raporttia minulle on kirkastunut näkemys teemoista, joihin ohjeistus ei suoranaisesti anna vastauksia mutta joiden merkitystä pidän keskeisenä jatkoa ajatellen. Kiteytän seuraavassa nämä pääteemat, joiden ympärille toivon keskustelua:

Tarvitsemme kyvyn tunnistaa tekoälysovellukset, jotka luonteensa ja vaikuttavuutensa vuoksi ansaitsevat erityishuomion, sillä kaikki sovellukset eivät ole yhtä vaikuttavia ja riskialttiita. Mikäli luomme yhden koon eettiset vaatimukset, joita tulisi soveltaa kaikkeen tekoälyyn, luomme parhaimmillaankin vain sääntelyhirviön.

Toisenlaisen esimerkin tarjoaa Kanada, jossa automaattisen päätöksenteon sovelluksille on määritetty neljä tasoa vaikutusten laajuuden ja peruuttamattomuuden mukaan. Myös USA:n lakialoite vaikutusarvioista rajaa vaatimuksia koskemaan laajuudeltaan merkittävään ihmisjoukkoon vaikuttaviin sovelluksiin. On aivan eri asia helpottaa asiakaspalvelu-chatbotilla tiedon löytämistä tai optimoida linja-autoreittejä kuin arvioida perheiden lastensuojelutarvetta tai tunnistaa riskiryhmiä vakaville sairauksille. On olennaista, että vastaavia Pohjois-Amerikassa esiteltyjä tapoja fokusoida päähuomiomme oikeisiin kohteisiin toteutetaan myös Euroopassa.

Eettisten vaatimusten toimeenpano vaatii sektorikohtaisia käytäntöjä. Siinä missä raportti tarjoaa hyvän poikkileikkaavan yleisohjeen ja pohjan keskustelulle, näen että sen toimeenpano edellyttää sektorikohtaisia soveltamisen käytäntöjä. Raportissa todetaankin, että yleisillä ohjeistuksilla ei koskaan voida korvata kontekstisidonnaista eettistä arviointia. Yhtäältä tämä liittyy tekoälyn sovellusten toimialakohtaisiin erityispiirteisiin ja toisaalta lainsäädännön sektorikohtaisuuteen.

Lainmukaisuutta ja etiikkaa on mahdotonta erottaa kokonaan, ja raportti korostaakin näiden yhteenkietoutuneisuutta samalla kun se asemoituu etiikkaan lainmukaisuuden tarkastelun sijaan.

Yksi tapa tarkastella tätä tiivistä suhdetta on linkittää lainsäädäntöä eettisiin vaatimuksiin. Kansallisen AuroraAI-hankkeen esiselvitysvaiheessa tekemämme etiikkaselvitys osoitti, että julkisella sektorilla eettisiä vaatimuksia säädellään jo monilla eri pykälillä aina hallinnon yleislaeista tietosuojalakiin ja tiedonhallintalakiin. Samalla kun eettisillä ohjeilla määritetään toimintaperiaatteita kysymyksiin, joita lainsäädäntö ei ohjeista, sen keskeinen rooli on myös vahvistaa lainmukaisuuden merkitystä sekä lain yhdenmukaista tulkintaa tekoälyn kontekstissa.

Lainsäädäntömme on monelta osin sektorikohtaista, minkä vuoksi myös eettiset käytännöt on luotava toimialakohtaisesti. Vain tällä tavalla horisontaaliset ohjeet kääntyvät käytännöiksi, jotka alkavat relevantisti ohjata toimialalle tyypillisten sovellusten eettistä arviointia ja riskienhallintaa.

Julkisen sektorin on näytettävä mallia EU:n etiikkapiloteissa. Raportin pohjavalu on kansainvälisiin ihmisoikeuslakeihin ja EU:n perusoikeuskirjaan kirjatuissa perusoikeuksissa. Tekoälyaikaa on rakennettava tavalla, joka kunnioittaa ihmisarvoja, vapautta, demokratiaa, oikeutta, yhdenvertaisuutta, tasa-arvoa ja solidaarisuutta pitäen kiinni kansalaisten oikeuksista. Yksi kriittisimpiä mahdollistajia tälle on kansalaisten kyky saada tietoa julkisen sektorin datan hyödyntämisestä sekä niistä menetelmistä, joilla tiedon käytön eettisyyttä arvioidaan ja varmistetaan.

Teema puhututtaa myös Euroopan ulkopuolella. Kriittistä keskustelua käydään esimerkiksi New Yorkin kaupungin käytönnöistä hyödyntää tekoälyä laajasti erilaisissa sovelluksissa niin, ettei kansalaisilla tai puolueettomilla arvioitsijoilla ole mahdollisuutta saada riittävää tietoa sovellusten toiminnasta ja tarkoitusperistä.

Tässä Suomen on toimittava viisaasti. Maailmalta on nyt riittävästi esimerkkejä siitä, kuinka kansalaisten tietämättömyys ei ole tie luottamukseen tekoälyssä. Tässä on Suomelle puheenjohtajan paikka Euroopassa: Kuinka osallistamme kansalaiset ja luomme yhteiset käytännöt kansalaisten tekoälytiedottamiseen? Tähän EU:n etiikkapilotit tarjoavat erinomaisen harjoitusalustan: Valloitetaan pilotit tavalla, joka osallistaa kansalaiset ja nostaa meidät kansainvälisestikin mallimaaksi tekoälyn ihmiskeskeisessä ja eettisessä soveltamisessa.

Ethics Guidelines for Trustworthy AI -dokumenttia oli työstämässä viime vuoden keväästä saakka 52 henkilön asiantuntijaryhmä Pekka Ala-Pietilän johdolla. Toisena suomalaisedustajana asiantuntijaryhmässä toimii Aalto-yliopiston professori Leo Kärkkäinen.

Meeri Haataja
Suomen tekoälyhankkeen etiikkatyöryhmän puheenjohtaja
IEEE:n eettisiä sertifikaatteja määrittävän hankkeen puheenjohtaja
Toimitusjohtaja, Saidot

Mitä mieltä sinä olet?

Mitä mieltä sinä olet?