5. Tekoälyteknologian hyvä soveltaminen ja etiikka

Luvun ovat valmistelleet työryhmän jäsenet Tuomo Alasoini, Antti Koivula ja Leila Kurki.

Teknologian hyvä soveltaminen tarkoittaa vaatimattomimmillaan sitä, että ollaan tietoisia soveltamisen mahdollisista haitoista tai ongelmista ja sovelletaan teknologiaa tämän mukaisesti. Kunnianhimoisemmin ajateltuna hyvään soveltamiseen kuuluu lisäksi tietoinen pyrkimys edistää teknologian avulla joitain arvokkaiksi katsottuja yhteiskunnallisia tavoitteita. Lähdemme liikkeelle kunnianhimoisemmasta tavoitteesta.

Tarkastelemme, millaisin kriteerein voidaan arvioida teknologioiden soveltamisen hyvyyttä ja millaisia eettisiä näkökohtia teknologioiden soveltamiseen yleisemminkin liittyy. Tarkastelumme ensisijaisena kohteena on senkaltainen tekoälyteknologia, jolla voidaan ajatella olevan ns. keinotekoisen toimijan (artificial agent) piirteitä. Käsite viittaa ohjelmistoihin, järjestelmiin, koneisiin ja laitteisiin sekä niiden takana oleviin teknologioihin, joilla on autonomista älykkyyttä, eli kykyä toimia ja oppia kokemuksen ja vuorovaikutuksen myötä ilman ihmisen tai minkään muun toimijan suoraa väliintuloa. Esimerkkejä keinotekoisista toimijoista ovat päätöksiä tekevät oppivat algoritmit, älykkäät robotit, autonomiset liikennevälineet ja monet muut pitkälle automatisoidut, oppivat koneet ja laitteet. Tarkastelemme erityisesti näkökohtia, jotka koskevat tekoälyteknologian hyvää soveltamista työelämässä.

5.1 Miksi tarvitaan keskustelua hyvästä soveltamisesta ja etiikasta?

Ultimately the question is not only what computers can do. It’s what computers should do.

Brad Smith & Harry Shum, teoksessa “The Future Computed: Artificial Intelligence and its role in society”, 2018. Microsoft Corporation, Washington.

Tekoälyteknologia on disruptiivista eli merkittävästi aiempaa mullistavaa. Sen avulla luodaan uusia ratkaisuja, jotka tekevät vanhoja teknologioita ja menetelmiä tarpeettomiksi ja muuttavat niihin perustuvia markkinoita, ansaintamalleja sekä tapoja johtaa, organisoida ja tehdä työtä. Elämme murroskohtaa, jossa tekoälyyn perustuvat sovellukset alkavat yleistyä kiihtyvää vauhtia. Nyt tehtävillä ratkaisuilla viitoitetaan tietä tavoilla, joilla voi olla hyvin merkittäviä ja pitkälle tulevaisuuteen ulottuvia taloudellisia, sosiaalisia, poliittisia ja kulttuurisia vaikutuksia yhteiskuntien kehitykselle. Vaikutukset ovat moninaisia ja dynaamisuutensa johdosta vaikeasti ennakoitavia.

Tärkeitä kysymyksiä ovat, missä määrin tämä tapahtuu markkinavetoisesti ja yritysten liiketoimintalogiikan ohjaamana ja missä määrin julkinen valta pyrkii ja pystyy vaikuttamaan kehitykseen. Julkisen vallan vaikutustapoja voivat olla esimerkiksi koulutus, tutkimus, asennekasvatus, julkiset hankinnat tai vielä suoremmat väliintulot. Julkisen vallan mahdollisuus vaikuttaa tapaan ja nopeuteen, jolla teknologiaa otetaan käyttöön ja sovelletaan, riippuu muun muassa siitä, onko mahdollista saada aikaan tätä ohjaavaa yhteiskunnallista visiota. Visiolla tulisi olla riittävän korkea poliittinen painoarvo ja laaja poliittinen kannatus. Tällaisen ns. hyvää tekoäly-yhteiskuntaa koskevan vision tulisi sisältää teknologian käyttöä ja soveltamista ohjaavia arvoja ja näistä johdettavia periaatteita, sääntöjä ja käytäntöjä.

Kysymystä hyvästä tekoäly-yhteiskunnasta on sivuttu monissa tekoälyn soveltamista käsittelevissä raporteissa. Missään näistä ei tietääksemme ole kuitenkaan pyritty suoranaisesti rakentamaan kokonaisvaltaista hyvää tekoäly-yhteiskuntaa tavoitteeksi asettavaa strategiaa tai toimintaohjelmaa. Hyvän tekoäly-yhteiskunnan arvoiksi on raporteissa usein nostettu läpinäkyvyys, vastuullisuus ja laaja yhteiskunnallinen hyöty. Sitä, mitä nämä käytännössä ja toimenpiteinä yhteiskunnan eri toimijoiden
ja sääntelyjärjestelmien kannalta voivat tarkoittaa, ei keskustelussa ole useinkaan määritelty yksityiskohtaisesti.

5.2 Hyvän tekoäly-yhteiskunnan arvoja

Erittelemme seuraavassa, mitä edellä mainitut kolme arvoa voisivat käytännössä tarkoittaa ajatellen tekoälyn hyvää soveltamista suomalaisessa työelämässä.

Läpinäkyvyys

Läpinäkyvyys viittaa muun muassa avoimuuteen siitä, 1) millaista aineistoa kerätään ja missä tarkoituksessa (tekoälyyn perustuvan päätöksenteon pohjaksi) sekä 2) mihin päätöksiä tukevien ja tekevien algoritmien avulla pyritään. Tämän pitäisi olla myös työntekijöiden tiedossa tekoälyä päätöksenteossa hyödyntävissä työorganisaatioissa. Työorganisaatiossa tehtävien päätösten perusteiden avoimuuden kannalta on periaatteessa sama, tapahtuuko päätöksenteko puhtaasti ihmisen vai algoritmin tekemänä vai näiden jonkinlaisena yhdistelmänä. Algoritmien avoimuuden merkitys korostuu vielä erityisellä tavalla julkisten organisaatioiden päätöksenteossa, jossa päätökset koskevat monissa tapauksissa kansalaisten lakisääteisiä oikeuksia ja velvollisuuksia.

Toinen tärkeä läpinäkyvyyteen liittyvä piirre on mahdollisuus sekä tekoälyyn perustuvan päätöksenteon taustalla olevan datan puhtauden ja oikeellisuuden, että päätöksenteon perusteiden jäljittämiseen. Tämä on tärkeää monestakin syystä. Tällaisia ovat dataan tai päätöksentekoon sisältyvät mahdolliset virheet tai rakenteelliset vinoumat, päätösten kohteena olevan oikeusturva, vastuukysymysten selvittäminen, demokraattiseen päätöksentekoon sisältyvät avoimuusperiaatteet, turvallisuuteen liittyvät näkökohdat (esimerkiksi ihmisen mahdollisuudet puuttua autonomisesti toimivan oppivan teknologian toimintaan) sekä teknologian kehittäjien oman osaamisen lisääminen älykkäiden koneiden toiminnan ja oppimisen logiikasta. Vaatimus jäljitettävyydestä korostuu toimintojen turvallisuuskriittisen asteen kasvaessa. Erityisen tarkkaa jäljitettävyyttä tulisi edellyttää toiminnoissa, joissa kyse on suoraan ihmisten terveyteen ja turvallisuuteen liittyvistä asioista. Tällaisia tekoälyteknologian sovellutuskohteita on erityisesti terveydenhuollossa, liikenteessä, energiantuotannossa ja maanpuolustuksessa.

Kone ei ole normatiivinen oppija samassa merkityksessä kuin ihminen. Sitä ei ohjaa ajatus moraalisesti oikeansuuntaisesta oppimisesta eikä absoluuttisesta vaan ainoastaan tilastollisesta totuudesta. Syvien neuroverkkojen ja syväoppimisen kehittyessä koneen tekemien yksittäisten päätösten perusteisiin on syntyvien epälineaarisuuksien johdosta aiempaa hankalampaa päästä käsiksi. Jäljitettävyyden vaatimus ei tällöin kohdistu enää vain yksittäisten algoritmien päätöksenteon perusteisiin, vaan koko neuroverkkojärjestelmän toiminnan kokonaisvaltaiseen ymmärtämiseen.

Jäljitettävyyden ongelmaan voidaan osin vastata selventämällä pelisääntöjä siitä, milloin kone tekee varsinaisen päätöksen ja milloin vain ihmisen lopullista päätöksentekoa tukevan ennusteen. Mitä turvallisuuskriittisemmästä toiminnasta ja mitä vaikeammin jäljitettävissä olevasta päätöksestä on kyse, sitä korkeampi tulisi kynnyksen olla sille, että kone tekee itsenäisesti toiminnan käynnistävän päätöksen. Lähtökohta kaikissa tapauksissa on kuitenkin se, että lopullinen juridinen ja moraalinen vastuu päätöksistä on ihmisellä.

Vastuullisuus

Vastuullisuus viittaa muun muassa siihen, ettei tekoälyyn perustuva päätöksenteko uhkaa kenenkään terveyttä tai turvallisuutta. Tämä vaatimus koskee niin yksilön fyysistä ja psyykkistä terveyttä ja turvallisuutta kuin yksilön tietoturvaa ja yksityisyyden suojaa. Vastuullisuuden vaatimukseen sisältyy myös, ettei päätöksenteko voimista yhteiskunnassa vallitsevia rakenteellisia epätasa-arvoisuuksia tai aiheuta muuten epäoikeudenmukaisuutta, vahinkoa tai kärsimystä yksittäisille ihmisille tai ihmisryhmille. Yksi keino vaikuttaa tähän on edistää tekoälyn kehittäjien ja muiden osaajien monimuotoisuutta. Ilman riittävän vahvoja takeita tekoälyyn perustuvan päätöksenteon vastuullisuudesta on vaikea kuvitella kansalaisten tukevan julkisen vallan pyrkimyksiä edistää tekoälyteknologian käyttöönottoa, soveltamista ja tähän perustuvaa innovointia.

Vastuullisuutta voidaan tarkastella myös laajemmasta näkökulmasta. Tilanteissa, joissa yhteiskunnan resursseja käytetään tekoälyratkaisujen edistämiseen, tulisi yhteiskunnan kantaa erityistä vastuuta myös tämän myötä tapahtuvasta työpaikkojen katoamisesta. Markkinataloudessa tapahtuva luova tuho uusien teknologisten ratkaisujen myötä on sellaisenaan normaali, jopa jossain määrin toivottava, ilmiö. Kun yhteiskunnassa kuitenkin halutaan tietoisesti edistää tekoälyyn perustuvia läpimurtoja ja ratkaisuja, ei ole oikeutettua, että näistä ratkaisuista kärsivät ihmiset jäävät vaille yhteiskunnan erityistä tukea – ovathan he itse verovaroin olleet rahoittamassa näiden ratkaisujen edistämistä.

Laaja yhteiskunnallinen hyöty

Laaja yhteiskunnallinen hyöty tarkoittaa sitä, että tekoälyyn perustuvat ratkaisut hyödyttävät yhteiskunnan kaikkia osaryhmiä. Tämän arvon tulisi olla yksi keskeinen ohjaava tekijä kaikelle julkisen vallan tuelle tekoälyteknologian ja siihen perustuvien sovellutusten kehittämiseksi. Merkittävä huolenaihe on, että hyötyjen epätasainen jakautuminen, joka näkyy kasvavina tulo- ja varallisuuseroina, uhkaa yhteiskunnan sosiaalista yhteenkuuluvuutta. Yhteiskunnan harjoittamassa sääntelyssä ja hyötyjen laaja-alaisen kohdistumisen edistämisessä tulisi kulkea kultaista keskitietä, jossa ei liiallisilla rajoituksilla vähennetä yritysten ja tutkijoiden kannusteita innovointiin. Samanaikaisesti tulisi pystyä tulonsiirroilla tai muilla hyötyä jakavilla mekanismeilla säilyttämään kansalaisten hyväksyntä ja tuki julkisen vallan toimenpiteille edistää tekoälyteknologiaa.

On tärkeää pyrkiä tarttumaan aktiivisesti niihin mahdollisuuksiin, joita tekoäly avaa työelämän kehittämiseksi. Yksittäisten työtoimintojen automatisointi luo mahdollisuuksia ajatella, organisoida ja muotoilla työtehtäviä radikaalistikin uudella tavalla. Teknologia ei sinänsä määrää, onko suuntana ihmisten tekemien jäljelle jäävien työtoimintojen yhdistäminen entistä vaativimmiksi, monipuolisiksi ihmisten oppimis- ja kehittymismahdollisuuksia edistäviksi kokonaisuuksiksi vai työn sisältöjen lisääntyvä sirpaleistuminen ja köyhtyminen. On tärkeää, että tällaiset teknologiseen murrokseen sisältyvät pelivarat työtehtävien sisältöjen ja koko työelämän kehittämiseksi tunnistetaan ja niistä käydään keskustelua niin koko yhteiskunnan kuin yksittäisten työorganisaatioiden tasolla. Viime kädessä kyse on siitä, nähdäänkö teknologialla ihmistä työssä palveleva ja voimaannuttava rooli vai toisin päin.

Suomesta käsin on vaikeaa vaikuttaa suurten, kansainvälisesti toimivien teknologiayritysten tekemiin ratkaisuihin. On kuitenkin tärkeää, että Suomeen saadaan kehitettyä sellaista teknologista ja työtä koskevaa osaamista, jolla voidaan vaikuttaa Suomessa toimivien työorganisaatioiden ratkaisuihin. Samalla Suomi voi vahvistaa ja edistää Euroopassa aloitettuja digitalisaatioon ja tekoälyyn liittyviä EU:n säätelyaloitteita.

5.3 Politiikkasuositukset

Tekoälyä koskevat eettiset näkökohdat on otettava vakavasti kauaskantoisten sosiaalisten vaikutustensa ohella, koska niillä on suoria vaikutuksia yritysten liiketoimintaan. Arvoista, joiden ohjaamina yritykset kehittävät ja hyödyntävät tekoälyä, voi tulla jatkossa hyvinkin tärkeitä yritysten brändiarvoon vaikuttavia tekijöitä. Alan johtavat yritykset ovat tämän jo havainneet. Tekoälyteknologiaan liittyvien eettisten näkökohtien tulisi olla edellä mainituista syistä jatkossa tärkeä kohde osana tekoälyä koskevaa teknologista, liikkeenjohdollista ja yhteiskuntatieteellistä tutkimusta niin Suomessa kuin kansainvälisesti. Suomen tulisi myös edistää aktiivisesti tekoälyn eettisiä näkökohtia koskevaa kansainvälistä tutkimusyhteistyötä, tähän liittyvää tiedon vaihtoa ja hyvien käytäntöjen levittämistä sekä toimia eettisen keskustelun edelläkävijänä EU:n tekoälyaloitteiden toimeenpanossa.

Moniulotteisten disruptiivisten yhteiskunnallisten vaikutustensa johdosta hyvän tekoäly-yhteiskunnan määrittelyä ei pidä jättää yksinomaan yritysten, alan asiantuntijoiden ja poliittisten päätöksentekijöiden tehtäväksi. Myös tavallisten kansalaisten tulisi voida osallistua määrittelyyn aktiivisesti. Laajaa osallistumista voidaan parhaiten tukea lisäämällä kansalaisten ymmärrystä tekoälyteknologiasta – sen toimintaperiaatteista ja mahdollisuuksista – uudenlaisena, kaikki kansalaisryhmät kattavana kansalaistaitona.

Keskeisimmät politiikkasuositukset ovat seuraavat:

  1. Suomen tekoälystrategia on rakennettava yhteiskuntamme olemassa olevaan eettiseen arvopohjaan, joissa korostuvat luottamus ja yhteisöllisyys. Esimerkiksi monopolistisia ja valtiojohtoisia käytäntöjä ei pidä omaksua. Eurooppalaiseen demokratiaperinteeseen nojaava suomalainen malli voisi toimia hyvänä käytäntönä EU:ssa ja maailmanlaajuisesti. Perustetaan parlamentaarinen seurantaryhmä, jonka tehtävänä on edistää tekoälyn eettistä arvopohjaa laajemmin yhteiskunnassa sekä seurata ja arvioida tekoälyn eettisyyteen liittyviä pilotteja ja teknologian kehitystyötä. Ryhmän tulee myös tukea pelisääntöjen luomista ja arvioida käytäntöjä liittyen vastuukysymysten määrittelyyn tilanteissa, joissa kone tekee päätöksiä itsenäisesti.
  2. Tekoälyyn liittyvän eettisen arvopohjan pitää perustua hyvään. Arvopohja määritellään kuitenkin käytännössä kullekin sovellusalueelle yksitellen. Tällä hetkellä tekoälyetiikan keskeinen kohde on sote-tiedon toissijainen käyttö, jossa luodaan eettisiä pelisääntöjä myös laajempaan käyttöön. Pilotoidaan eettistä tekoälyä terveydenhuollon ekosysteemissä, esimerkiksi osana terveysalan kasvustrategiaa. Työterveyslaitoksen tehtäväksi annetaan kokeilla tekoälyn eettistä hyödyntämistä työterveydenhuollon piirissä.
  3. Etiikan pelisääntömallit kumpuavat tällä hetkellä liikaa sosiaaliseen mediaan perustuvista liiketoimintamalleista.
    Business-to-business-yhteistyö ja -liiketoiminta on Suomelle suuri mahdollisuus, ja siinä eettiset pelisäännöt ovat vielä määrittelemättä. Yhteistyössä TEM:n ja elinkeinoelämän kanssa kootaan joukko tekoälyyn vahvasti panostavia B-to-B-yrityksiä, jotka luovat yhdessä keskeisiä B-to-B-pelisääntöjä ja pohjan tehtävään liittyvälle osaamiskeskittymälle.
  4. Tekoälyteknologian kehittämisessä ja käytössä on kiinnitettävä huomiota yhteiskunnalliseen heterogeenisyyteen ja osallistamiseen. On edistettävä monimuotoisuutta – esimerkiksi erilaisia koulutustaustoja, kielellisiä ja etnisiä ryhmiä, sukupuolia sekä ikäryhmiä – tekoälyn kehittäjien keskuudessa. On myös varmistettava, että kansalaisilla on edellytykset osallistua laajapohjaiseen eettiseen keskusteluun tekoäly-yhteiskunnasta. Yleistä ymmärrystä tekoälyn avaamista mahdollisuuksista ja haasteista on lisättävä.
  5. Alustoille voidaan osoittaa myös velvoitteita. EU:n tuore tietosuoja-asetus (GDPR) osoitti, että jopa suurille globaaleille alustoille voidaan määrätä velvoitteita ja kieltoja. Kielto voi koskea myös algoritmin tiettyä osaa silloin, kun se vääristää tai perusteetta rajoittaa kilpailua tai on alustan kautta työskentelevien näkökulmasta kohtuuton. Mahdollista voisi olla myös edellyttää, että alusta huolehtii sen kautta ansaittujen tulojen ilmoittamisesta verottajalle.
  6. Luottamus, arvostus ja yhteistyö ovat olleet pienen kansakunnan menestyksen avaimia aiemminkin. Niin ne voivat olla myös siirryttäessä tekoälyn käyttöön. Tämänkaltaisen uuden teknologian vaikutukset ovat usein ainakin osittain odottamattomia. Sen vuoksi sitä koskevaa säätelyä on usein järkevää uudistaa vasta, kun teknologian käytöstä on jo kokemuksia. Niin on toimittu myös aiemmin. Edelleen meillä Suomessa on syytä luottaa kansallisiin instituutioihin ja niiden kykyyn tehdä tarvittavia päätöksiä. Kokeilutoiminnasta on viime vuosina kertynyt runsaasti myönteisiä kokemuksia yhteiskunnan eri alueilta, ja esimerkiksi tekoälykokeiluja on perusteltua lisätä.

Mitä mieltä sinä olet?

Mitä mieltä sinä olet?