Skip to main content Etsi

Kuka vastaa, kun AI vastaa?

Tekoäly (AI) näkyy kaikkialla, ja sen tuomat mahdollisuudet herättävät sekä innostusta että pelkoa. Uutisissa korostuvat etenkin alkuhuuman onnistumiset ja hype. Realismi on alkanut valjeta, ja se kertoo karumpaa tarinaa: ihmishenki voi olla vaarassa, oikeuksia rikotaan ja luottamusta rapautetaan. Näissä tapauksissa ei ole kyse yksittäisistä erheistä, vaan siitä, että tekoäly on otettu käyttöön ilman riittävää eettistä harkintaa, hallintaa ja vastuuta. Lukiessani näitä juttuja kysymys, joka on pyörinyt mielessäni, on: kuka vastaa kun AI vastaa?

Etiikka astuu kuvaan vastuun kannossa

Kun tekoäly epäonnistuu, kyse on myös ihmisistä. Esimerkkejä on lukuisia: Mielenterveysongelmaisen harhoja vahvistanut chatbot; sosiaaliturva-algoritmi, joka kehitettiin olemaan reilu, mutta leimasi vähäosaisia perheitä huijareiksi väärin perustein, tai juristien käyttöön päätyneet AI:n hallusinoimat oikeudelliset lähteet. Nämä muutamat esimerkit osoittavat, että kysymys ei ole vain teknologiasta, vaan siitä, miten järjestelmä vaikuttaa elettyyn arkeen, oikeuksiin, hyvinvointiin jopa elämän ja kuoleman kysymyksissä/aiheissa. Haluaisitko itse, että tekoäly tekee päätöksiä esimerkiksi terveytesi kannalta ilman, että kukaan on vastuussa? Minä en. 

Mukaan tarvitaan eettiset periaatteet, jotka perustuvat arvoihin ja ohjaavat ihmisiä ja organisaatioita. Normatiivisessa etiikassa periaatteet määrittelevät sen, mikä on oikein ja mikä väärin. Eettiset periaatteet muovaavat tekoälylle pelisäännöt, myös vastuun näkökulmasta.

Muotoilu tekee eettisistä pelisäännöistä konkreettisia ratkaisuja

Organisaatiot pitääitse ottaa aktiivisesti vastuuta eettisten periaatteiden määrittelyssä. Esimerkiksi AI Finland on luonut hyvän kahdeksan kohdan listan tekoälyn eettisistä periaatteista (pdf).  Periaatteita kannattaa muokata toimialakohtaisiksi linjauksiksi organisaation sisällä tai fasilitaattorin avustuksella. Linjauksiin on myös hyvä kuvata kuka vastaa, jos jotain meneekin pieleen parhaista aikomuksista huolimatta.

AI ethics

Kuva: AI Finland: Tekoalyn eettiset teemat

UX-suunnittelijat ja palvelumuotoilijat varmistavat, että tekoäly ei jää vain tehokkaaksi koneeksi, vaan pysyy ihmisen palvelijana. UX-suunnittelijat tunnistavat, keitä käyttäjät ovat, missä tilanteissa he ovat erityisen haavoittuvia ja miten tekoäly voi joko tukea tai vahingoittaa heitä. Tämä voisi tarkoittaa vaikkapa kriisitilanteiden tunnistamista ja niihin reagointia. Palvelumuotoilija voi suunnitella prosessit läpinäkyviksi niin, että ne tekevät tekoälyn toiminnasta maallikkokäyttäjälle ymmärrettäviä. Kun käyttäjä tietää, miksi tietty päätös tehtiin tekoälyn avulla ja miten näitä pääoksiä voi haastaa, luottamus järjestelmään kasvaa.

UX-suunnittelu tuo abstraktit eettiset periaatteet ja linjaukset konkreettisiksi ratkaisuiksi: Miten palvelu varmistaa yhdenvertaisuuden, miten se vähentää eriarvoisuutta, miten palvelu on helppo ymmärtää ja miten väärinkäyttö estetään ja mitä tapahtuu, jos väärinkäyttöä havaitaan sekä mistä näkee kuka ottaa vastuun. Lainsäädännöllä pyritään ohjaamaan näitä eettisiä vaateita.

Mitä EU:n AI Act sanoo vastuusta?

EU:n Tekoälysäädös, eli AI Act, astui voimaan 1.8.2024 (High-level summary of the AI Act ). Sen täysimääräinen soveltaminen tehdään asteittain vuosien 2025-2027 aikana. Tekoälysäädöksessä on määritelty eettiseltä kannalta, mikä on kokonaan kiellettyä ja mitä korkean riskin AI tarkoittaa. Lisäksi säädös pyrkii estämään sen, että vastuu voitaisiin vierittää yksin tekoälyä käyttävälle järjestelmälle. Lisäksi se asettaa myös velvoitteita.

  • Kielletyt AI järjestelmät vääristävät käyttäytymistä, hyväksikäyttävät haavoittuvuuksia tai loukkaavat yksityisyyttä ja oikeuksia (säännöt kielletyistä käyttötapauksista astui voimaan 2.2.2025).

    Kielettyjä ovat:

  • manipuloivat ja harhaanjohtavat tekniikat
  • haavoittuvien ryhmien hyväksikäyttö
  • biometrinen kategorisointi arkaluontoisten ominaisuuksien perusteella
  • sosiaalinen pisteytys
  • rikosriskin arviointi pelkästään profiloimalla
  • massakeruulla toteutetut kasvojentunnistustietokannat
  • tunneanalyysi työ- ja koulukonteksteissa (joissakin rajoitetuissa/hallituissa tapauksissa käyttö voidaan sallia tiukoin ehdoin)
  • reaaliaikainen kasvojentunnistus julkisissa tiloissa (tietyin lainvalvonnan poikkeuksin).

Korkean riskin AI, kuten terveydenhuollon, koulutuksen tai oikeuslaitoksen ratkaisut, on tiukasti säädeltyjä. Näissä järjestelmien kehittäjät ja markkinoille tuojat kantavat vastuun.

Vähäisen riskin sovelluksissa olennaista on, että käyttäjä saa tiedon siitä, että on tekemisissä tekoälyn kanssa ja että tekoäly voi tehdä virheitä.

Toisin sanoen AI ei vastaa yksin. EU:ssa vastuu on ensisijaisesti kehittäjillä ja järjestelmän markkinoille tuojilla. Jos organisaatio ottaa AI:n käyttöön väärässä paikassa tai ilman asianmukaista valvontaa, vastuu on organisaatiolla. Järjestelmän käyttäjillä on velvollisuus käyttää järjestelmää sääntöjen ja ohjeiden mukaisesti; selkeä väärinkäyttö voi tuoda käyttäjälle osavastuun.

Entä muualla maailmassa?

EU:n AI Act on ensimmäinen näin kattava tekoälyn säätelymalli. Muualla maailmassa vastuuta tekoälystä säädellään myös, mutta varsin eri tavoin. 

Yhdysvalloissa liittovaltiotasolla ei ole yhtä kattavaa AI-lakia. Ohjaus muodostuu ohjeistavista, ei-sitovista viitekehyksistä (esim. Blueprint for an AI Bill of Rights, 2022) ja standardeista (NIST AI RMF), sekä osavaltioiden sääntelystä. 

Trump siirsi tekoälypolitiikan painopisteen valvonnasta sääntelyn purkuun, kilpailukykyyn ja innovaatioihin ja sulki pois viittaukset oikeudenmukaisuuteen, DEI:hin ja ilmastovaikutuksiin. 

Vastuu jää siis pitkälti yrityksille ja oikeuskäytännölle: jos AI aiheuttaa haittaa, asia ratkaistaan todennäköisesti oikeudessa (vrt. tuoteturvallisuuslait).

Kiinassa puolestaan sääntely on keskitettyä ja tiukkaa: Lait, kuten Personal Information Protection Law ja generatiivista tekoälyä koskevat määräykset (Deep Synthesis 2023), velvoittavat palveluntarjoajia huolehtimaan vastuusta. Viranomaisilla on laajat valtuudet valvoa ja ohjata teknologian käyttöä. Kiinassa vastuu on yrityksillä ja valtiolla, mutta viimekädessä hallinto voi puuttua ja kantaa kontrollivastuun.

Vastuukysymykset ovat kuitenkin globaaleja, sillä tekoäly ei tunne rajoja. Vastuu voikin jakautuu eri tavalla riippuen siitä, missä järjestelmää kehitetään ja käytetään. 

Kuka siis loppujenlopuksi vastaa, kun AI vastaa?

EU korostaa ihmisoikeuksia ja riskien hallintaa. Kun AI vastaa, EU:ssa vastuussa ovat aina ihmiset ja organisaatiot, eivät algoritmit. Omat arvoni ovat myös sillä kannalla, että ihmiset ajavat innovaatioiden edelle. En kuitenkaan näe mitään ongelmaa siinä, etteikö ihmiskeskeisesti voitaisi innovoida. EU:n AI Act tekee tästä juridisesti totta. Kulttuurinen muutos on kuitenkin vähintään yhtä tärkeä. Kaikkien olisi hyvä tiedostaa, että ekoälyjärjestelmillä on rajoituksia, ennakkoasenteita ja ne tekevät virheitä, ne eivät ole kaikkitietäviä ja kaiken osaavia. Vastuu ei ole vain juridinen, vaan myös eettinen kysymys.

Jos tekoäyn vastaus johtaa kriisiin esim. väärään lääketieteelliseen suositukseen ensisijainen vastuu on järjestelmän valmistajalla ja markkinoille tuojalla (kehittäjä, myyjä). Toissijainen vastuu valuu organisaatiolla, joka otti järjestelmän käyttöön (jos se ei huolehtinut asianmukaisesta valvonnasta ja koulutuksesta). Mahdollinen osavastuu voi olla myös käyttäjällä, jos järjestelmää käytettiin tietoisesti väärin tai ohjeiden vastaisesti.

Mitä tämä tarkoittaa teille, jotka teette AI-hankkeita nyt? Kuka teillä vastaa AI:n herättämiin kysymyksiin? Miten varmistat, että AI-ratkaisusi on vastuullinen ja palvelee ihmisiä?

Eficoden UX-suunnittelijat ja palvelumuotoilijat voivat kerätä nämä kysymykset ja tuoda eettiset näkökulmat osaksi tekoälyhankkeita. Tavoitteena on, että  järjestelmät eivät vain täytä lain minimivaatimuksia, vaan palvelevat ihmisiä parhaalla mahdollisella tavalla oikeudenmukaisesti ja läpinäkyvästi.

Lisää AI etikkasta tietosuojasta ja vastuusta voit kuunnella DevOps sauna podcastista.

Julkaistu:

Design and UXAI