Tekoälysääntely on paljon muutakin kuin EU:ssa valmisteilla oleva tekoälyasetus
ChatGPT, Bard, Midjourney, GPT-4, autonomiset autot, generatiivinen tekoäly, chatbot, syväoppiminen, neuroverkko.
Tekoäly ja siihen liittyvä sanasto ovat olleet enenevässä määrin ihmisten käytössä viimeistään ChatGPT:n julkistuksen jälkeen marraskuun 2022 lopussa. Nopea kehitys näkyy myös tilastoissa:
- McKinseyn joulukuussa 2022 julkaiseman selvityksen mukaan 50 % vastaajista ilmoitti ottaneensa tekoälyn jo käyttöön vähintään yhdellä liiketoiminta-alueella (vs. 2017: 20 %), lisäksi 63 % ilmoitti organisaationsa tekoälyinvestointien kasvavan seuraavan kolmen vuoden aikana.
- Maaliskuussa 2023 julkaistun Pennsylvanian yliopiston ja sen kumppaneiden tutkimuksen mukaan laajat kielimallit – eli laajaan tekstimuodossa olevaan opetusaineistoon perustuvat mallit, kuten GPT – tulevat muuttamaan työtehtäviä osittain 80 %:lla työssäkäyvistä ja 19 %:lla työtehtävät tulevat muuttumaan merkittävästi Yhdysvalloissa.
Maaliskuun lopussa Elon Musk ja useat muut teknologiavaikuttajat vaativat avoimessa kirjeessä tekoälyn hallitsemattomalta vaikuttavan kehityskilpailun keskeyttämistä puoleksi vuodeksi, jotta tekoälysääntely voidaan ensin saattaa tasolle, jolla varmistetaan tekoälyjärjestelmien turvallisuus laajemmin koko ihmiskunnalle. Tällä hetkellä onkin vain vähän tekoälyyn keskittynyttä lainsäädäntöä maailmanlaajuisesti.
Artikkelissamme 18.4.2023 käsittelimme EU:ssa valmisteilla olevaa tekoälyasetusta. Asetus on tällä hetkellä edelleen Euroopan parlamentin käsittelyssä, ja parlamentin odotetaan äänestävän siitä kesäkuun aikana. Parlamentin jäsenet ovat edellyttäneet esimerkiksi julkisilla paikoilla tapahtuvan automaattisen kasvojentunnistuksen lisäämistä kokonaan kiellettyjen tekoälysovellusten listalle.
Tässä artikkelissa avaamme, mitä muuta sääntelyä tekoälyyn liittyy EU:n valmisteleman asetuksen lisäksi.
Sääntely seuraa kehityksen perässä
Tekoälyn sääntely seuraa pakosti jopa vuosia perässä teknologista kehitystä.
Sääntelyn jälkijättöisyys on positiivinen asia siinä mielessä, että lainsäätäjät voivat kohdistaa velvoittavaa sääntelyä käytännön tasolla haasteita aiheuttaneille alueille, ja muilta osin esimerkiksi kannustaa alan toimijoita itsesääntelyyn. Toisaalta sääntelytarve voi olla akuutti, mistä on keskusteltu muun muassa Pariisin vuoden 2024 kesäolympialaisiin liittyen. Ranska on harkinnut väliaikaista lainsäädäntöä, jolla sallittaisiin automaattinen kasvojentunnistus julkisilla paikoilla kisojen ajaksi turvallisuussyistä.
Sääntelyn voimaantulosta on aina myös matkaa tulkintakäytännön selkiytymiseen: tulkintakäytäntö selviää vasta vuosien päästä, kun sääntelyä on alettu soveltaa viranomaisten käsittelyyn päätyneissä yksittäistapauksissa.
EU:n toimenpidepaketti
Tekoälyasetus on vain yksi (vaikkakin keskeinen) osa EU:n toimenpidepakettia, joka tekoälyjärjestelmiä käyttävien tai valmistavien yritysten on hyvä tuntea. Toimenpidepaketti sisältää kolme toisiaan täydentävää osaa: tekoälyasetusehdotus, tekoälyjärjestelmiin liittyviä vastuukysymyksiä koskeva Euroopan komission direktiiviehdotus 28.9.2022 ja alakohtainen tuoteturvallisuussääntöjen tarkistaminen.
Kun tekoälyasetus sisältää sääntöjä turvallisuusriskien välttämiseksi ja perusoikeuksien suojaamiseksi, ehdotetun direktiivin tarkoituksena on harmonisoida siviilioikeudellisia vastuusääntöjä EU:n alueella sille, miten toimitaan tällaisen riskin toteutuessa. EU siis valmistautuu myös tekoälyn käytöstä aiheutuvien vastuukysymysten ratkaisemiseen.
Käytännössä direktiivi keventäisi kantajan todistustaakkaa siviilioikeudellisessa vahingonkorvausasiassa, joka koskee tekoälyn aiheuttamia vahinkoja. Yleisesti korvausvaatimuksen esittäjällä (kantajalla) on tuomioistuinprosessissa todistustaakka siitä, että vahingon väitetty aiheuttaja (vastaaja) on toiminut tuottamuksellisesti – esimerkiksi toimimalla sääntöjenvastaisesti tai laiminlyömällä velvollisuutensa. Lisäksi kantajan tulee todistaa, että tuottamuksellisen toiminnan ja aiheutuneen vahingon välillä on syy-yhteys -suhde, mikä tarkoittaa, että vahingon on tullut aiheutua nimenomaan vastaajan toiminnasta.
EU:ssa on tunnistettu ongelma siinä, että tekoälyn erityispiirteet voivat tehdä todistustaakan täyttämisen uhreille kohtuuttoman vaikeaksi (tai kalliiksi). Erityispiirteillä viitataan usein siihen, että järjestelmät ovat tyypillisesti monimutkaisia, läpinäkymättömiä ja itsenäisiä, ja tekoälyjärjestelmän tuotokset voivat tulla yllätyksinä myös järjestelmän valmistajalle. Erityispiirteitä kutsutaan tekoälyn ”musta laatikko -vaikutukseksi”.
EU:n sääntelyssä vastuun tekoälyn toiminnasta kantaa aina luonnollinen henkilö tai oikeushenkilö, eikä tekoäly itse voi olla vastuusubjekti. Direktiivin perusteella tekoälyjärjestelmän valmistajan tai käyttäjän on tietyissä tilanteissa raotettava mustaa laatikkoa: direktiivi parantaisi vahingonkärsijän mahdollisuuksia saada tietoja tekoälyasetuksen mukaisesta suuririskisestä[1] tekoälyjärjestelmästä, jonka epäillään liittyvän vahingon aiheutumiseen.
Mikäli vastaaja ei antaisi tietoja tuomioistuimen määräyksestä huolimatta, todistustaakka voi siirtyä kantajalta vastaajalle. Tämä tarkoittaa, että tuomioistuin lähtökohtaisesti katsoo vastaajan toimineen tuottamuksellisesti. Tuomioistuin voisi tietyissä tilanteissa myös olettaa syy-yhteyden olemassaolon vastaavalla tavalla.
Toimenpidepaketin kolmas osa, alakohtainen turvallisuussääntöjen tarkistaminen, viittaa muun muassa uuteen 21.4.2021 annettuun ehdotukseen koneasetukseksi sekä radiolaitteita koskevaan 29.10.2022 annettuun delegoituun asetukseen. Koneasetus koskee mm. kuluttaja- ja ammattikäyttöön tarkoitettuja tuotteita roboteista ruohonleikkureihin ja teollisuuden tuotantolinjoihin. Vuoden 2006 konedirektiivin korvaajaksi suunnitellulla koneasetusehdotuksella on muun ohella tarkoitus varmistaa tekoälyjärjestelmien turvallinen integrointi koneisiin.
Euroopan komissio julkaisi tekoälyjärjestelmiin liittyviä vastuukysymyksiä koskevan direktiiviehdotuksen kanssa samaan aikaan (28.9.2022) myös ehdotuksen tuotevastuudirektiivin tarkistamiseksi. Sen tavoitteena on muun muassa vahinkojen korvaamisen mahdollistaminen silloin, kun älykotijärjestelmien kaltaisista tuotteista tulee vaarallisia niiden käytössä tarvittavan ohjelmistopäivityksen, tekoälyn tai digitaalisen palvelun vuoksi, tai kun valmistajat laiminlyövät kyberturvallisuushaavoittuvuuksien korjaamisen.
Myös muu sääntely soveltuu tekoälyjärjestelmiin – nyt ja jatkossa
Tekoälyspesifin sääntelyn noudattaminen ei yksinään vielä riitä varmistamaan, että tekoälyjärjestelmää valmistava tai käyttävä yritys toimii lainsäädännön mukaisesti. Tekoälyyn perustuvien järjestelmien valmistamista ja käyttöä koskevat useat jo voimassa olevat säännökset. Esimerkiksi tekoälyn raaka-ainetta, eli sen oppimisessa hyödyntämää dataa, säännellään monella eri tapaa, ja EU:ssa on vireillä useita dataan liittyviä lainsäädäntöhankkeita, kuten 23.2.2022 julkaistu datasäädös.
Lisäksi jo voimassa oleva lainsäädäntö, koskien esimerkiksi tietosuojaa ja immateriaalioikeuksia, soveltuu nyt ja myös jatkossa tekoälyjärjestelmiin sekä niiden käyttämään dataan. EU:n yleisen tietosuoja-asetuksen (GDPR) mukaan rekisteröidyllä on oikeus olla joutumatta sellaisen päätöksen kohteeksi, joka perustuu pelkästään automaattiseen käsittelyyn, mikä voi tapahtua tekoälyjärjestelmän kautta.
IPR:ien osalta esimerkiksi netissä saatavilla olevat tekstit tai kuvat, joita voidaan käyttää tekoälyjärjestelmien kouluttamiseen, ovat useimmiten tekijänoikeuden tai sen lähioikeuksien suojaamia, ja oikeudenhaltijoita voi olla miljoonia. Yritysten arvioitavaksi voi tulla, onko tällaista dataa mahdollista käyttää luvallisesti hankkimatta kultakin oikeudenhaltijalta ensin lisenssiä. Yhdysvalloissa on tällä hetkellä vireillä useita oikeudenkäyntejä koskien luvatonta tekijänoikeuksien suojaaman, helposti saatavilla olleen aineiston käyttöä tekoälyjärjestelmissä.
Ennen tekoälyn käyttämistä koskevien säännösten voimaantuloa tekoälyyn perustuvien järjestelmien valmistamiseen ja käyttöön sisältyy runsaasti epävarmuuksia. Olemassa olevat säännökset soveltuvat usein huonosti tekoälyyn perustuvien järjestelmien käyttöön ja lopputulokset saattavat olla yllättäviä. Tekoälyyn perustuvien järjestelmien teknisen kehityksen lisäksi tekoälyn hyödyntäjien tulee jatkuvasti arvioida toimintansa juridisia seurauksia ja riskejä. Lisäksi kaupallisten käyttäjien on syytä seurata lainsäädäntöhankkeita ja tarpeen mukaan pyrkiä vaikuttamaan siihen, että teknisen kehityksen vaatimukset tulevat riittävästi otetuiksi huomioon.
[1] Euroopan parlamentin jäsenet ovat edellyttäneet muiden muassa tekoälyjärjestelmien, joilla voidaan vaikuttaa äänestäjien käyttäytymiseen vaaleissa, katsomista suuririskisiksi. Tarkemmat säännöt suuririskisistä järjestelmistä ovat komission asetusehdotuksen III osastossa.
Kysy lisää
Subscribe to our newsletter
We regularly write on current topics related to our areas of expertise. By entering your email in the form below, you will receive Merilampi's newsletters and event invitations directly to your email.