EU vastuullisen innovoinnin uranuurtajana

Komission ehdotus uudeksi tekoälyasetukseksi

Tekoälytutkimuksen historia ulottuu jo 1900-luvun puoliväliin. Laskentatehon kasvun ja datan paremman saatavuuden myötä elämme nyt kuitenkin varsinaista tekoälyn kulta-aikaa. Kehityksen myötä myös tällaisiin uusiin teknologioihin liittyvät riskit sekä epäselvyys vastuista ovat nostaneet päätään. EU tähtää suunnannäyttäjäksi tekoälyn saralla ja julkaisi huhtikuussa maailman ensimmäisen ehdotuksen kattavaksi tekoälyä koskevaksi sääntelyksi. Ehdotus tähtää EU:n kilpailuedun varmistamiseen uusien teknologioiden kehittämisen saralla, sekä tekoälyjärjestelmien vastuullisuuden varmistamiseen.

Tekoäly – edistynyttä analytiikkaa vai itsestään tietoisia superjärjestelmiä?

Tekoäly on teemana ollut viime aikoina monen huulilla. Julkisessa keskustelussa tekoäly voi kuitenkin pitää sisällään hyvin laajan kokonaisuuden erilaisia teknologioita. Haastavaa tekoälyä koskevassa keskustelussa onkin sen määritteleminen, mitä tekoälyllä oikeastaan tarkoitetaan. Uhkakuvien maalailussa tieteiselokuvien olemassaolostaan tietoiset robotit saavat paljon huomiota. Toisaalta tekoälyllä viitataan nykyään lähes kaikkiin koneoppimiseen pohjautuviin edistyneen analytiikan ratkaisuihin, joita voidaan hyödyntää datan käsittelyn ja päätöksenteon automatisoinnissa.

Teknisestä näkökulmasta ei ole olemassa tiettyä tekoälyn määritelmää. Yleisesti tekoälystä voitaisiinkin puhua koneen kykynä käyttää perinteisesti ihmisen älyyn liitettyjä taitoja, kuten oppimista, suunnittelemista, päättelyä sekä luomista ilman jatkuvaa käyttäjän ohjausta. Koneoppimisteknologioihin kuuluu myös olennaisesti kyky itse parantaa omaa suoriutumistaan kokemuksen ja datan kertyessä. Tekoälyn käsite kuitenkin elää jatkuvasti teknologiakehityksen myötä.

Tekoälyn käytännön sovellutukset ovatkin jo nyt keskeinen osa arkielämäämme, ja monet käytössämme olevat työkalut hyödyntävät erilaisia tekoälytekniikoita.  Tällaisia työkaluja ovat esimerkiksi ääniohjatut avustajat, kielen kääntämiseen tarkoitetut ohjelmat, mainonnan ja muun sisällön suosittelun työkalut ja monet älykkäät asumisen ratkaisut.

Osa tekoälyjärjestelmistä on äitynyt niin monimutkaisiksi, ettei niiden käyttäjä pysty ymmärtämään järjestelmän toimintaperiaatteita tai sitä, millä perustein järjestelmä tuottaa tietyn lopputuloksen.

Eettiset huolet ja tekoälyn hyväksyttävä käyttö

Tekoälyn eettisistä periaatteista ja ohjeistuksista on käyty paljon keskustelua, sillä tekoälyn kehitys on herättänyt huolia paitsi tällaisiin teknologioihin liittyvistä riskeistä myös sen hyväksyttävästä käytöstä. Kiina ja Yhdysvallat ovat olleet edelläkävijöitä tekoälyn kehitystyössä. Samalla Kiinan käyttöön ottamat sosiaalisen pisteytyksen ja muun kansalaisvalvonnan järjestelmät sekä Yhdysvaltalaisten teknologiajättien laaja asiakasdatan hyödyntäminen ovat kuitenkin herättäneet huolta tekoälyjärjestelmien eettisestä käytöstä.

Tekoälyn käytön lisääntyessä myös käytettävät teknologiat ovat muuttuneet yhä monimutkaisemmiksi. Osa tekoälyjärjestelmistä on äitynyt niin monimutkaisiksi, ettei niiden käyttäjä pysty ymmärtämään järjestelmän toimintaperiaatteita tai sitä, millä perustein järjestelmä tuottaa tietyn lopputuloksen. Tällaiset ns. ‘black box’ -ongelmat horjuttavat yksilöä koskevan päätöksenteon läpinäkyvyyden vaatimuksia ja voivat käytännössä johtaa esimerkiksi syrjintään ja virheellisiin lopputuloksiin.

Lisäksi ymmärryksen puute tekoälyjärjestelmän toiminnasta vaikeuttaa sen varmistamista, että järjestelmä toimii lainsäädännön mukaisesti. Asianmukainen, yhteiskunnan normien edellyttämä valvonta ja ihmisten mahdollisuudet tekoälyn päätöksentekoon puuttumiseen voivat osoittautua lähes mahdottomiksi, jos tekoälysovelluksella on tiedollinen etulyöntiasema sitä operoivaan nähden.

“Syrjivyys ja puolueellisuus saattavat myös heijastua tekoälyyn ja sen tuloksiin, sillä massadatalla koulutetut tekoälyjärjestelmät toisintavat – usein tiedostamattomia – rakenteellisia ennakkoasenteita.”

Valtaosa tekoälyjärjestelmän vastuulliseen ja luotettavaan toimintaan liittyvistä valinnoista tehdäänkin jo järjestelmän kehitysvaiheessa. Kehitysvaiheessa käytetty data voi kuitenkin sisältää tarkoituksellisia tai tahattomia vääristymiä. Syrjivyys ja puolueellisuus saattavat myös heijastua tekoälyyn ja sen tuloksiin, sillä massadatalla koulutetut tekoälyjärjestelmät toisintavat – usein tiedostamattomia – rakenteellisia ennakkoasenteita. Kaikkia kulttuurin ja mediavaikutteiden ihmiseen synnyttämiä ennakkoasenteita voi siis vastaavasti löytää myös tekoälyn toiminnasta. Järjestelmä ei välttämättä toimi alun alkaen ennakkoasenteiden perusteella, mutta on taitava oppimaan niitä ajan saatossa.

Tekoälyjärjestelmiin liittyvän luottamuksen lisäämisen kannalta keskeinen haaste on luonnollisesti myös määrittää, kuka on vastuussa tekoälyn avulla toimivan järjestelmän aiheuttamista vahingoista. EU:n tasolla on käynnissä sekä yleisiä että sektorikohtaisia vastuukysymyksiä koskevia hankkeita. Yhtenäisen oikeudellisen vastuukehikon puuttuessa toimijoiden välisillä sopimuksilla onkin korostunut merkitys.

EU suunnannäyttäjänä tekoälyn sääntelyssä

Tekoäly on keskeinen osa yhteiskunnan digitaalista muutosta ja myös yksi EU:n tämänhetkisistä lainsäädäntöprioriteeteista. Vaikka nykyinen lainsäädäntö tarjoaa suojaa ja pelisääntöjä, se ei riitä vastaamaan kaikkiin tekoälyjärjestelmien erityishaasteisiin.

Euroopan komissio julkisti huhtikuussa esityksensä kaikkien aikojen ensimmäiseksi kokonaisvaltaiseksi tekoälyä koskevaksi sääntelyksi.

“Komission ehdotuksessa on lähdetty tavoittelemaan selkeitä sääntöjä tekoälyn käytölle ja kehitykselle. Uusilla säännöillä varmistettaisiin EU:ssa käytettävien tekoälyjärjestelmien turvallisuus, läpinäkyvyys, eettisyys ja puolueettomuus.”

Komission ehdotus perustuu riskipohjaiseen lähestymistapaan, jossa erilaiset tekoälyjärjestelmät on jaettu kategorioihin sen mukaan, miten suuren riskin ne aiheuttavat ihmisten terveydelle, turvallisuudelle tai perusoikeuksille:

1. Kokonaan kielletyt tekoälyjärjestelmät

Tietyt tekoälyn sovellutukset olisivat EU:n arvojen vastaisina kokonaan kiellettyjä. Tällaisia ovat esimerkiksi ihmisten poliittinen manipulointi alitajuntaan vaikuttavilla tekoälytekniikoilla, viranomaisten sosiaaliset pisteytysjärjestelmät sekä reaaliaikainen julkisten tilojen kasvojentunnistusteknologia lainvalvontaa varten.

2. Korkean riskin tekoälyjärjestelmät

Valtaosa ehdotuksen vaatimuksista kohdistuu ns. korkean riskin tekoälyjärjestelmiin, jotka aiheuttavat suuren riskin ihmisten terveydelle, turvallisuudelle tai perusoikeuksille. Tällaisten tekoälyjärjestelmien markkinoille saattamiselle ja käytölle asetettaisiin ehdotuksen perusteella tiukat velvoitteet.

Korkeariskiseksi tunnistetut tekoälyjärjestelmät sisältävät tekoälytekniikkaa, jota käytetään esimerkiksi kriittiseen infrastruktuuriin, koulutukseen, työllistymiseen, julkisiin palveluihin sekä lainvalvontaan. Esimerkiksi robottikirurgiaan, työhönottoon tai luottopisteytykseen liittyvät tekoälyjärjestelmät voisivat olla korkeariskisiä.

3. Rajoitetun riskin tekoälyjärjestelmät

Rajoitetun riskin tekoälyjärjestelmille asetetaan ehdotuksessa kevyempiä, läpinäkyvyyteen liittyviä vaatimuksia. Jos esimerkiksi käytetään asiointibottien kaltaisia tekoälysovelluksia tai tekoälytyökaluja, jotka pyrkivät tunnistamaan ihmisten ominaisuuksia tai tunteita, ihmisille on ilmoitettava heidän olevan tekemisissä tekoälyn kanssa.

4. Vähäriskiset tekoälyjärjestelmät

Sen sijaan ns. vähäriskisten tekoälyjärjestelmien kehittämiselle tai käytölle tekoälyasetus ei asettaisi uusia rajoituksia. Tällaisia sovelluksia olisivat esimerkiksi tekoälyä hyödyntävät videopelit tai roskapostisuodattimet. Käytännössä valtaosa tekoälyn sovellutuksista kuuluisi tähän luokkaan.

 

Asetuksen sisältämiä velvoitteita tehostettaisiin EU:n yleisen tietosuoja-asetuksen (GDPR) tapaan tuntuvalla sanktioriskillä. Ehdotuksen mukaan asetuksen rikkomisesta voitaisiin määrätä suurimmillaan 30 miljoonan euron, tai 6 prosenttia yrityksen maailmanlaajuisesta kokonaisliikevaihdosta suuruinen hallinnollinen sakko.

Esitys on julkaisunsa jälkeen herättänyt vilkasta keskustelua. Vaikka EU:n tavoite edistää luotettavaa ja eettistä tekoälyn käyttöä on saanut kannatusta, erityisesti sääntelyn soveltamisala, kielletyt tekoälyjärjestelmät sekä rajanveto eri tekoälyn riskikategorioiden välillä ovat herättäneet kysymyksiä käytännön toimintakentällä. Edes tekoälyn käsitteen määritteleminen ei ole helppoa, joten EU on todellisen haasteen edessä pyrkiessään muotoilemaan tekoälyasetuksen tavalla, joka mahdollistaisi artiklojen selkeän soveltamisalan myös tulevaisuuden teknologiakehityksen huomioivalla tavalla.

 

Stay tuned!

Tulevissa Quarterly-numeroissamme pureudumme tarkemmin tekoälyjärjestelmien kehitystä ja käyttöönottoa koskeviin sopimuksiin, ja ylipäänsä tekoälyn kehittämiseen sekä siihen perustuvien sovellusten hankintaan liittyviin juridisiin pulmiin ja käytännön vinkkeihin.

More by the same author

Implementing the Data Act without Clashing with the GDPR?

The Data Act will largely apply as of 12 September 2025, imposing new obligations and rights in relation to personal and non-personal data in the context of, e.g., connected products and related services. As rules governing data expand, it is increasingly important to map what data sets are processed by an organisation and how they are managed in the upcoming regulatory framework. For data sets including personal data (which is often the case!), it is vital to align the implementation of the Data Act with existing GDPR compliance.

Executive Summary: Sustainability in M&A Transactions

Sustainability has become an increasingly important part of M&A transactions. On the one hand, acquisitions can contribute to a company’s strategy and its sustainability goals and on the other hand, taking sustainability into account can have an impact on the completion of a transaction irrespective of its objectives. In addition, sustainability is becoming legally binding and the regulatory pressure for sustainability is increasing. Further, sustainable M&A transactions have become profitable investments.

Vastuullisuus yrityskaupoissa

Dittmar & Indreniuksen laatima uusi opas “Vastuullisuus yrityskaupoissa” tarjoaa konkreettista ja käytännönläheistä tietoa siitä, millaisia vastuullisuuteen liittyviä asioita yritysten tulisi huomioida yrityskaupan eri vaiheissa. Lisäksi oppaassa käsitellään esimerkiksi hallituksen roolia ja vastuullisuuteen liittyviä verokysymyksiä. Opas on suunnattu erityisesti henkilöille, jotka haluavat saada kokonaiskuvan vastuullisuudesta osana yrityskauppoja.

Latest insights

Are Finnish Lawyers the Happiest in the World?

Article / 4 Apr 2024
Reading time 2 minutes

Implementing the Data Act without Clashing with the GDPR?

Article / 4 Apr 2024