EU vastuullisen innovoinnin uranuurtajana

Komission ehdotus uudeksi tekoälyasetukseksi

Tekoälytutkimuksen historia ulottuu jo 1900-luvun puoliväliin. Laskentatehon kasvun ja datan paremman saatavuuden myötä elämme nyt kuitenkin varsinaista tekoälyn kulta-aikaa. Kehityksen myötä myös tällaisiin uusiin teknologioihin liittyvät riskit sekä epäselvyys vastuista ovat nostaneet päätään. EU tähtää suunnannäyttäjäksi tekoälyn saralla ja julkaisi huhtikuussa maailman ensimmäisen ehdotuksen kattavaksi tekoälyä koskevaksi sääntelyksi. Ehdotus tähtää EU:n kilpailuedun varmistamiseen uusien teknologioiden kehittämisen saralla, sekä tekoälyjärjestelmien vastuullisuuden varmistamiseen.

Tekoäly – edistynyttä analytiikkaa vai itsestään tietoisia superjärjestelmiä?

Tekoäly on teemana ollut viime aikoina monen huulilla. Julkisessa keskustelussa tekoäly voi kuitenkin pitää sisällään hyvin laajan kokonaisuuden erilaisia teknologioita. Haastavaa tekoälyä koskevassa keskustelussa onkin sen määritteleminen, mitä tekoälyllä oikeastaan tarkoitetaan. Uhkakuvien maalailussa tieteiselokuvien olemassaolostaan tietoiset robotit saavat paljon huomiota. Toisaalta tekoälyllä viitataan nykyään lähes kaikkiin koneoppimiseen pohjautuviin edistyneen analytiikan ratkaisuihin, joita voidaan hyödyntää datan käsittelyn ja päätöksenteon automatisoinnissa.

Teknisestä näkökulmasta ei ole olemassa tiettyä tekoälyn määritelmää. Yleisesti tekoälystä voitaisiinkin puhua koneen kykynä käyttää perinteisesti ihmisen älyyn liitettyjä taitoja, kuten oppimista, suunnittelemista, päättelyä sekä luomista ilman jatkuvaa käyttäjän ohjausta. Koneoppimisteknologioihin kuuluu myös olennaisesti kyky itse parantaa omaa suoriutumistaan kokemuksen ja datan kertyessä. Tekoälyn käsite kuitenkin elää jatkuvasti teknologiakehityksen myötä.

Tekoälyn käytännön sovellutukset ovatkin jo nyt keskeinen osa arkielämäämme, ja monet käytössämme olevat työkalut hyödyntävät erilaisia tekoälytekniikoita.  Tällaisia työkaluja ovat esimerkiksi ääniohjatut avustajat, kielen kääntämiseen tarkoitetut ohjelmat, mainonnan ja muun sisällön suosittelun työkalut ja monet älykkäät asumisen ratkaisut.

Osa tekoälyjärjestelmistä on äitynyt niin monimutkaisiksi, ettei niiden käyttäjä pysty ymmärtämään järjestelmän toimintaperiaatteita tai sitä, millä perustein järjestelmä tuottaa tietyn lopputuloksen.

Eettiset huolet ja tekoälyn hyväksyttävä käyttö

Tekoälyn eettisistä periaatteista ja ohjeistuksista on käyty paljon keskustelua, sillä tekoälyn kehitys on herättänyt huolia paitsi tällaisiin teknologioihin liittyvistä riskeistä myös sen hyväksyttävästä käytöstä. Kiina ja Yhdysvallat ovat olleet edelläkävijöitä tekoälyn kehitystyössä. Samalla Kiinan käyttöön ottamat sosiaalisen pisteytyksen ja muun kansalaisvalvonnan järjestelmät sekä Yhdysvaltalaisten teknologiajättien laaja asiakasdatan hyödyntäminen ovat kuitenkin herättäneet huolta tekoälyjärjestelmien eettisestä käytöstä.

Tekoälyn käytön lisääntyessä myös käytettävät teknologiat ovat muuttuneet yhä monimutkaisemmiksi. Osa tekoälyjärjestelmistä on äitynyt niin monimutkaisiksi, ettei niiden käyttäjä pysty ymmärtämään järjestelmän toimintaperiaatteita tai sitä, millä perustein järjestelmä tuottaa tietyn lopputuloksen. Tällaiset ns. ‘black box’ -ongelmat horjuttavat yksilöä koskevan päätöksenteon läpinäkyvyyden vaatimuksia ja voivat käytännössä johtaa esimerkiksi syrjintään ja virheellisiin lopputuloksiin.

Lisäksi ymmärryksen puute tekoälyjärjestelmän toiminnasta vaikeuttaa sen varmistamista, että järjestelmä toimii lainsäädännön mukaisesti. Asianmukainen, yhteiskunnan normien edellyttämä valvonta ja ihmisten mahdollisuudet tekoälyn päätöksentekoon puuttumiseen voivat osoittautua lähes mahdottomiksi, jos tekoälysovelluksella on tiedollinen etulyöntiasema sitä operoivaan nähden.

“Syrjivyys ja puolueellisuus saattavat myös heijastua tekoälyyn ja sen tuloksiin, sillä massadatalla koulutetut tekoälyjärjestelmät toisintavat – usein tiedostamattomia – rakenteellisia ennakkoasenteita.”

Valtaosa tekoälyjärjestelmän vastuulliseen ja luotettavaan toimintaan liittyvistä valinnoista tehdäänkin jo järjestelmän kehitysvaiheessa. Kehitysvaiheessa käytetty data voi kuitenkin sisältää tarkoituksellisia tai tahattomia vääristymiä. Syrjivyys ja puolueellisuus saattavat myös heijastua tekoälyyn ja sen tuloksiin, sillä massadatalla koulutetut tekoälyjärjestelmät toisintavat – usein tiedostamattomia – rakenteellisia ennakkoasenteita. Kaikkia kulttuurin ja mediavaikutteiden ihmiseen synnyttämiä ennakkoasenteita voi siis vastaavasti löytää myös tekoälyn toiminnasta. Järjestelmä ei välttämättä toimi alun alkaen ennakkoasenteiden perusteella, mutta on taitava oppimaan niitä ajan saatossa.

Tekoälyjärjestelmiin liittyvän luottamuksen lisäämisen kannalta keskeinen haaste on luonnollisesti myös määrittää, kuka on vastuussa tekoälyn avulla toimivan järjestelmän aiheuttamista vahingoista. EU:n tasolla on käynnissä sekä yleisiä että sektorikohtaisia vastuukysymyksiä koskevia hankkeita. Yhtenäisen oikeudellisen vastuukehikon puuttuessa toimijoiden välisillä sopimuksilla onkin korostunut merkitys.

EU suunnannäyttäjänä tekoälyn sääntelyssä

Tekoäly on keskeinen osa yhteiskunnan digitaalista muutosta ja myös yksi EU:n tämänhetkisistä lainsäädäntöprioriteeteista. Vaikka nykyinen lainsäädäntö tarjoaa suojaa ja pelisääntöjä, se ei riitä vastaamaan kaikkiin tekoälyjärjestelmien erityishaasteisiin.

Euroopan komissio julkisti huhtikuussa esityksensä kaikkien aikojen ensimmäiseksi kokonaisvaltaiseksi tekoälyä koskevaksi sääntelyksi.

“Komission ehdotuksessa on lähdetty tavoittelemaan selkeitä sääntöjä tekoälyn käytölle ja kehitykselle. Uusilla säännöillä varmistettaisiin EU:ssa käytettävien tekoälyjärjestelmien turvallisuus, läpinäkyvyys, eettisyys ja puolueettomuus.”

Komission ehdotus perustuu riskipohjaiseen lähestymistapaan, jossa erilaiset tekoälyjärjestelmät on jaettu kategorioihin sen mukaan, miten suuren riskin ne aiheuttavat ihmisten terveydelle, turvallisuudelle tai perusoikeuksille:

1. Kokonaan kielletyt tekoälyjärjestelmät

Tietyt tekoälyn sovellutukset olisivat EU:n arvojen vastaisina kokonaan kiellettyjä. Tällaisia ovat esimerkiksi ihmisten poliittinen manipulointi alitajuntaan vaikuttavilla tekoälytekniikoilla, viranomaisten sosiaaliset pisteytysjärjestelmät sekä reaaliaikainen julkisten tilojen kasvojentunnistusteknologia lainvalvontaa varten.

2. Korkean riskin tekoälyjärjestelmät

Valtaosa ehdotuksen vaatimuksista kohdistuu ns. korkean riskin tekoälyjärjestelmiin, jotka aiheuttavat suuren riskin ihmisten terveydelle, turvallisuudelle tai perusoikeuksille. Tällaisten tekoälyjärjestelmien markkinoille saattamiselle ja käytölle asetettaisiin ehdotuksen perusteella tiukat velvoitteet.

Korkeariskiseksi tunnistetut tekoälyjärjestelmät sisältävät tekoälytekniikkaa, jota käytetään esimerkiksi kriittiseen infrastruktuuriin, koulutukseen, työllistymiseen, julkisiin palveluihin sekä lainvalvontaan. Esimerkiksi robottikirurgiaan, työhönottoon tai luottopisteytykseen liittyvät tekoälyjärjestelmät voisivat olla korkeariskisiä.

3. Rajoitetun riskin tekoälyjärjestelmät

Rajoitetun riskin tekoälyjärjestelmille asetetaan ehdotuksessa kevyempiä, läpinäkyvyyteen liittyviä vaatimuksia. Jos esimerkiksi käytetään asiointibottien kaltaisia tekoälysovelluksia tai tekoälytyökaluja, jotka pyrkivät tunnistamaan ihmisten ominaisuuksia tai tunteita, ihmisille on ilmoitettava heidän olevan tekemisissä tekoälyn kanssa.

4. Vähäriskiset tekoälyjärjestelmät

Sen sijaan ns. vähäriskisten tekoälyjärjestelmien kehittämiselle tai käytölle tekoälyasetus ei asettaisi uusia rajoituksia. Tällaisia sovelluksia olisivat esimerkiksi tekoälyä hyödyntävät videopelit tai roskapostisuodattimet. Käytännössä valtaosa tekoälyn sovellutuksista kuuluisi tähän luokkaan.

 

Asetuksen sisältämiä velvoitteita tehostettaisiin EU:n yleisen tietosuoja-asetuksen (GDPR) tapaan tuntuvalla sanktioriskillä. Ehdotuksen mukaan asetuksen rikkomisesta voitaisiin määrätä suurimmillaan 30 miljoonan euron, tai 6 prosenttia yrityksen maailmanlaajuisesta kokonaisliikevaihdosta suuruinen hallinnollinen sakko.

Esitys on julkaisunsa jälkeen herättänyt vilkasta keskustelua. Vaikka EU:n tavoite edistää luotettavaa ja eettistä tekoälyn käyttöä on saanut kannatusta, erityisesti sääntelyn soveltamisala, kielletyt tekoälyjärjestelmät sekä rajanveto eri tekoälyn riskikategorioiden välillä ovat herättäneet kysymyksiä käytännön toimintakentällä. Edes tekoälyn käsitteen määritteleminen ei ole helppoa, joten EU on todellisen haasteen edessä pyrkiessään muotoilemaan tekoälyasetuksen tavalla, joka mahdollistaisi artiklojen selkeän soveltamisalan myös tulevaisuuden teknologiakehityksen huomioivalla tavalla.

 

Stay tuned!

Tulevissa Quarterly-numeroissamme pureudumme tarkemmin tekoälyjärjestelmien kehitystä ja käyttöönottoa koskeviin sopimuksiin, ja ylipäänsä tekoälyn kehittämiseen sekä siihen perustuvien sovellusten hankintaan liittyviin juridisiin pulmiin ja käytännön vinkkeihin.

More by the same author

The Proposal for a Directive on Corporate Sustainability Due Diligence Published

The European Commission’s proposal for a Directive on Corporate Sustainability Due Diligence and amending Directive (EU) 2019/1937 (COM(2022) 71 final) has been published on 23 February 2022. This long-awaited Directive will require companies to perform due diligence to identify, prevent, mitigate and account for external harm resulting from adverse human rights and environmental impacts in the company’s own operations and in the value chain.

ESG in M&A transactions

Environmental, social and governance (ESG) factors are increasingly making their way into M&A decision-making worldwide, and that is the case also in the Nordics. Growing ecological alertness and demand for climate action as well as social awareness boosted by the inequalities exposed by the COVID-19 pandemic are making ESG factors even more critical and something no player in the market can afford to disregard. Stakeholders on a broader spectrum are demanding accountability and transparency from companies. Not only changing attitudes but also increasing regulatory pressure have shifted the way risks are perceived – what once was a potential reputational risk might now also be or soon become a compliance risk and destroy value. More companies are also adopting sustainability as a core business strategy, not least because of the financial potential of sustainable opportunities.

Finland chapter for ICLG: Merger Control 2022

The International Comparative Legal Guide to Merger Control Laws and Regulations 2022 covers common issues in merger control laws and regulations – including relevant authorities and legislation, notification and its impact on the transaction timetable, remedies, appeals and enforcement and substantive assessment.

Latest insights

Ehdotus whistleblowing-lainsäädännöksi on julkaistu

Alert / 21 Sep 2022
Reading time 3 minutes

The EU General Court dismisses appeals in landmark state aid rulings

Alert / 16 Sep 2022
Reading time 4 minutes