EU vastuullisen innovoinnin uranuurtajana

Komission ehdotus uudeksi tekoälyasetukseksi

Tekoälytutkimuksen historia ulottuu jo 1900-luvun puoliväliin. Laskentatehon kasvun ja datan paremman saatavuuden myötä elämme nyt kuitenkin varsinaista tekoälyn kulta-aikaa. Kehityksen myötä myös tällaisiin uusiin teknologioihin liittyvät riskit sekä epäselvyys vastuista ovat nostaneet päätään. EU tähtää suunnannäyttäjäksi tekoälyn saralla ja julkaisi huhtikuussa maailman ensimmäisen ehdotuksen kattavaksi tekoälyä koskevaksi sääntelyksi. Ehdotus tähtää EU:n kilpailuedun varmistamiseen uusien teknologioiden kehittämisen saralla, sekä tekoälyjärjestelmien vastuullisuuden varmistamiseen.

Tekoäly – edistynyttä analytiikkaa vai itsestään tietoisia superjärjestelmiä?

Tekoäly on teemana ollut viime aikoina monen huulilla. Julkisessa keskustelussa tekoäly voi kuitenkin pitää sisällään hyvin laajan kokonaisuuden erilaisia teknologioita. Haastavaa tekoälyä koskevassa keskustelussa onkin sen määritteleminen, mitä tekoälyllä oikeastaan tarkoitetaan. Uhkakuvien maalailussa tieteiselokuvien olemassaolostaan tietoiset robotit saavat paljon huomiota. Toisaalta tekoälyllä viitataan nykyään lähes kaikkiin koneoppimiseen pohjautuviin edistyneen analytiikan ratkaisuihin, joita voidaan hyödyntää datan käsittelyn ja päätöksenteon automatisoinnissa.

Teknisestä näkökulmasta ei ole olemassa tiettyä tekoälyn määritelmää. Yleisesti tekoälystä voitaisiinkin puhua koneen kykynä käyttää perinteisesti ihmisen älyyn liitettyjä taitoja, kuten oppimista, suunnittelemista, päättelyä sekä luomista ilman jatkuvaa käyttäjän ohjausta. Koneoppimisteknologioihin kuuluu myös olennaisesti kyky itse parantaa omaa suoriutumistaan kokemuksen ja datan kertyessä. Tekoälyn käsite kuitenkin elää jatkuvasti teknologiakehityksen myötä.

Tekoälyn käytännön sovellutukset ovatkin jo nyt keskeinen osa arkielämäämme, ja monet käytössämme olevat työkalut hyödyntävät erilaisia tekoälytekniikoita.  Tällaisia työkaluja ovat esimerkiksi ääniohjatut avustajat, kielen kääntämiseen tarkoitetut ohjelmat, mainonnan ja muun sisällön suosittelun työkalut ja monet älykkäät asumisen ratkaisut.

Osa tekoälyjärjestelmistä on äitynyt niin monimutkaisiksi, ettei niiden käyttäjä pysty ymmärtämään järjestelmän toimintaperiaatteita tai sitä, millä perustein järjestelmä tuottaa tietyn lopputuloksen.

Eettiset huolet ja tekoälyn hyväksyttävä käyttö

Tekoälyn eettisistä periaatteista ja ohjeistuksista on käyty paljon keskustelua, sillä tekoälyn kehitys on herättänyt huolia paitsi tällaisiin teknologioihin liittyvistä riskeistä myös sen hyväksyttävästä käytöstä. Kiina ja Yhdysvallat ovat olleet edelläkävijöitä tekoälyn kehitystyössä. Samalla Kiinan käyttöön ottamat sosiaalisen pisteytyksen ja muun kansalaisvalvonnan järjestelmät sekä Yhdysvaltalaisten teknologiajättien laaja asiakasdatan hyödyntäminen ovat kuitenkin herättäneet huolta tekoälyjärjestelmien eettisestä käytöstä.

Tekoälyn käytön lisääntyessä myös käytettävät teknologiat ovat muuttuneet yhä monimutkaisemmiksi. Osa tekoälyjärjestelmistä on äitynyt niin monimutkaisiksi, ettei niiden käyttäjä pysty ymmärtämään järjestelmän toimintaperiaatteita tai sitä, millä perustein järjestelmä tuottaa tietyn lopputuloksen. Tällaiset ns. ‘black box’ -ongelmat horjuttavat yksilöä koskevan päätöksenteon läpinäkyvyyden vaatimuksia ja voivat käytännössä johtaa esimerkiksi syrjintään ja virheellisiin lopputuloksiin.

Lisäksi ymmärryksen puute tekoälyjärjestelmän toiminnasta vaikeuttaa sen varmistamista, että järjestelmä toimii lainsäädännön mukaisesti. Asianmukainen, yhteiskunnan normien edellyttämä valvonta ja ihmisten mahdollisuudet tekoälyn päätöksentekoon puuttumiseen voivat osoittautua lähes mahdottomiksi, jos tekoälysovelluksella on tiedollinen etulyöntiasema sitä operoivaan nähden.

“Syrjivyys ja puolueellisuus saattavat myös heijastua tekoälyyn ja sen tuloksiin, sillä massadatalla koulutetut tekoälyjärjestelmät toisintavat – usein tiedostamattomia – rakenteellisia ennakkoasenteita.”

Valtaosa tekoälyjärjestelmän vastuulliseen ja luotettavaan toimintaan liittyvistä valinnoista tehdäänkin jo järjestelmän kehitysvaiheessa. Kehitysvaiheessa käytetty data voi kuitenkin sisältää tarkoituksellisia tai tahattomia vääristymiä. Syrjivyys ja puolueellisuus saattavat myös heijastua tekoälyyn ja sen tuloksiin, sillä massadatalla koulutetut tekoälyjärjestelmät toisintavat – usein tiedostamattomia – rakenteellisia ennakkoasenteita. Kaikkia kulttuurin ja mediavaikutteiden ihmiseen synnyttämiä ennakkoasenteita voi siis vastaavasti löytää myös tekoälyn toiminnasta. Järjestelmä ei välttämättä toimi alun alkaen ennakkoasenteiden perusteella, mutta on taitava oppimaan niitä ajan saatossa.

Tekoälyjärjestelmiin liittyvän luottamuksen lisäämisen kannalta keskeinen haaste on luonnollisesti myös määrittää, kuka on vastuussa tekoälyn avulla toimivan järjestelmän aiheuttamista vahingoista. EU:n tasolla on käynnissä sekä yleisiä että sektorikohtaisia vastuukysymyksiä koskevia hankkeita. Yhtenäisen oikeudellisen vastuukehikon puuttuessa toimijoiden välisillä sopimuksilla onkin korostunut merkitys.

EU suunnannäyttäjänä tekoälyn sääntelyssä

Tekoäly on keskeinen osa yhteiskunnan digitaalista muutosta ja myös yksi EU:n tämänhetkisistä lainsäädäntöprioriteeteista. Vaikka nykyinen lainsäädäntö tarjoaa suojaa ja pelisääntöjä, se ei riitä vastaamaan kaikkiin tekoälyjärjestelmien erityishaasteisiin.

Euroopan komissio julkisti huhtikuussa esityksensä kaikkien aikojen ensimmäiseksi kokonaisvaltaiseksi tekoälyä koskevaksi sääntelyksi.

“Komission ehdotuksessa on lähdetty tavoittelemaan selkeitä sääntöjä tekoälyn käytölle ja kehitykselle. Uusilla säännöillä varmistettaisiin EU:ssa käytettävien tekoälyjärjestelmien turvallisuus, läpinäkyvyys, eettisyys ja puolueettomuus.”

Komission ehdotus perustuu riskipohjaiseen lähestymistapaan, jossa erilaiset tekoälyjärjestelmät on jaettu kategorioihin sen mukaan, miten suuren riskin ne aiheuttavat ihmisten terveydelle, turvallisuudelle tai perusoikeuksille:

1. Kokonaan kielletyt tekoälyjärjestelmät

Tietyt tekoälyn sovellutukset olisivat EU:n arvojen vastaisina kokonaan kiellettyjä. Tällaisia ovat esimerkiksi ihmisten poliittinen manipulointi alitajuntaan vaikuttavilla tekoälytekniikoilla, viranomaisten sosiaaliset pisteytysjärjestelmät sekä reaaliaikainen julkisten tilojen kasvojentunnistusteknologia lainvalvontaa varten.

2. Korkean riskin tekoälyjärjestelmät

Valtaosa ehdotuksen vaatimuksista kohdistuu ns. korkean riskin tekoälyjärjestelmiin, jotka aiheuttavat suuren riskin ihmisten terveydelle, turvallisuudelle tai perusoikeuksille. Tällaisten tekoälyjärjestelmien markkinoille saattamiselle ja käytölle asetettaisiin ehdotuksen perusteella tiukat velvoitteet.

Korkeariskiseksi tunnistetut tekoälyjärjestelmät sisältävät tekoälytekniikkaa, jota käytetään esimerkiksi kriittiseen infrastruktuuriin, koulutukseen, työllistymiseen, julkisiin palveluihin sekä lainvalvontaan. Esimerkiksi robottikirurgiaan, työhönottoon tai luottopisteytykseen liittyvät tekoälyjärjestelmät voisivat olla korkeariskisiä.

3. Rajoitetun riskin tekoälyjärjestelmät

Rajoitetun riskin tekoälyjärjestelmille asetetaan ehdotuksessa kevyempiä, läpinäkyvyyteen liittyviä vaatimuksia. Jos esimerkiksi käytetään asiointibottien kaltaisia tekoälysovelluksia tai tekoälytyökaluja, jotka pyrkivät tunnistamaan ihmisten ominaisuuksia tai tunteita, ihmisille on ilmoitettava heidän olevan tekemisissä tekoälyn kanssa.

4. Vähäriskiset tekoälyjärjestelmät

Sen sijaan ns. vähäriskisten tekoälyjärjestelmien kehittämiselle tai käytölle tekoälyasetus ei asettaisi uusia rajoituksia. Tällaisia sovelluksia olisivat esimerkiksi tekoälyä hyödyntävät videopelit tai roskapostisuodattimet. Käytännössä valtaosa tekoälyn sovellutuksista kuuluisi tähän luokkaan.

 

Asetuksen sisältämiä velvoitteita tehostettaisiin EU:n yleisen tietosuoja-asetuksen (GDPR) tapaan tuntuvalla sanktioriskillä. Ehdotuksen mukaan asetuksen rikkomisesta voitaisiin määrätä suurimmillaan 30 miljoonan euron, tai 6 prosenttia yrityksen maailmanlaajuisesta kokonaisliikevaihdosta suuruinen hallinnollinen sakko.

Esitys on julkaisunsa jälkeen herättänyt vilkasta keskustelua. Vaikka EU:n tavoite edistää luotettavaa ja eettistä tekoälyn käyttöä on saanut kannatusta, erityisesti sääntelyn soveltamisala, kielletyt tekoälyjärjestelmät sekä rajanveto eri tekoälyn riskikategorioiden välillä ovat herättäneet kysymyksiä käytännön toimintakentällä. Edes tekoälyn käsitteen määritteleminen ei ole helppoa, joten EU on todellisen haasteen edessä pyrkiessään muotoilemaan tekoälyasetuksen tavalla, joka mahdollistaisi artiklojen selkeän soveltamisalan myös tulevaisuuden teknologiakehityksen huomioivalla tavalla.

 

Stay tuned!

Tulevissa Quarterly-numeroissamme pureudumme tarkemmin tekoälyjärjestelmien kehitystä ja käyttöönottoa koskeviin sopimuksiin, ja ylipäänsä tekoälyn kehittämiseen sekä siihen perustuvien sovellusten hankintaan liittyviin juridisiin pulmiin ja käytännön vinkkeihin.

More by the same author

Collaboration with Miltton

We are launching a new kind of collaboration with creative consultancy Miltton to support the clients both in managing strategic sustainability and in understanding the growing regulation, integrating it into operating methods and translating it into business goals.

Insights on Data Sharing in the Industrial and Manufacturing Sector

The EC has estimated that the potential value for the use of non-personal data in the industrial and manufacturing sector will be 1.5 trillion euros by 20271. The sharing of data will be based on both voluntary agreements as well as the mandatory Data Act within the Industrial & Manufacturing sector.

Welcoming the new year – and a new mechanism for EU-U.S. data transfers?

In October 2022, President Joe Biden’s administration published an executive order regarding a new EU-U.S. Data Privacy Framework, i.e. the replacement of the so-called Privacy Shield mechanism previously allowing transfers of personal data from the EU to the U.S. The executive order immediately sparked the European Commission’s process to assess the new U.S. regime and prepare a respective adequacy decision, which would bring considerable certainty and clarity to trans-Atlantic data flows. In essence, it was a beacon of hope for European organisations having struggled with U.S. data transfers, for example in connection with various established cloud services, ever since the prior Privacy Shield mechanism was invalidated by the Schrems II judgement in July 2020.

Latest insights

Taking Control of In-house Procurement

Alert / 6 Jun 2023
Reading time 6 minutes

Collaboration with Miltton

News / 15 May 2023