





Blogi: EU suojaa Suomea tekoälyn vaaroilta – vai suojaako?
.jpg)
Teksti: Minna Horowitz
Suomi tunnetaan kansainvälisesti vahvana tietoyhteiskuntana ja digitaalisten innovaatioiden edelläkävijänä. Meillä on pitkään noudatettu niin sanotun pohjoismaisen mediahyvinvointivaltiomallin periaatteita. Näihin kuuluvat mm. toimituksellinen riippumattomuus, julkisen ja yksityisen mediasektorin yhteistyö sekä sen turvaaminen, että kaikille kansalaisille tarjotaan yhdenvertaiset mahdollisuudet päästä median ja viestintäteknologioiden äärelle.
Viime vuosien kehitys on eittämättä haastanut hyvät periaatteet. Digitalisaatio kiihtyy ja globaalit alustayhtiöt kasvattavat valtaansa. Samalla kansallisen ohjauksen mahdollisuudet kuihtuvat. Suomi saa nyt pontta media-, viestintä- ja teknologiapolitiikkaan EU:lta, joka suurena markkina-alueena uskaltaa asettaa teknojäteille vaatimuksia noudattaa ja vahvistaa perusoikeuksia, demokratiaa ja digitaalista turvallisuutta. Tekoälyn hyödyntäminen eri elämänalueilla, sen arkipäiväistyminen yksilöiden arjessa sekä sovellusten salamannopea kehitys vaativat sääntelyltä paljon.
Tekoäly innovaatiohankkeena ja lukutaitohaasteena
Tekoäly on tärkeä osa Suomen teknologia- ja innovaatiopolitiikkaa. Suomi julkaisi kansallisen innovaatioon liittyvän tekoälystrategiansa jo vuonna 2017. Sen jälkeen strategian ympärille on rakentunut yhteisö eri tutkimuslaitoksia, startup-yrityksiä, julkisia toimijoita ja kansainvälisiä verkostoja, jotka tukevat tekoälyn kehittämistä ja käyttöönottoa. Suomi sijoittuu edelleen varsin hyvin kansainvälisissä vertailuissa, joissa mitataan tekoälyinvestointeja, osaamista ja innovaatioita. Viime vuosina kehitys on kuitenkin ollut laskevaa, eikä suuria investointiaaltoja tai merkittäviä kaupallisia menestystarinoita ole vielä nähty.
Tänä päivänä varsinkin generatiivisen tekoälyn työkalut, kuten tekstin- ja kuvantuotantoon tarkoitetut sovellukset, ovat tulleet osaksi opiskelua, työtä ja vapaa-aikaa. Suomella on pitkät perinteet media- ja informaatiolukutaidon edistämisessä, ja näitä toimia on nyt laajennettu tekoälyyn. Vuoden 2025 alussa Opetushallitus julkaisi kattavat generatiivista tekoälyä koskevat ohjeistukset, joissa käsitellään paitsi tekoälytaitoja myös eettisiä kysymyksiä ja kestävää kehitystä. Lisäksi muun muassa Sitra on tarkastellut tekoälyä kansalaisten tiedollisten oikeuksien näkökulmasta ja kokeillut tapoja, joilla ihmiset itse voivat osallistua tekoälyn pelisääntöjen määrittelyyn.
EU:n teesit: ennakoidaan riskit ja lisätään taitoja
Suomea ohjaa EU:n tekoälysäädös (AI Act), joka velvoittaa jäsenmaita hallitsemaan tekoälyyn liittyviä riskejä. Ne järjestelmät, jotka uhkaavat ihmisten oikeuksia ja turvallisuutta, kielletään kokonaan. Tällaisia käyttötarkoituksia on monia, kuten petos ja manipulaatio, ihmisten sosiaalinen pisteyttäminen sekä tunteiden tunnistaminen työpaikoilla ja oppilaitoksissa. Suuren riskin järjestelmiä valvotaan tarkasti kansallisesti. Niitä on useita, ja ne liittyvät usein turvallisuuteen, kuten liikenteenvalvontaan ja kirurgiaan, tai perusoikeuksiin, esimerkiksi tuomioistuimien päätösten valmisteluun. Rajatun riskin sovelluksia on runsaasti käytössä. Niissä keskeistä on, että ihminen tietää toimivansa tekoälyn kanssa, esimerkiksi palvelubotin kanssa jutellessaan.
Teknologian sääntelyn lisäksi EU tarjoaa apua siinä, millaisia kansalaistaitoja tarvitaan tekoälyn aikakaudella. Niin kutsuttu Dig.Comp-malli on jo vuosia toiminut perustana sille, että EU:ssa digikansalaiselta edellytetään taitojen lisäksi laajempaa digiympäristöjen ymmärrystä sekä tervettä, kriittistä mutta uteliasta asennetta digitaalisiin alustoihin, sovelluksiin ja työkaluihin. Dig.Comp on nyt päivitetty tekoälyaikaan.
Toisin sanoen EU haluaa, että osaamme itse suojella itseämme tuntemalla ja ymmärtämällä, mitä kaikkea tekoäly on – ja mitä se ei ole. Tavoitteena on myös, että osaamme soveltaa tekoälyä tukiälynä erilaisten tehtävien suorittamisessa sekä kriittisesti arvioida tekoälyjärjestelmien tuotoksia. Lisäksi on tärkeää sisäistää, mitä tarkoittaa tekoälyn vastuullinen ja eettinen käyttö, jota ohjaavat periaatteet, kuten oikeudenmukaisuus, vastuullisuus, avoimuus ja turvallisuus, yksityisyys, monimuotoisuus, ennakkoluulottomuus ja ympäristön kestävyys.
Näitä periaatteita jalkautetaan parhaillaan meillä Suomessakin. Esimerkiksi DECA:n partneri, kansalaisjärjestö Faktabaari, on juuri aloittanut projektin, jossa mietitään niin päättäjien, opettajien kuin meidän kaikkien käyttäjien kanssa, miten periaatteita saatetaan käytäntöön.
Pitääkö huolestua?
Miksi siis epäily siitä, olemmeko suojassa tekoälyn vaaroilta? Teknologia kehittyy valtavaa vauhtia. Sääntelyn, samoin kuin tieto-, taito-, asenne- ja eettisen koulutuksen, tulisi edetä rinnakkain, tai siis juosta mukana – ja tämä vaatii yhteiskunnalta valtavasti resursseja. DECA-hankkeessa tekeillä oleva tutkimus antaa viitteitä siitä, että monilla sektoreilla kannetaan huolta asiantuntemuksesta ja resurssien riittävyydestä soveltaa sääntelyä. Samoin eri toimijat peräänkuuluttavat lisää keskustelua tekoälyn merkityksestä suomalaiselle yhteiskunnalle. Nykyisin teknologian kansalliseen käyttöön sekoittuvat sekä geopoliittiset kriisit että toisaalta innovaation kirittäminen. EU:ssa pohditaankin nyt AI Actin virtaviivaistamista helpottamaan alueen kilpailukykyä.
EU on suuri tuki, mutta tarvitaan myös meidän omaa, suomalaista tekoälysisua, jotta pysymme mukana kehityksessä. Suomen vahvuus on ollut kyky yhdistää teknologinen innovaatio yhteiskunnallisiin arvoihin, kuten tasa-arvoon, koulutukseen ja luottamukseen. Sama kysymys on nyt ajankohtainen tekoälyn kohdalla. Jos tekoälystä halutaan aidosti “koko kansan teknologiaa”, pelkkä tekninen kehitys ei riitä. Tarvitaan osaamista, selkeitä pelisääntöjä ja julkista keskustelua siitä, mihin suuntaan teknologiaa halutaan viedä.
arrows & pagination