Valistusajan filosofit uskoivat, että tieto vapauttaa. EU:n tekoälyasetus nojaa samaan uskoon kuvitellessaan, että valistunut kansalainen tunnistaa syväväärennökset. Tässä kirjoituksessa tarkastellaan läpinäkyvyyden paradoksia ja kolmea vaihtoehtoista tietä eteenpäin. Tämä on sarjan kolmas ja viimeinen blogikirjoitus, joka käsittelee demokratiaa ja läpinäkyvyyttä tekoälyn aikakaudella.
Teksti: Martti Asikainen, 14.10.2025 | Kuva: Adobe Stock Photos (PÄIVITETTY 12.11.2025)
Slovakian parlamenttivaalit vuonna 2023 oli käännekohta Euroopassa. Kaksi päivää ennen parlamenttivaaleja sosiaalisessa mediassa levisi äänitallenne, jossa pääministeriksi pyrkivä eurooppamielinen oppositiojohtaja Michal Šimečka olisi muka keskustellut tunnetun toimittajan kanssa vaalien manipuloinnista (Kováčik & Frankovská 2024). Tiedotusvälineet raportoivat asiasta välittömästi, jonka seurauksena tallenne keräsi satoja tuhansia kuulemisia. Šimečka ja toimittaja kiistivät järjestelmällisesti tallenteen aitouden, joka myöhemmin paljastui syväväärennökseksi.
Mielipidemittausten kärjessä pitkään olleen Šimečkan tappio vaaleissa ruokki spekulaatioita siitä, että kyseessä olivat ”ensimmäiset” syväväärennösten ratkaisemat vaalit (Conardi 2023; De Nadal & Jančárik 2024). Lisää oli luvassa vuoden 2024 presidentinvaaleissa, jonka loppukierrosta leimasi rehottava disinformaatio ja moninaiset syväväärennösyritykset mustamaalata kahta kärkiehdokasta Ivan Korčokia ja Peter Pellegrini (ks. Kiripolská & Barca 2024; EDMO 2024). Mutta ajatellaanpa hetki toisenlaista skenaariota. Entä jos jokaisessa manipuloidussa sosiaalisen median julkaisussa olisi ollut selkeä merkintä, josta kävisi ilmi, että sisältö saattaa olla tekoälyn tuottamaa.
Olisiko se estänyt parlamentti- ja presidentinvaaleissa tapahtuneet vahingot? Tuskin. Tutkimukset antavat tähän synkän vastauksen. Arvioiden mukaan ihmiset tunnistavat syväväärennöksiä 55,54 prosentin tarkkuudella – eli käytännössä kuin kolikolla arvaisi (Diel ym. 2024). Ja mikä on vielä huolestuttavampaa, niin pelkkä varoitus mahdollisesta sisällöstä ei paranna tunnistustarkkuutta merkittävästi. Tämä luo läpinäkyvyyden paradoksin.
Euroopan unionin tekoälyasetus (EU 2024/1689) perustuu valistusajan uskoon siitä, että tieto vapauttaa, ja rationaaliset kansalaiset osaavat arvioida sisältöä kriittisesti, kun he tietävät sen lähteen. Mutta kognitiivinen psykologia paljastaa tämän oletuksen virheelliseksi. Disinformaation voima piilee sen kyvyssä hyödyntää ihmisen ajattelutapaa. Me kaikki olemme alttiita kognitiivisille vinoumille, kuten vahvistusharhalle eli taipumukselle etsiä tietoa, joka vahvistaa olemassa olevia uskomuksiamme (ks. Ecker ym. 2022; Soprano ym. 2024; Marma 2025). Läpinäkyvyys on välttämätön, mutta se on myös riittämätön. Se luo illuusion turvallisuudesta, mutta jättää meidät silti puolustuskyvyttömiksi.
Läpinäkyvyyden paradoksi ei ole yksinkertainen ongelma. Nähdäkseni se rakentuu kolmesta toisiaan vahvistavasta kognitiivisesta mekanismista, jotka tekevät pelkistä varoituksista tehottomia. Ensimmäisenä on ilmiö, jota kutsun varoitusuupumukseksi. Kuvittele tavallinen päiväsi sosiaalisessa mediassa. Selailet Facebookia aamulla, skrollaat Instagramia bussissa, tarkistat X:n lounaalla, ja kahvitunnin koittaessa johdattelet ajatuksesi kauas muualle TikTokin avulla. Näet joka päivä valtavan määrän sisältöä. Arviot liikkuvat aina kolmestasadasta tuhansiin. Jos jokainen näistä tai edes puolet on merkitty tekoälyn tuottamaksi, niin mitä tapahtuu aivoillesi?
Lääketieteen parissa tunnetaan ilmiö nimeltä varoitusuupus (eng. alert fatigue). Kun sairaanhoitaja näkee kymmeniä lääkevaroituksia päivässä, hän alkaa ohittaa niitä automaattisesti (ks. Olakotan & Yusof 2020; PSNet 2024). Aivot eivät kykene ylläpitämään korkeaa valppaustilaa jatkuvasti (Sundermann ym. 2024). Ne sopeutuvat. Varoitus muuttuu taustakohinaksi, joka suodatetaan pois täysin tiedostamatta. Sosiaalisessa mediassa tämä ilmiö on vielä voimakkaampi, koska emme kuluta sisältöä ajatuksella ja harkiten, vaan skrollaamme sitä tiedottomana.
Keskimääräinen katseluaika yhdelle Facebookissa olevalle sisällölle on 1,7 sekuntia. Tuskin kukaan uskoo, että ehtisimme tuona aikana lukea varoituksen, prosessoida sen merkityksen, pysähtyä arvioimaan uskottavuutta ja tekemään silti rationaalisen päätöksen sen totuusarvosta. Kognitiivinen kuormitus on yksinkertaisesti liian suuri (Jacob ym. 2025). Samaan aikaan on selvää, että kun lähes kaikki on merkitty varoituksella, niin mikään ei erotu tai korostu sen joukosta. Varoitus menettää merkityksensä samalla tavalla kuin tupakka-askeissa oleva maininta siitä, että tupakointi on haitallista terveydelle ja tupakointi tappaa. Tämä ei ole hypoteettinen uhka, vaan psykologinen laki, joka toteutuu väistämättä, kun läpinäkyvyysmerkinnät yleistyvät sosiaalisessa mediassa (ks. Lewandowsky ym. 2017).
Toinen ilmiö on tunneälyn ylivoima. Vuonna 2023 tehdyssä meta-analyysissa, joka käsitti 56 erillistä tutkimusta ja 20 000 osallistujaa, selvisi jotain hälyttävää. Ihmiset, jotka tiesivät etukäteen katsovansa syväväärennöstä, eivät silti kyenneet tunnistamaan sitä merkittävästi paremmin kuin ne, joita ei ollut varoitettu. Tietämisen myötä tunnistustarkkuus parani vain 4–8 prosenttiyksikköä (Diel ym. 2024; Groh ym. 2021). Tämä voi johtua osittain myös siitä, että rationaalinen tieto ja emotionaalinen vaikutus painottuvat osin eri aivoalueille.
Kun näet videon, jossa arvostamasi julkisuuden henkilö sanoo jotain järkyttävää, tai vihaamasi poliitikko tunnustaa rikoksen, niin ensimmäinen reaktiosi ei yleensä ole analyyttinen. Se on emotionaalinen. Ja tämä emotionaalinen reaktio jättää jäljen, vaikka hetkeä myöhemmin ymmärtäisitkin rationaalisesti kyseessä olevan väärennös. Psykologiassa tätä ilmiötä kutsutaan nimellä läheisyysvaikutus tai altistusvaikutus (eng. mere exposure effect). Käytännössä se tarkoittaa, että pelkkä altistuminen vaikuttaa asenteisiimme (Zajonc 1968; Bornstein 1989).
Tämä antaa viitteitä siitä, että jos näemme syväväärennetön videon, jossa politiikko käyttäytyy epäeettisesti, niin osa aivoistamme saattaa rekisteröidä sen todisteeksi, vaikka rationaalisesti tietäisimmekin sen olevan väärennös. Tämä jäljelle jäänyt epäilys siitä, ettei savua ole ilman tulta vaikuttaa päätöksentekoomme (Nosek ym. 2015; Lewandowsky ym. 2017).
Kolmas ilmiö on epäluottamus. Se ei liity siihen, mitä tapahtuu, kun näet yhden tekoälyn tuottamaksi merkityn sisällön, vaan siihen, mitä tapahtuu, kun näet tuhansia sellaisia. Kun jokainen video, ääninauhoite ja kuva kantaa mukanaan varauksen siitä, että se voi olla keinotekoisesti tuotettua, niin vähitellen syntyy yleinen epäluottamus kaikkea internetissä nähtyä ja koettua kohtaan. Jos mikä tahansa voi olla väärennös, niin miten voit luottaa enää mihinkään?
Tätä ilmiötä kutsutaan informaation entropiaongelmaksi. Kun järjestelmässä on liikaa kohinaa, niin signaali katoaa. Viestinnän parissa on jo pitkään etsitty ratkaisua sille, mitä tehdä ja miten erottua kaikesta kohinasta, kun informaation ja tiedon määrä kasvaa eksponentiaalisesti, mutta ihmisten kyky käsitellä informaatiota ja tietoa kasvaa lineaarisesti. Demokratia ja kansakunta perustuu siihen, että on olemassa yhteisiä arvoja, totuuksia ja tosiasioita, joiden pohjalta voimme keskustella. Mutta jos kaikki on kyseenalaistettavissa, ja jos jokainen videotodiste on mahdollisesti väärennös, niin demokratian tiedollinen perusta alkaa väistämättäkin rapautumaan.
Seuraavaksi on syytä kysyä, kuka hyötyy tällaisesta kaaoksesta. Autoritaariset hallinnot ja kyberrikolliset. Esimerkiksi Venäjän disinformaatiostrategia ei perustu siihen, että se saisi sinut uskomaan sen tuottamia valheita. Se perustuu siihen, että se saa sinut epäilemään kaikkea – myös totuutta. Kun et enää tiedä, mitä ajatella tai mihin uskoa, niin vedät kädet pois politiikasta, ja muutut passiiviseksi kansalaiseksi. Ja se on myös tismalleen sitä, mitä autoritaariset vallat tyypillisesti haluavat (McKenzie & Isis 2025; Puscas 2023; Bradshaw & Howard 2019).
Näin läpinäkyvyys voi paradoksaalisesti myös heikentää demokratiaa sen sijaan, että se vahvistaisi sitä. Läpinäkyvyys voi luoda tiedollisen relativismin, jossa totuuden käsite itsessään muuttuu epäselväksi. Ja tämä ei ole täysin hypoteettinen skenaario, sillä olemme jo nähneet sen toteutuvan Venäjällä, jossa vuosikausia jatkunut informaatiosodankäynti on luonut yhteiskunnan, jossa kansalaiset eivät luota mihinkään tietolähteeseen, eikä heitä enää kiinnosta, mitä politiikassa tai ympäröivässä maailmassa tapahtuu (Floridi 2023).
Mutta jos läpinäkyvyys ei kerran toimi, niin miksi EU on rakentanut koko tekoälyasetuksensa sen ympärille? Vastaus löytyy valistusfilosofian perinnöstä ja poliittisen järjestelmän rakenteellisista rajoituksista. Länsimainen demokratia perustuu valistusfilosofiaan eli uskoon siitä, että rationaalinen tieto vapauttaa. Filosofi Immanuel Kant kirjoitti aikanaan: Sapere aude eli uskalla tietää. Hänen ajatuksensa oli, että kun kansalaiset saavat tietoa, he voivat tehdä järkeviä päätöksiä.
Tämä on kieltämättä kaunis ajatus, joka on inspiroinut demokratioiden kehitystä vuosisatojen ajan. Mutta samaan aikaan se perustuu oletukseen, että ihmiset kuluttavat tietoa harkiten ja analyyttisesti, joka ei ehkä pidä enää 2020-luvulla paikkaansa. Ihmiskuntaa piinaa informaatioähky, joka aiheuttaa kitkaa tietoyhteiskunnan rattaisiin, ja jonka vuoksi lukijat ja kokijat eivät jaksa enää itse suodattaa oleellista tietoa epäoleellisesta (Asikainen 2022). Valistusajan filosofit eivät voineet edes kuvitella maailmaa, jossa jokainen kansalainen altistuisi satojen tai jopa tuhansien viestien virralle, jotka kilpailevat hänen huomiostaan millisekunneissa.
Saatikka sitten algoritmeja, jotka on suunniteltu pitämään ihmiset koukussa tuotettuun sisältöön, eikä suinkaan tekemään heistä viisaampia. EU:n tekoälyasetus on rakennettu tälle samaiselle valistusajan optimismille (2024/1689). Se olettaa, että jos kansalaiset tietävät sisällön olevan keinotekoista, niin he osaavat arvioida sitä kriittisemmin. Tämä on varsin naiivi lähestymistapa sylissämme lepäävään kriisiin ja ongelmaan. Toisaalta kyse voi olla myös siitä, että läpinäkyvyys on poliittisesti helpoin ratkaisu. Se ei vaadi suuria investointeja, eikä se puutu elinkeinoelämän liiketoimintamalleihin liian radikaalisti. Se ei vaadi uusien instituutioiden perustamista, vaan on kompromissi, johon jokainen EU:n jäsenvaltio voi sopeutua.
Vertaa tätä sellaiseen vaihtoehtoon, jossa EU vaatisi maantieteellisellä alueellaan, että kaikki suuret sosiaalisen median alustat asentavat automaattiset syväväärennösten tunnistusjärjestelmät, joka varmasti toimisivat läpinäkyvyyttä paremmin, mutta maksaisivat todennäköisesti kymmeniä miljardeja euroja, ja kohtaisivat siten myös valtavaa vastustusta teknologiayrityksiltä. Edessä olisi pitkiä oikeustaisteluita. Lisäksi se vaatisi uuden eurooppalaisen valvontaviraston perustamista. Käytännössä tämä vaihtoehto on poliittisesti mahdotonta, jonka vuoksi EU valitsee läpinäkyvyyden. Ei siksi, että se olisi tehokkain ratkaisu, vaan siksi, että se on ainoa poliittisesti mahdollinen ratkaisu. Tämä on sääntelyn traaginen kompromissi, jossa paras mahdollinen ei ole sama asia kuin paras saavutettavissa oleva.
Kaikesta kritiikistäni huolimatta en ole sitä mieltä, että olisimme voimattomia syväväärennösten edessä. On olemassa kolme eri lähestymistapaa, jotka voisivat tarjota todellista suojaa syväväärennöksiä ja muita manipulointiyrityksiä vastaan, mutta jokainen niistä edellyttää rohkeutta ja resursseja. Ensimmäinen suoja on aikaisemminkin mainitsemani teknologinen suoja, joka siirtäisi vastuun tunnistamisesta ihmisiltä koneille. Sen sijaan, että luottaisimme siihen, että jokainen kansalainen kykenee tunnistamaan väärennöksen, rakentaisimme järjestelmiä, jotka tekevät filtteröinnin automaattisesti meidän puolestamme.
Teknologia on jo olemassa. Nykyiset tekoälytunnistustyökalut kykenevät tunnistamaan syväväärennökset laboratorio-olosuhteissa jopa 84–90 prosentin tarkkuudella – eli huomattavasti paremmin kuin ihminen 55,5 prosentin tunnistustarkkuudellaan (Masood ym. 2023; Rana ym. 2022; Diel ym. 2024). Toisaalta ongelma ei ole teknologian puute, vaan sen käyttöönotto. Tämän toteuttaminen edellyttäisi, että EU:n tulisi määrätä, että jokainen suuri sosiaalisen median alusta TikTokista, Metaan, YouTubeen ja X:ään asentaisi automaattiset tunnistusjärjestelmät. Kun käyttäjä jakaisi kuvan tai videon, niin järjestelmä skannaisi sen välittömästi, ja jos se tunnistaisi haitallisen väärennöksen, niin se varoittaisi käyttäjää ja varmistaisi vielä ennen jakoa, haluaako hän jakaa sen.
Tämä ei silti olisi täydellinen ratkaisu. Ensinnäkin pienet, valvovan elimen ulkopuolelle jäävät sosiaalisen median kanavat saisivat epäreilun kilpailuedun suuriin toimijoihin nähden. Toiseksi tutkimustulokset ovat osoittaneet, että laboratorio-olosuhteissa testattujen järjestelmien tunnistustarkkuus putoaa dramaattisesti tosielämän olosuhteissa, ja se joutuisi olemaan jatkuvassa kilpavarustelussa väärennösten tekijöiden ja generatiivisten tekoälyjen kanssa (Masood ym. 2023; Rana ym. 2022). Mutta kaikesta huolimatta se olisi merkittävä parannus nykyiseen. Se loisi suojakerroksen, joka ei ole riippuvainen jokaisen kansalaisen tekoälynlukutaidosta.
Toinen potentiaalinen lähestymistapa on rakentaa kokonaan uusi infrastruktuuri sisällön alkuperän todentamiseen. Sen sijaan, että merkitsemme, mikä on tekoälyä, merkitsemme, mikä on varmasti aitoa. Leikittelin jo vuonna 2023 ajatuksella, että voisimme sertifioida ilman tekoälyä luodun sisällön. Sertifikaattia voi verrata esimerkiksi Reilun kaupan vastaavaan, joka pyrkii parantamaan kehitysmaiden pienviljelijöiden ja suurtilojen työntekijöiden asemaa. Tekoälyn sertifikaatti takaisi, että kulutetusta sisällöstä on syntynyt työpaikka (Asikainen 2023).
Coalition for Content Provenance and Authenticity (C2PA) on jo kehittänyt teknisiä standardeja tähän. Ideana on upottaa jokaiseen mediaan metadata, joka kertoo sen alkuperän. Tuolloin käy ilmi, kuka sen loi, millä laitteella, ja milloin. Tätä metadataa on lähes mahdotonta väärentää (Fraser 2025). Käyttöönotto on kuitenkin ollut hidasta, koska se vaatii globaalia koordinaatiota. EU voisi halutessaan pakottaa eurooppalaiset alustat käyttämään jotain vastaavaa mallia, mutta suurin osa sisällöstä virtaa maantieteellisten rajojemme ulkopuolelta. Jos kiinalainen, yhdysvaltalainen tai venäläinen alusta ei osallistu tähän, niin järjestelmä vuotaa.
Toiseksi tällainen menetelmä vaatii käyttäjien luottamusta, joka voi olla kiven alla, kun ottaa huomioon maailman tämänhetkisen tilanteen. Nykyisessä ilmapiirissä monet epäilisivät, että sertifiointijärjestelmä on vain uusi tapa kontrolloida informaatiota ja valvoa ihmisten toimintaa verkossa. Silti tämä on monella tapaa lupaava suunta. Se loisi pitkäaikaisen rakenteen, joka tekisi syväväärennösten luomisesta vaikeampaa. Eräänlainen digitaalisen ajan vastine allekirjoituksille. Toisaalta tämän toteuttaminen vaatisi valtavasti poliittista tahtoa ja massiivisia investointeja digitaaliseen infrastruktuuriin.
Kolmas tapa on selvästi hitain, mutta sen perusta on kaikista kestävin. Käytännössä EU voisi opettaa seuraavan sukupolven elämään tekoälyn aikakaudella. Tämä ei tarkoittaisi yksinkertaisia kursseja, joilla tunnistetaan syväväärennöksiä, vaan perustavanlaatuista muutosta, jossa opetamme ihmiset ajattelemaan kriittisemmin. Tutkimus osoittaa, että syväväärennösten tunnistamisen kouluttaminen parantaa ihmisten tunnistamistarkkuutta vain muutamalla prosentilla, joka on aivan liian vähän ollakseen merkityksellistä (Mai ym. 2023).
Kuvittele mielessäsi kouluopetus, jossa lapset oppisivat alakoulusta alkaen, miten tunnistaa luotettavan lähteen tai arvioidaan todisteiden vahvuutta. Tai miten emotionaalisuus vaikuttaa päätöksentekoon, ja mistä tunnistaa konfirmaatiovinouman. Nämä eivät ole teknisiä taitoja, vaan kognitiivisia metataitoja, jotka suojaavat paitsi syväväärennöksiltä myös kaikenlaiselta muulta manipulaatiolta.
Myös EU:n tekoälyasetus (2024/1689) tunnustaa tämän tarpeen. Yksi tekoälyasetuksen monista vaatimuksista on edellytys, että organisaatiot kehittävät tekoälyä hyödyntävän henkilöstönsä tekoälynlukutaitoa (Euroopan komissio 2024). Tosin vaatimus on hatara, ja sen toimeenpano ainakin tässä vaiheessa vielä melko epäselvä. Tehokas muutos vaatisi kansallisen mittakaavan koulutusohjelmia, jotka ulottuisivat päiväkodeista yliopistoihin. Sitä paitsi silloinkin ongelmana olisi aika.
Sukupolven kouluttaminen vie noin 20 vuotta, mutta kriisi on tässä ja nyt. Esimerkiksi vuonna 2023 sosiaalisessa mediassa jaettiin arvioiden mukaan jo 500 000 syväväärennöstä – yli 1300 joka päivä, ja yksi joka minuutti (Baptista ym. 2023; Ulmer & Tong 2023). EU:lla ei ole aikaa odottaa 20 vuotta. Koulutus voi olla oikea ratkaisu pitkällä aikavälillä, mutta se ei suojele meitä tänään.
Nähdäkseni mikään kolmesta esittelemästäni keinosta ei yksinään riitä turvaamaan ihmisiä syväväärennöksiltä. Teknologinen suoja on tehokas, mutta se on jatkuvassa kilpavarustelussa väärennösten tekijöiden kanssa. Institutionaalinen sertifiointi luo pitkäaikaisen rakenteen, mutta vaatii globaalia koordinaatiota, jota on lähes mahdoton saavuttaa. Koulutus on kestävin ratkaisu, mutta liian hidas vastaamaan akuuttiin kriisiin. Tehokas strategia vaatii kaikkia kolmea samanaikaisesti.
EU tarvitsee välitöntä suojaa teknologisista ratkaisuista. Se tarvitsee pitkäaikaista infrastruktuuria ja sertifiointijärjestelmiä. Lisäksi se tarvitsee sukupolvellista muutosta koulutuksen kautta. Nämä eivät ole vaihtoehtoja, vaan kerroksellisia puolustusmekanismeja, jotka täydentävät toinen toistaan.
Kolmas tapa on selvästi hitain, mutta sen perusta on kaikista kestävin. Käytännössä EU voisi opettaa seuraavan sukupolven elämään tekoälyn aikakaudella. Tämä ei tarkoittaisi yksinkertaisia kursseja, joilla tunnistetaan syväväärennöksiä, vaan perustavanlaatuista muutosta, jossa opetamme ihmiset ajattelemaan kriittisemmin. Tutkimus osoittaa, että syväväärennösten tunnistamisen kouluttaminen parantaa ihmisten tunnistamistarkkuutta vain muutamalla prosentilla, joka on aivan liian vähän ollakseen merkityksellistä (Mai ym. 2023).
Kuvittele mielessäsi kouluopetus, jossa lapset oppisivat alakoulusta alkaen, miten tunnistaa luotettavan lähteen tai arvioidaan todisteiden vahvuutta. Tai miten emotionaalisuus vaikuttaa päätöksentekoon, ja mistä tunnistaa konfirmaatiovinouman. Nämä eivät ole teknisiä taitoja, vaan kognitiivisia metataitoja, jotka suojaavat paitsi syväväärennöksiltä myös kaikenlaiselta muulta manipulaatiolta.
Myös EU:n tekoälyasetus (2024/1689) tunnustaa tämän tarpeen. Yksi tekoälyasetuksen monista vaatimuksista on edellytys, että organisaatiot kehittävät tekoälyä hyödyntävän henkilöstönsä tekoälynlukutaitoa (Euroopan komissio 2024). Tosin vaatimus on hatara, ja sen toimeenpano ainakin tässä vaiheessa vielä melko epäselvä. Tehokas muutos vaatisi kansallisen mittakaavan koulutusohjelmia, jotka ulottuisivat päiväkodeista yliopistoihin. Sitä paitsi silloinkin ongelmana olisi aika.
Sukupolven kouluttaminen vie noin 20 vuotta, mutta kriisi on tässä ja nyt. Esimerkiksi vuonna 2023 sosiaalisessa mediassa jaettiin arvioiden mukaan jo 500 000 syväväärennöstä – yli 1300 joka päivä, ja yksi joka minuutti (Baptista ym. 2023; Ulmer & Tong 2023). EU:lla ei ole aikaa odottaa 20 vuotta. Koulutus voi olla oikea ratkaisu pitkällä aikavälillä, mutta se ei suojele meitä tänään.
Nähdäkseni mikään kolmesta esittelemästäni keinosta ei yksinään riitä turvaamaan ihmisiä syväväärennöksiltä. Teknologinen suoja on tehokas, mutta se on jatkuvassa kilpavarustelussa väärennösten tekijöiden kanssa. Institutionaalinen sertifiointi luo pitkäaikaisen rakenteen, mutta vaatii globaalia koordinaatiota, jota on lähes mahdoton saavuttaa. Koulutus on kestävin ratkaisu, mutta liian hidas vastaamaan akuuttiin kriisiin. Tehokas strategia vaatii kaikkia kolmea samanaikaisesti.
EU tarvitsee välitöntä suojaa teknologisista ratkaisuista. Se tarvitsee pitkäaikaista infrastruktuuria ja sertifiointijärjestelmiä. Lisäksi se tarvitsee sukupolvellista muutosta koulutuksen kautta. Nämä eivät ole vaihtoehtoja, vaan kerroksellisia puolustusmekanismeja, jotka täydentävät toinen toistaan.
Euroopan komissio on kuvannut syväväärennöskriisiä demokratian kohtalonkysymyksiksi (Euroopan komissio 2025a). Tämä ei ole liioittelua. Kyse ei ole vain teknologisesta haasteesta, vaan myös siitä, voiko puhdas demokratia ylipäätänsä toimia maailmassa, jossa totuus on neuvoteltavissa. Demokratia perustuu kolmelle perusperiaatteelle. Ensinnäkin, että on olemassa yhteisiä tosiasioita, joista voimme olla yhtä mieltä. Toiseksi, että kansalaiset voivat tehdä informoituja päätöksiä näiden tosiasioiden perusteella. Kolmanneksi, että julkinen keskustelu perustuu totuuteen propagandan ja valheiden sijaan.
Demokratia perustuu kolmelle perusperiaatteelle. Ensinnäkin, että on olemassa yhteisiä tosiasioita, joista voimme olla yhtä mieltä (Lewandowsky ym. 2023). Toiseksi, että kansalaiset voivat tehdä informoituja päätöksiä näiden tosiasioiden perusteella (Euroopan neuvosto 2022; Curran & Bruttin 2025; Euroopan komissio 2025b). Kolmanneksi, että julkinen keskustelu perustuu totuuteen, ei propagandaan (Van Dyk 2022; Kavanagh & Rich 2018). Syväväärennökset uhkaavat kaikkia kolmea. Ensin ne murskaavat ajatuksen yhteisistä tosiasioista, kun mikä tahansa video voi olla väärennös. Sen jälkeen ne tekevät informoitujen päätösten tekemisestä mahdotonta, kun silmiin ei voi enää luottaa. Lopuksi ne myrkyttävät julkisen keskustelun, kun totuus on neuvoteltavissa, ja voima ratkaisee argumenttien sijaan (Floridi 2023).
Ja tämä ei ole tulevaisuuden uhka. Tätä tapahtuu jo nyt. Yhdysvalloissa 20 osavaltiota oli säätänyt lakeja poliittisia syväväärennyksiä vastaan vuoden 2024 loppuun mennessä. Silti vaikka poliittisia syväväärennöstapauksia oli satoja, niin yhtään rikosoikeudellista syytettä ei nostettu, koska ei ole selvää, miten todistaa tahallinen manipulaatio, kun teknologia on jo niin kehittynyttä (Gray 2025). Toisin sanoen oikeusjärjestelmä ei ole pysynyt teknologisen kehityksen tahdissa.
Samaan aikaan syväväärennöspetokset ovat kasvaneet räjähdysmäisesti. Keepnet Labs (2025) raportoi, että deepfake-pohjaisia huijausyrityksiä tapahtuu nykypäivänä jo joka viides minuutti. CEO-petoksissa keskimääräinen tappio on 280 000 dollaria per tapaus. Kokonaistaloudellinen vahinko vuonna 2024 ylitti 25 miljardia dollaria. Taloudelliset kannustimet luoda väärennöksiä ovat valtavat – ja kasvavat joka päivä.
Mutta taloudellinen vahinko on vähäpätöinen verrattuna demokratian rapauttamiseen. Kun totuus menettää merkityksensä, niin demokratia muuttuu valtataisteluksi. Se ei ole enää habermasilainen järjestelmä, jossa parhaat argumentit voittavat, vaan järjestelmä, jossa vahvin propaganda voittaa. Tuossa vaiheessa demokratia ei eroa enää paljoakaan autoritarismista.
EU:n tekoälyasetuksen 50 artikla ei ole ratkaisu, mutta se on alku. Se tunnustaa ongelman ja luo viitekehyksen sen käsittelemiselle, mutta se ei suojaa meitä. Läpinäkyvyys on välttämätöntä, mutta samalla riittämätöntä. Tarvitsemme teknologisia suojamekanismeja, jotka tunnistavat väärennökset automaattisesti, institutionaalisia infrastruktuureja, jotka todistavat sisällön aitouden, ja koulutusta, joka opettaa seuraavan sukupolven elämään tekoälyn aikakaudella. Tarvitsemme kaikkia näitä samanaikaisesti.
Ennen kaikkea tarvitsemme kuitenkin rehellisyyttä. Meidän on tunnustettava, että nykyinen lähestymistapa ei riitä, ja oltava valmiita tekemään vaikeitakin päätöksiä sekä massiivisia investointeja. Symboliset eleet eivät pelasta demokratiaa. Valistusajan filosofit uskoivat, että tieto vapauttaa. Ehkä he olivat oikeassa, mutta vain jos tieto on totta. Tekoälyn aikakaudella totuuden suojelu vaatii enemmän kuin varoitusmerkkejä – se vaatii uudenlaisia tiedollisia infrastruktuureja, jotka rakentavat luottamuksen uudelleen digitaalisessa maailmassa.
EU:n tekoälyasetus on testikenttä sille, onko Eurooppa valmis mukautumaan tulevaisuuteen. Artikla 50 ei ratkaise tiedollista kriisiä, mutta se osoittaa, että EU tunnistaa ongelman. Kysymys kuuluu, riittääkö tunnistaminen, vai tarvitsemmeko radikaalimpaa muutosta? Vuoteen 2050 mennessä elämme joko maailmassa, jossa nämä uudet infrastruktuurit on onnistuttu rakentamaan, tai maailmassa, jossa mikään todiste ei ole enää luotettava tai riittävä. Jälkimmäisessä maailmassa demokratia tai oikeusjärjestelmä ei voi toimia, ja olemme menettäneet jotain perustavanlaatuista siitä, mitä tarkoittaa elää vapaassa yhteiskunnassa.
Läpinäkyvyyden paradoksia painottaakseni, mitä enemmän merkitsemme sisältöä keinotekoiseksi, sitä vähemmän luotamme mihinkään. Ratkaisu ei ole vähemmän läpinäkyvyyttä, vaan älykkäämpää läpinäkyvyyttä. Sellaista, joka tunnistaa kognitiiviset rajoitteemme ja rakentaa suojamekanismit niiden ympärille. Muuten varoitusmerkit ovat vain illuusio turvallisuudesta, kun demokratia rapautuu. Tämä oli kolmas ja viimeinen osa kolmiosaisesta blogisarjastani, joka käsittelee läpinäkyvyyttä tekoälyn aikakaudella. Löydät aikaisemmat osat alapuolella olevista linkeistä:
Aarts, A. A., Anderson, J. E., Anderson, C. J. & Attridge, P., Attwood, P., Axt, A., Babel, J., Bahnik, M., Baranski, S., Barnett-Cowan, E., Bartmess, M., Beer, E., Bell, J., Bentley, R., Beyan, H., Binion, L, Borsboom, G., Bosch, D., Bosco, Pen, F. ym. (2015). Estimating the reproducibility of psychological science. Science. 349. 10.1126/science.aac4716.
Alper, A. (2023). Deepfaking it: America’s 2024 election collides with AI boom. Julkaistu Reutersissa 31. toukokuuta 2023. Viitattu 10. lokakuuta 2025.
Asikainen, M. (2022). Osa ratkaisua ongelman sijaan. Julkaistu eSignalsissa 25. marraskuuta 2022. Haaga-Helia ammattikorkeakoulu. Viitattu 10. lokakuuta 2025.
Asikainen, M. (2023). Tulisiko ilman tekoälyä tuotettu sisältö sertifioida kuluttajansuojan nimissä?. Julkaistu eSignalsissa 28. kesäkuuta 2023. Haaga-Helia ammattikorkeakoulu. Viitattu 10. lokakuuta 2025.
Asikainen, M. (2025). Näin disinformaatio leviää LLM-groomauksen kautta. Julkaistu eSignals Prossa 9. kesäkuuta 2025. Haaga-Helia ammattikorkeakoulu. Viitattu 10. lokakuuta 2025.
Baptista, D., Smith, A., & Harrisberg, K. (2023). Whose voice is it anyway? Actors take on AI copycats. Thomson Reuters Foundation. Julkaistu Reutersissa 20. lokakuuta 2023. Viitattu 10. lokakuuta 2025.
Bornstein, R.F. (1989). Exposure and Affect: Overview and Meta-Analysis of Research, 1968–1987. Psychological Bulletin 106(2):265-289. American Psychological Association.
Bradford, A. (2019). The Brussels Effect: How the European Union Rules the World. Oxford University Press.
Bradshaw, S., & Howard, P. N. (2019). The global disinformation order: 2019 global inventory of organised social media manipulation. Project on Computational Propaganda.
Chandra, N. A., Murtfeldt, R., Qiu, L., Karmakar, A., Lee, H., Tanumihardja, E., Farhat, K., Caffee, B., Paik, S., Lee, C., Choi, J., Kim, A. & Etzioni, O. (2025). Deepfake-Eval-2024: A multi-modal in-the-wild benchmark of deepfakes circulated in 2024. ArXiv.
Cihon, P., Maas, M. M., & Kemp, L. (2020). Should artificial intelligence governance be centralised? Design lessons from history. arXiv preprint arXiv:2001.03573.
Conardi, P. (2023). Was Slovakia election the first swung by deepfakes? Julkaistu The Times -lehdessä 7. lokakuuta 2023. Viitattu 10. lokakuuta 2025.
Curran, N. & Bruttin, T. (2025). No facts? No freedom. Democracy depends on access to reliable information. Julkaistu Euroopan yleisradiounionin verkkosivuilla 10. marraskuuta 2025. Viitattu 12. marraskuuta 2025.
De Nadal, L. & Jančárik, P. (2024). Beyond the deepfake hype: AI, democracy, and “the Slovak case”. Julkaistu 22. elokuuta 2024 Misinformation Reviewissä. Cambridge. Harvard Kennedy School. Viitattu 10. lokakuuta 2025.
Diel, A., Lalgi, T., Schröter, I. C., MacDorman, K. F., Teufel, M. & Bäuerle, A. (2024). Human performance in detecting deepfakes: A systematic review and meta-analysis of 56 papers. Computers in Human Behavior Reports, Volume 16, 2024,100538, ISSN 2451-9588.
Ecker, U.K., Lewadowsky, S., Cook, K., Schmid, P., Fazio, L.K., Brashier, N., Kendeou, P., Vraga, E.K. & Amazeen, M.A. (2022). The psychological drivers of misinformation belief and its resistance to correction. Nat Rev Psychol 1, 13–29 (2022). Nature. Nature Reviews.
Euroopan komissio. (2024). Artificial Intelligence Act: EU countries give final green light to the Commission’s proposal. 12. kesäkuuta 2024. Brysseli. Viitattu 10. lokakuuta 2025.
Euroopan komissio. (2025a). Commission launches consultation to develop guidelines and a code of practice on transparent AI systems. 6. syyskuuta 2025. Brysseli.
Euroopan komissio (2025b). Stronger measures to protect our democracy and civil society. Julkaistu Euroopan komission verkkosivuilla 12. marraskuuta 2025. Euroopan komissio. Brysseli. Viitattu 12. marraskuuta 2025.
Euroopan neuvosto. (2022). Recommendation CM/Rec(2022) on access to information and democracy, adopted by the Committee of Ministers on 2022. Strasbourg. Euroopan neuvosto. Viitattu 12. marraskuuta 2025.
European Digital Media Observatory. EDMO. (2024). EU Elections. Disinfo Bulletin – Issue n. 2/2024. Euroopan komissio. Brysseli. Viitattu 12. marraskuuta 2025.
Floridi, L. (2023). The ethics of artificial intelligence for international relations: Challenges and opportunities. Ethics & International Affairs, 37(3), 345–357. Cambridge University Press. Cambridge Core.
Fraser, M. (2025). Deepfake statistical data 2023-2025. Julkaistu Views4Youn sivuilla 27. toukokuuta 2025. Viitattu 10. lokakuuta 2025.
Gray, C.H. (2025). Political deepfakes and elections. Middle Tennessee State University. Julkaistu 6. joulukuuta 2024. Päivitetty 11. tammikuuta 2025. Viitattu 10.10.2025.
Groh, M., Epstein, Z., Firestone, C., & Picard, R. (2021). Deepfake detection by human crowds, machines, and machine-informed crowds. Proceedings of the National Academy of Sciences, 119(1), e2110013119. PNAS.
iProov. (2025). iProov Study Reveals Deepfake Blindspot: Only 0.1% of People Can Accurately Detect AI-Generated Deepfakes. Julkaistu iProovin verkkosivuilla 12. helmikuuta 2025. Viitattu 10. lokakuuta 2025.
Jacob, C., Kerrigan, P., & Bastos, M. (2025). The chat-chamber effect: Trusting the AI hallucination. Big Data & Society, 12(1). Sage Publishing.
Ji, Z., Lee, N., Frieske, R., Yu, T., Su, D., Xu, Y., Ishii, E., Bang, Y. J., Madotto, A., & Fung, P. (2023). Survey of hallucination in natural language generation. ACM Computing Surveys, 55(12), 1–38.
Kavanagh, J. & Rich, M.D. (2018). Truth Decay. An Initial Exploration of the Diminishing Role of Facts and Analysis in American Public Life. Research. Julkaistu Rand Corporationin verkkosivuilla 16. tammikuuta 2018. Rand Corporation. Viitattu 10. lokakuuta 2025.
Keepnet Labs. (2025). Deepfake Statistics & Trends 2025: Growth, Risks, and Future Insights. Julkaistu Keepnet Labsin verkkosivuilla 24. syyskuuta 2025. Viitattu 10. lokakuuta 2025.
Khalil, M. (2025). Deepfake statistics 2025: The data behind the AI fraud wave. Julkaistu DeepStriken verkkosivuilla 8. syyskuuta 2025. Viitattu 10. lokakuuta 2025.
Kiripolská, K. & Barca, R. (2024). How Fake Accounts Spread a Hoax in Slovakia’s Election Race. Julkaistu VSquaressa 10. lokakuuta 2024. Viitattu 10. lokakuuta 2025.
Kováčik, T. & Frankovská, V. (2024). How AI-generated content influenced parliamentary elections in Slovakia: The Slovak Police will investigate the recording for a third time. Julkaistu Central European Digital Media Observatoryn verkkosivuilla 25. marraskuuta 2024. Central European Digital Media Observatory.
Lewandowsky, S., Ecker, U. K. H., & Cook, J. (2017). Beyond misinformation: Understanding and coping with the ”post-truth” era. Journal of Applied Research in Memory and Cognition, 6(4), 353–369. American Psychological Association.
Lewandowsky, S., Ecker, U. K. H., & Cook, J., Van der Linden, S., Roozenbeek, J. & Oreskes, N. (2023). Misinformation and the epistemic integrity of democracy. Current Opinion in Psychology, 54(101711). Elsevier.
Mai, K.T., Bray, S., Davies, T. & Griffin, L.D. (2023). Warning: Humans cannot reliably detect speech deepfakes. Julkaistu PLOS Onessa 2. elokuuta 2023. Viitattu 1. lokakuuta 2025.
Marma, K. J. S. (2025). The Science of Disinformation: Cognitive Vulnerabilities and Digital Manipulation. Julkaistu Modern Diplomacyssa 9. helmikuuta 2025. Viitattu 10. lokakuuta 2025.
Masood, M., Nawaz, M., Malik, K. M., Javed, A., Irtaza, A., & Malik, H. (2023). Deepfakes generation and detection: State-of-the-art, open challenges, countermeasures, and way forward. Applied Intelligence, 53(4), 3974–4026. Springer Nature.
McKenzie, S., & Isis, B. (2025). A well-funded Moscow-based global ‘news’ network has infected Western artificial intelligence tools worldwide with Russian propaganda. Special Report. NewsGuard’s Reality Check.
Nosek, B. A., Alter, G., Banks, G. C., Borsboom, D., Bowman, S. D., Breckler, S. J., Buck, S., Chambers, C. D., Chin, G., Christensen, G., Contestabile, M., Dafoe, A., Eich, E., Freese, J., Glennerster, R., Goroff, D., Green, D. P., Hesse, B., Humphreys, M., … Yarkoni, T. (2015). Promoting an open research culture: Author guidelines for journals could help to promote transparency, openness, and reproducibility. Science, 348(6242), 1422–1425. American Psychological Association.
Olakotan, O.O. & Yusof, M.M. (2020). Evaluating the alert appropriateness of clinical decision support systems in supporting clinical workflow. Journal of Biomedical Informatics, 106(103453). Elsevier.
PSNet Editorial Team. (2024). Alert Fatigue. Julkaistu UC Davis PSnetin verkkosivuilla 15. kesäkuuta 2024. AHRQ’s Patient Safety Network (PSNet). Viitattu 10. lokakuuta 2025.
Puscas, A. (2023). Artificial intelligence, influence operations, and international security. Understanding the Risks and Paving the Path for Confidence Building Measures. United Nations Institute for Disarmament Research (UNIDIR).
Rana, M. S., Nobi, M. N., Murali, B., & Sung, A. H. (2022). Deepfake detection: A systematic literature review. IEEE Access, 10, 25494–25513.
Soprano, M., Roitero, K., La Barbera, D., Ceolin, D., Spina, D., Demartini, G. & Mizzaro, S. (2024). Cognitive Biases in Fact-Checking and Their Countermeasures: A Review. Information Processing & Management Vol. 61, 3 (2024). Elsevier.
Stix, C. (2021). Taking the European AI Act seriously. Nature Machine Intelligence, Vol. 3(6), 446–448. Nature Portfolio.
Sundermann, M., Clendon, O., McNeill, R., Doogue, M. & Chin, P.K.L. (2024). Optimising interruptive clinical decision support alerts for antithrombotic duplicate prescribing in hospital. International Journal of Medical Informatics Vol. 186(105418). Elsevier.
Ulmer, A. & Tong, A. (2023). Deepfaking it: America’s 2024 election collides with AI boom. Julkaistu Reutersissa 31. toukokuuta 2023. Viitattu 10. lokakuuta 2025.
Van Dyk, S. (2022). Post-Truth, the Future of Democracy and the Public Sphere. Theory, Culture & Society 2022, Vol. 39(4) 37–50. Sage Journals.
Zajonc, R.B. (1968). Attitudinal effects of mere exposure. Journal of Personality and Social Psychology Monograph Supplement, Vol. 9(2) Part 2. University of Michigan.
Communications Lead
Finnish AI Region
+358 44 920 7374
martti.asikainen@haaga-helia.fi
Finnish AI Region
2022-2025.
Media contacts