Näkökulma: Deepfake-kriisi on jo täällä – mutta miksi emme näe sitä?

EU vastaa deepfake-kriisiin läpinäkyvyydellä. Synteettinen sisältö on merkittävä ja käyttäjille kerrottava sen käytöstä. Mutta riittääkö tämä, kun tekoälyjärjestelmät eivät itsekään tiedä, mikä niiden tuottamasta sisällöstä on totta? Kun lait muuttuvat hitaasti ja tekoäly eksponentiaalisesti? Tämä on ensimmäinen kirjoitus kolmiosaisesta blogisarjasta.

Teksti: Martti Asikainen, 1.10.2025 | Kuva: Adobe Stock Photos (Päivitetty 10.11.2025)

Face identifying with a scanner

Todistamme tällä hetkellä eräänlaista tiedollisen aikakauden loppua, jolloin näkeminen ei ole enää uskomista. Tuhansien vuosien ajan ihmiset ovat toimineet sillä periaatteella, että aistimme, erityisesti näkö ja kuulo, tarjoavat luotettavat väylät totuuteen. Tämä on ollut yksi maailmankuvamme peruspilareista, joka murenee tomuksi tekoälyjärjestelmien kehittyessä yhä tehokkaammaksi sisällön manipuloinnin saralla.

Tekoälyn kyky tuottaa keinotekoista, mutta aidolta näyttävää ja kuulostavaa sisältöä on noussut jo nyt tasolle, joka horjuttaa käsitystämme autenttisuudesta, todisteista ja todistamisesta itsestään (Vaccari & Chadwick 2020; Floridi 2024). Ennen kaikkea poliittisten päättäjien kohtaamat haasteet ovat tänä päivänä niin mittasuhteiltaan kuin tekniseltä monimutkaisuudeltaankin täysin ennenkokemattomia. 

Siinä missä vielä kymmenen vuotta sitten aidolta näyttävän väärän sisällön luominen vaati Hollywoodin resursseja ja Christopher Nolanin tai Peter Jacksonin tasoista ohjaajaa, niin nykyään pahainen teinikin voi tuottaa tekoälyllä uskottavan deepfaken eli syväväärennöksen alle kymmenessä minuutissa (Cruz 2025; Westerlund 2019).

Keinotekoisen sisällön ongelman mittakaava

Heinäkuun 2023 ja heinäkuun 2024 välillä tutkijat tunnistivat yhteensä 82 laajempaa, politiikkaan liittyvää syväväärennöstä, jotka kohdistuivat julkisuuden henkilöihin 38 eri maassa (Insikt Group 2024). Samaan aikaan yksityisen sektorin havaintodatan perusteella petosteknologioiden käyttö kasvoi räjähdysmäisesti. Henkilöllisyyden todentamispalvelu Sumsub raportoi, että sen omassa järjestelmässä havaittujen deepfake-yritysten määrä yli kymmenkertaistui vuosina 2022–2023. 

Pohjois-Amerikassa kasvua oli 1740 prosenttia ja Aasian–Tyynenmeren alueella 1530 prosenttia (Sumsub 2024). Vaikka luvut kuvaavat vain yhtä teknologista ekosysteemiä, ne heijastavat laajempaa trendiä, jossa petosteknologiat leviävät nopeasti eri yhteiskunnan osa-alueille. Tutkijoiden mukaan tämä kehitys merkitsee paradigman muutosta, jolla on syviä ja merkittäviä seurauksia yhteiskunnan luottamukselle ja julkisten i instituutioiden uskottavuudelle (Bradshaw, Bailey & Howard 2021).

Euroopan komissio on tunnistanut syväväärennösten uhat kuulemisasiakirjoissaan. Se varoittaa muun muassa skenaarioista, joissa tekoäly esiintyy ihmisenä, tulkitsee tunteita ilman suostumusta ja tuottaa synteettistä sisältöä vauhdilla, jota faktantarkistus ei pysty seuraamaan (Euroopan komissio 2025a). Mutta retoriikassaan komissio puhuu edelleen nousevasta uhasta, jota voi pitää perustavanlaatuisena virheenä. Syväväärennösteknologian uhka ei ole nousemassa, vaan se on jo realisoitunut useaan otteeseen.

Todelliset seuraukset ovat jo täällä

Tarkastellaan hetki konkreettisia esimerkkejä parilta viimeiseltä vuodelta. Tammikuussa 2024 New Hampshiressa Yhdysvalloissa tuhannet demokraattien äänestäjät saivat tekoälysoittoja, jotka jäljittelivät presidentti Joe Bidenin ääntä ja kehotti olemaan äänestämättä osavaltion esivaaleissa. Vastuussa ollut konsultti sai myöhemmin 6 miljoonan dollarin sakot liittovaltion viestintäkomissiolta (Seitz-Wald 2024; Bond 2024).

Vuonna 2023 Slovakiassa puolestaan levisi väärennetty äänite, joka väitti poliittisen johtajan suunnittelevan vaalien väärentämistä. Tämä tapahtui juuri ennen parlamenttivaaleja, ja siitä seurasi huomattavaa poliittista epävakautta ja luottamuksen rapautumista demokraattiseen järjestelmään ja vallanpitäjiin (Surfshark 2024).

Intiassa taas kuuluisan poliitikko Muthuvel Karunanidhin näytettiin osallistuvan poliittiseen konferenssiin vuonna 2024, vaikka todellisuudessa hän oli kuollut jo vuonna 2018. Tekoälyn herättämää vainajaa käytettiin nostamaan hänen puolueensa kannatusta. Argentiinassa tekoälyn tuottama sisältö väitti vuonna 2024 presidenttiehdokkaiden vetäytyneen vaaleista vain tunteja ennen äänestyksen alkua (emt. 2024).

Saksassa venäläinen Storm 1516 -verkosto perusti vuosina 2024–2025 yli 100 tekoälyvetoista verkkosivua, jotka levittivät syväväärennettyjä videoita liittovaltion vaalien alla (Zamji 2024). Komission tulkinta uhan aikajänteestä saattaa osoittautua kohtalokkaaksi, kun pyritään kirittämään sääntelytoimia. Kyseessä ei ole tuleva uhka, vaan käsillä oleva kriisi, jossa teknologinen kehitys etenee väistämättä vuosia lainsäädäntöä edellä (Mahieu ym. 2021).

Tunnistamisen kriisissä ihmisistä tuskin on apua

 Euroopan komission lähestymistapa perustuu vahvaan oletukseen, jossa valistunut käyttäjä kykenee tekemään rationaalisia päätöksiä synteettisestä sisällöstä, mutta tutkimukset paljastavat tämän olevan kaukana todellisuudesta. Tilastot ovat suorastaan musertavia. Tutkimukset osoittavat, että käyttäjät epäonnistuvat toistuvasti synteettisen sisällön tunnistamisessa. Yleinen tunnistustarkkuus on noin 55,5 %, joka on hädin tuskin parempi kuin sattumanvarainen arvaus. Luku saatiin tekemällä meta-analyysi 56 eri tutkimuksesta, joihin osallistui yhteensä 86 155 henkilöä (Diel ym. 2024).

Ihmisen tunnistusprosentti laskee entisestään korkealaatuisten, syväväärennettyjen videoiden kohdalla, joiden tapauksessa tunnistusaste on vain 24,5 % eli ihmiset tunnistavat kehittyneet syväväärennökset oikein alle neljäsosassa tapauksista (Khalil 2025a). Eräs taannoinen tutkimus esittää, että äänen kohdalla ihmiset tunnistaisivat jopa 73 % syväväärennetyistä ääniraidoista (Mai 2023; Schlenker 2024). 

Tutkimuksen tulokset on kuitenkin mahdollista kyseenalaistaa, sillä osallistujat kertoivat pettyneensä konetuotettujen aksenttien ja taustaäänien laatuun. Vastaajien mukaan ääniraidoissa oli ongelmia lausumistyylien ja taukojen kanssa. Kehittyneimmät tekoälymallit pystyvät tuottamaan täysin tai lähes luonnollista kuvaa ja puhetta. Vuoden 2025 alussa tehdyn kokeen mukaan vain 0,1 % ihmisistä pystyy luotettavasti tunnistamaan kaikki väärät ja aidot mediasisällöt, kun eri mediasisällöt laitetaan yhteen (iProov 2025). Tutkimuskoe järjestettiin Iso-Britanniassa ja siihen osallistui 1200 henkilöä. 

Pahinta tässä on, ettei ihmisten tekoälynlukutaidon kehittämisellä ole välttämättä suurta vaikutusta tunnistusprosentteihin. Taannoisen tutkimuksen mukaan systemaattinen koulutus, jossa osallistujille näytetään esimerkkejä syväväärennöksistä, parantaa tunnistuskykyä keskimäärin vain 3,84 % (Mai ym. 2023). Tästä voidaan päätellä, että kyseessä on tiedollinen kriisi, johon voi vaikuttaa vain lainsäädännöllisin keinoin.

Taloudellinen ulottuvuus ja järjestäytynyt rikollisuus

Tekoälyyn liittyvä poliittinen keskustelu keskittyy pääosin demokraattisiin uhkiin, mutta samaan aikaan on huomioitava myös syväväärennöksien taloudellinen ulottuvuus. Tilastot osoittavat, että syväväärennöksistä on tullut varsin tuottoisa työkalu talousrikoksiin, joka osaltaan vahvistaa käsitystä läpinäkyvyyteen liittyvän keskustelun riittämättömyydestä. 

Tilastojen mukaan syväväärennöksiin liittyvät petosyritykset kasvoivat globaalisti jopa 3000 % vuonna 2023, kun generatiiviset tekoälytyökalut yleistyivät kuluttajien keskuudessa (Onfido 2024). Myös identiteettivarkauksien määrä syväväärennöksien avulla nousi 31-kertaiseksi vain vuodessa (Sumsub 2023). Yleisimpänä syynä on ihmisten kyvyttömyys tunnistaa laadukkaat syväväärennökset todellisesta sisällöstä.

Tällä hetkellä petosyrityksiä tapahtuu noin joka viides minuutti (Keepnet Labs 2024). Yksi tunnetuimmista tapauksista on vuodelta 2024, kun kansainvälinen insinööritoimisto Arupiin tehtiin hyökkäys, jossa hyödynnettiin perinteistä tietojenkalastelua ja uuden ajan teknologiaa. Kaikki alkoi, kun yrityksen talousosaston työntekijä sai sähköpostin, joka näytti tulevan yrityksen Iso-Britannian talousjohtajalta (CFO). 

"Kyseessä ei ollut perinteinen hakkerointi, vaan teknologialla vahvistettu sosiaalinen manipulointi."

Viestissä ohjeistettiin kiireellisestä ja luottamuksellisesta rahansiirrosta. Työntekijä epäili viestiä, mutta hänen epäilyksensä hälvenivät, kun hänet kutsuttiin videokokoukseen keskustelemaan asiasta. Videopuhelussa työntekijä näki ja kuuli henkilön, joka näytti ja kuulosti CFO:lta. Paikalla oli myös muita tuttuja kollegoita.

Todellisuudessa kaikki kokouksen osallistujat olivat uhria lukuun ottamatta tekoälyn luomia deepfake-hahmoja. Visuaalisen ja äänellisen todisteen vakuuttamana työntekijä teki 15 erillistä tilisiirtoa, joiden aikana hän lähetti yhteensä 25,6 miljoonaa dollaria huijareille. Kyseessä ei ollut perinteinen hakkerointi, vaan teknologialla vahvistettu sosiaalinen manipulointi, kuten Arupin tietohallintojohtaja kuvasi myöhemmin tapausta. 

Samaa on yritetty esimerkiksi maailman suurimman mainostoimisto WPP:n konsernissa, jossa rikolliset hyödynsivät CEO Mark Readin äänikloonia Microsoft Teams -kokouksessa. Ferrarilla puolestaan eräs johtaja sai WhatsApp-puhelun, jossa kloonattu ääni jäljitteli toimitusjohtaja Benedetto Vignaa. Molemmissa tapauksissa työntekijät huomasivat pieniä epätarkkuuksia puheessa, jonka vuoksi he eivät menneet halpaan (Khalil 2025b).

Lukuja ja todisteita kriisin keskeltä

Syväväärennykset eivät ole, jonka läpinäkyvyysmerkinnät voisivat ratkaista. Kun taloudellinen hyöty on suuri ja tekniset esteet matalat, niin sääntely tarvitsee paljon enemmän kuin varoitusmerkkejä. Euroopan unionin on luotava sitovia teknisiä standardeja sekä tehokkaita valvontamekanismeja ja sanktioita, jotka ylittävät väärinkäytöstä tai sen mahdollistamisesta saatavan hyödyn.

Myös yritykset, joiden sovelluksilla petokset toteutetaan, tulisi saattaa vastuuseen, mikäli he eivät huolehdi siitä, että heidän tuotteensa ovat turvallisia. Syväväärennösteknologian aiheuttama tiedollinen kriisi ei ole tuleva uhka, vaan nyt jo realisoitunut todellisuus. Konkreettiset tapaukset aina New Hampshiresta Slovakiaan osoittavat, että teknologia on aiheuttanut vahinkoja demokraattisille prosesseille ja taloudelliselle turvallisuudelle. 

Tutkimusnäyttö on kiistaton. Ihmiset eivät kykene luotettavasti tunnistamaan syväväärennöksiä. Yleinen tunnistustarkkuus on vain 55,5 %, ja korkealaatuisten videoiden kohdalla se laskee 24,5 prosenttiin. Koulutus parantaa tunnistuskykyä vain marginaalisesti, keskimäärin 3,84 %. Myös tunnistustyökalut menettävät 45–50 % tehokkuudestaan tosielämän olosuhteissa.

Myöskään tekoälyn tuottaman sisällön tunnistamistyökalut eivät vakuuta. On totta, että asianmukaisissa tutkimuskeskuksissa laboratoriot raportoivat jopa yli 90 %:n tunnistamistarkkuudesta, mutta kun huipputason tunnistusjärjestelmät viedään tosielämän villiin länteen, niin pahimmissa tapauksissa ne menettävät jopa 45–50 % tarkkuudestaan syväväärennöksien tunnistamisessa (Chandra ym. 2025). . 

Teknologia on jo kuluttajien ulottuvilla ja taloudelliset kannustimet houkuttelevat rikoksiin. Selvitäksemme muutoksesta tarvitsemme uudenlaisia tiedollisia infrastruktuureja, jotka säilyttävät luottamuksen, totuuden ja legitimiteetin. Ellei tällaisia toteuteta, niin toimenpiteet, kuten tekoälyasetuksen 50 artikla, voivat tarjota poliittista lohdutusta, mutta vain vähän todellista suojaa digitaalisen petoksen kriisiä vastaan.

Lähteet

Bond, S. (2024). How deepfakes and AI memes affected global elections in 2024. Julkaistu National Public Radion (NPR) verkkosivuilla 21. joulukuuta 2024. Viitattu 1. lokakuuta 2025.

Bradshaw, S., Bailey, H., & Howard, P. N. (2021). Industrialized disinformation: 2020 global inventory of organized social media manipulation. Oxford Internet Institute.

Chandra, N. A., Murtfeldt, R., Qiu, L., Karmakar, A., Lee, H., Tanumihardja, E., Farhat, K., Caffee, B., Paik, S., Lee, C., Choi, J., Kim, A. & Etzioni, O. (2025). Deepfake-Eval-2024: A multi-modal in-the-wild benchmark of deepfakes circulated in 2024. ArXiv.

Cruz, B. (2025). 2025 deepfakes guide and statistics. Julkaistu Security.orgin verkkosivuilla 26. elokuuta 2025. Viitattu 1. lokakuuta 2025.

Diel, A., Lalgi, T., Schröter, I. C., MacDorman, K. F., Teufel, M. & Bäuerle, A. (2024). Human performance in detecting deepfakes: A systematic review and meta-analysis of 56 papers. Computers in Human Behavior Reports, Volume 16, 2024,100538, ISSN 2451-9588.

Euroopan komissio. (2025a). Commission launches consultation to develop guidelines and a code of practice on transparent AI systems. Brysseli. Julkaistu 6. syyskuuta 2025. Viitattu 1. lokakuuta 2025.

Floridi, L. (2024). AI and the end of truth? Epistemic challenges of generative systems. Philosophy & Technology, 37(2), 15. Springer Science+Business Media.

Insikt Group. (2024). Targets, Objectives, and Emerging Tactics of Political Deepfakes. Threat Analysis. Recorded Group. Julkaistu 24. syyskuuta 2024. Viitattu 1. lokakuuta 2025.

iProov. (2025). iProov Study Reveals Deepfake Blindspot: Only 0.1% of People Can Accurately Detect AI-Generated Deepfakes. Julkaistu iProovin verkkosivuilla 12. helmikuuta 2025. Viitattu 1. lokakuuta 2025.

Keepnet Labs. (2025). Deepfake Statistics & Trends 2025: Growth, Risks, and Future Insights. Julkaistu Keepnet Labsin verkkosivuilla 24. syyskuuta 2025. Viitattu 1. lokakuuta 2025.

Khalil, M. (2025a). Deepfake statistics 2025: The data behind the AI fraud wave. Julkaistu DeepStriken verkkosivuilla 8. syyskuuta 2025. Viitattu 1. lokakuuta 2025.

Khalil, M. (2025b). AI Cybersecurity Threats 2025: How to Survive the AI Arms Race. Julkaistu DeepStriken verkkosivuilla 6. elokuuta 2025. Viitattu 1. lokakuuta 2025.

Mahieu, R., Van Hoboken, J., & Ausloos, J. (2021). Measuring the Brussels effect through access requests. Journal of Information Policy, 11, 301–331. Penn State University Press.

Mai, K.T., Bray, S., Davies, T. & Griffin, L.D. (2023). Warning: Humans cannot reliably detect speech deepfakes. Julkaistu PLOS Onessa 2. elokuuta 2023. Viitattu 1. lokakuuta 2025.

Onfido. (2024). Identity fraud report 2024. Onfido.

Schlenker, D. (2024). Listen carefully: UF study could lead to better deepfake detection. University of Florida News. Julkaistu 15. marraskuuta 2024. Viitattu 1. lokakuuta 2025.

Seitz-Wald, A. (2024). Telecom company agrees to $1M fine over Biden deepfake. Julkaistu NPC Newsin verkkosivuilla 21. elokuuta 2024. Viitattu 1. lokakuuta 2025.

Sumsub. (2023). Deepfake detection and fraud statistics. Sumsub.

Sumsub. (2024). Identity theft and fraud statistics. Sumsub.

Surfshark Research. (2024). 38 countries have faced deepfakes in elections. Surfshark Research. Julkaistu Sufsharkin verkkosivuilla 9. joulukuuta 2024. Viitattu 1. lokakuuta 2025.

Vaccari, C., & Chadwick, A. (2020). Deepfakes and disinformation: Exploring the impact of synthetic political video on deception, uncertainty, and trust in news. Social Media + Society, 6(1). Sage Journals.

Westerlund, M. (2019). The emergence of deepfake technology: A review. Technology Innovation Management Review, 9(11), 39–52. World Scientific.

Zamji, X. (2024). AI-driven Russian disinformation campaign targets German elections. Euractiv.

Martti Asikainen

Communications Lead
+358 44 920 7374
martti.asikainen@haaga-helia.fi

White logo of Finnish AI Region (FAIR EDIH). In is written FAIR - FINNISH AI REGION, EDIH
Euroopan unionin osarahoittama logo

Finnish AI Region
2022-2025.
Media contacts