Näkökulma: Läpinäkyvyyttä ja taikatemppuja? EU:n tekoälyasetus ristiaallokossa

EU:n tekoälyasetus pyrkii tuomaan järjestystä tekoälyn villiin länteen, mutta sen läpinäkyvyysvaatimukset törmäävät perustavanlaatuiseen kysymykseen harhaanjohtamisen ja taiteellisen vapauden rajasta. Synteettinen media voi parhaimmillaan rikastaa kulttuuria, jos sääntely osaa erottaa kontekstin ja käyttötarkoituksen teknologiasta itsestään. Tämä on toinen kirjoitus kolmiosaisesta blogisarjasta.

Teksti: Martti Asikainen, 9.10.2025 | Kuva: Adobe Stock Photos (Päivitetty 11.11.2025)

Magician on the stage. Behind you can see a shape of EU flag and map.

Kun taikuri kuiskaa yleisölleen ennen esitystä varoituksen, jossa kaiken kerrotaan olevan silmänkääntötemppua, niin onko se enää taikuutta? Euroopan unionin (EU 2024/1689) tekoälyasetus on hieman samanlaisessa tilanteessa vaatiessaan, että jokainen tekoälyllä tehty taika on merkittävä ja kerrottava yleisölle etukäteen. Mutta toisin kuin viihteen maailmassa, kyse ei ole pelkästä taiteellisesta kokemuksesta, vaan demokratian ja totuuden varjelemisesta muuttuvassa maailmassa.

EU:n tekoälyasetus joutuu tasapainoilemaan mahdottoman äärellä. Miten luoda läpinäkyvyyttä vaativa sääntely yhteiskunnassa, jossa kaikki perustuu taikojen, metaforan ja taiteellisen vapauden varaan? Asetus pyrkii paljastamaan ’taikatemput”, vaikka juuri nämä ovat inhimillisen kulttuurin ydin. Synteettinen media voi parhaillaan rikastaa tarinankerrontaa ja kulttuuria, jos sääntely osaa erottaa kontekstin ja käyttötarkoituksen teknologiasta itsestään.

Tekoälyasetus syntyi tarpeesta

Euroopan parlamentti äänesti EU:n tekoälyasetuksesta (EU 2024/1689) maaliskuussa 2024, ja EU:n neuvosto löi sinetin asetuksen tekstin päälle 21. toukokuuta 2024. Tekoälyasetus päätettiin tuolloin ottaa käyttöön porrastetusti siten, että sen ensimmäinen vaihe astui voimaan 1. elokuuta 2024, ja viimeinen tammikuussa 2027. Kansallisissa täytäntöönpanoissa kestää pidempään.

Tekoälyasetuksessa on lukuisia hyviä puolia. Yksi sääntökirja 27 jäsenvaltiolle vähentää sääntelysirpaletta ja antaa yrityksille oikeusvarmuutta ja ennustettavuutta monimutkaisilla EU:n sisämarkkinoilla. Sen tiukimmat vaatimukset kohdistuvat korkean riskin järjestelmiin, kun taas vähäriskisiin sovelluksiin sovelletaan pääosin vain kevyitä läpinäkyvyysvaatimuksia.

Korkealla riskillä tarkoitetaan esimerkiksi finanssisektorin luottoluokituksia ja lainapäätöksiä, oikeusjärjestelmää ja lainvalvontaa, kriittistä infrastruktuuria sekä rekrytointia ja työnhakua. Matalan riskin järjestelmien vaikutus yksilön oikeuksiin ja turvallisuuteen on lähes olematon, jonka vuoksi se koskettaa lähinnä asiakaspalvelubotteja, sisällöntuotannon työkaluja ja kodin automaatiojärjestelmiä.

Tekoälyasetuksen odotetaan vähentävän turhaa hallinnollista taakkaa ja kohdistavan työtä sinne, missä sen vaikutukset ovat suurimmat. Samalla voimaan tulee haitallisten käytäntöjen kiellot, jotka parantavat yksilön oikeuksia tuntuvasti. Asetus kieltää esimerkiksi hyväksymättömät riskit, kuten sosiaalisen pisteytyksen, etätunnistuksen ja biometrisen valvonnan julkisilla paikoilla sekä tekoälyllä ohjatun käyttäytymisen manipuloinnin ja hyväksi käyttämisen (EU AI 2024; Bird & Bodo, 2023;).

Asetuksen 50 artikla edellyttää myös erillistä ilmoitusta, kun käyttäjät ovat vuorovaikutuksessa tekoälyn kanssa, ja samalla myös tekoälyllä tuotettu sisältö, kuten esimerkiksi deepfaket eli syväväärennökset, on merkittävä asianmukaisilla vesileimoilla tai muilla tunnistettavilla merkeillä. Tämän odotetaan parantavan luottamusta sekä ehkäisevän harhaanjohtamista, mutta samalla on myös pelkoja, joiden mukaan se tulee tappamaan taikuuden.

Läpinäkyvyys demokraattisena välttämättömyytenä

EU:n tekoälyasetuksen 50 artikla edellyttää erillistä ilmoitusta, kun käyttäjät ovat vuorovaikutuksessa tekoälyn kanssa, ja samalla myös tekoälyllä tuotettu sisältö, kuten esimerkiksi deepfaket eli syväväärennökset, on merkittävä asianmukaisilla vesileimoilla tai muilla tunnistettavilla merkeillä. Tämän odotetaan parantavan luottamusta sekä ehkäisevän harhaanjohtamista, mutta samalla on myös pelkoja, joiden mukaan se tulee tappamaan taikuuden.

Käytännössä EU pyrkii tällä tavoin luomaan tietoon perustuvan suostumuksen algoritmiseen päätöksentekoon ja käyttöön, joka on kuin digitaalinen vastine tietoon perustuvalle suostumukselle lääketieteessä (ks. Kim & Routledge 2022; Castelluccia & Le Métayer 2019). Se on monestakin syystä kannatettavaa, kun ihmisille kerrotaan etukäteen, mikäli he ovat tekemisissä keinotekoisen älyn kanssa (esim. Leslie 2019). Pohjalla on tavoite vahvistaa yksilön autonomiaa ja luottamusta tarjoamalla läpinäkyvyyttä sen suhteen, miten algoritmit vaikuttavat hänen kohteluunsa, tietoihinsa ja valintoihinsa digitaalisessa ympäristössä.

Läpinäkyvyysvaatimusten kiireellisyys tuli konkreettisesti ilmi vuonna 2024, kun multimiljardööri Elon Musk jakoi tekoälyllä manipuloidun kampanjavideon Kamala Harrisista ilman vastuuvapauslausekkeita. Video keräsi hetkessä vain hetkessä yli 129 miljoonaa katselukertaa (Milmo 2024). Tapaus osoitti räikeästi, miten synteettinen media voi nopeasti ja laajamittaisesti vääristää poliittista keskustelua ja mahdollisesti vaikuttaa jopa demokraattisiin prosesseihin.

Kun synteettinen media voi vakuuttavasti simuloida todellisuutta tavalla, jota keskivertoäänestäjä ei kykene erottamaan aidosta materiaalista, läpinäkyvyys ei ole vain tekninen vaatimus – se on demokraattinen välttämättömyys. Ilman selkeitä merkintöjä käyttäjät eivät voi tehdä informoituja päätöksiä siitä, mihin tietoon he luottavat, ketä he äänestävät tai miten he muodostavat käsityksensä julkisista henkilöistä ja yhteiskunnallisista kysymyksistä.

Satiirin ja harhaanjohtamisen veteen piirretty viiva

Kalifornian tapaus vuodelta 2024 myös tarjoaa varoittavan esimerkin siitä, miten vaikeaa läpinäkyvyysvaatimusten toteuttaminen käytännössä on. Muskin jakaman videon seurauksena Kalifornian kuvernööri Gavin Newsom allekirjoitti kolme syväväärennöksiä koskevaa lakia. Lait kielsivät muun muassa äänestäjien harhauttamiseen tarkoitetut syväväärennökset 120 päivän sisällä vaaleista. Puheissaan Newsom viittasi muun muassa Muskiin ja hänen julkaisuunsa.

Pian tämän jälkeen videon luojaksi tunnustautunut, oikeistolaiseksi tunnustautuva Christopher Kohls haastoi allekirjoitetun lain oikeuteen (Korte 2024). Kohlsin mukaan hänen tekemänsä ja Muskin sittemmin jakanut sisältö oli poliittista satiiria. Tämän seurauksena liittovaltion tuomari John Mendez esti lain täytäntöönpanon perustuslain vastaisena (Zeff 2024). Tuomarin mukaan laki loukkasi sananvapautta rajoittamalla poliittista ilmaisua tavalla, joka ylitti perustuslain salliman rajan.

Kalifornian tapaus paljastaa sääntelyn keskeisen paradoksin, sillä on mahdotonta sanoa, kuka määrittelee, mikä on satiiria ja mikä harhaanjohtamista. Kohls on tunnettu poliittinen vaikuttaja, eikä häntä voi millään mittapuulla mitattuna pitää koomikkona tai satiirikkona. Toisaalta samaan aikaan herää kysymys, onko kaikki synteettisesti tuotettu poliittinen sisältö automaattisesti harhaanjohtavaa, vai voiko se olla myös legitiimiä yhteiskunnallista kritiikkiä, ja siten myös tervetullutta.

EU:n lähestymistapa ja taiteellinen poikkeus

EU:n tekoälyasetuksessa (2024/1689) on pyritty oppimaan Kalifornian virheistä. Asetuksen 50 artiklan mukaan tekoälyn tuottama tai muokkaama sisältö, kuten syväväärennökset, synteettiset äänet tai kuvat, ovat merkittävä keinotekoiseksi. Poikkeuksena ovat kuitenkin ilmeisen taiteelliset, luovat tai satiiriset sisällöt, joissa merkintävaatimusta on rajoitettu. Tällaisissa yhteyksissä yleisölle on riittävää ilmoittaa sopivalla tavalla, että sisältöä on tuotettu tai muokattu tekoälyn avulla, kunhan tämä ei ”estä teoksen esittämistä tai nauttimista”.

Käytännössä tämä tarkoittaa, että taiteessa, viihteessä ja luovassa ilmaisussa tekoälyn tuottamaa sisältöä saa käyttää ilman vesileimoja, kunhan yleisölle annetaan ymmärrettävä tieto materiaalin keinotekoisuudesta esimerkiksi teoksen kuvauksessa, alkuteksteissä tai muulla kontekstuaalisesti sopivalla tavalla. Näin pyritään suojaamaan yleisön oikeutta tietoon ja torjumaan harhaanjohtamista ”tappamatta taikaa”, joka on syvästi sidoksissa paitsi taiteen vapauteen myös sen kokemiseen (Euroopan komissio 2024; Fiore 2024).

Mutta ratkaisu luo yhtä monta kysymystä kuin se antaa vastausta. Ajatellaan tilannetta hetki tilannetta, jossa suomalainen elokuvaohjaaja tekee dystopiadokumentin, jossa tekoäly generoi kuvitteellisen pääministerin puheita kritiikkinä nykyisestä poliittisesta ilmapiiristä. Onko tämä taiteellista kommentaaria, joka ansaitsee poikkeuksen, vai vaarallista harhaanjohtamista, joka vaatii isot varoitustekstit? Entä jos sama video jaetaan sosiaalisessa mediassa irrallaan alkuperäisestä kontekstista? Miten siihen silloin tullaan suhtautumaan?

Kuka päättää, mikä on ”ilmeisen” taiteellista, ja millä perusteilla? Milloin Netflix-sarjan tekoälyllä nuorennettu näyttelijä vaatii merkinnän, ja milloin se on vain osa elokuvan taikaa? Onko museon virtuaalinen, tekoälypohjainen opastaja taidetta vai tietopalvelu? Se, miten taiteellinen, luova, satiirinen tai vastaava teos määritellään, jäänee sopivuuden tavoin kansallisten oikeusasteiden päätettäväksi – mikä luo epävarmuutta ja mahdollisesti 27 erilaista tulkintaa samaisesta säädöksestä (Euroopan komissio 2025).

Teknologian ja sääntelyn kilpajuoksu

Sääntelyn haasteet eivät rajoitu pelkästään juridisiin ja eettisiin kysymyksiin. Myös teknologiaan itseensä liittyy neljä keskeistä ongelmaa, jotka tekevät läpinäkyvyysvaatimusten toteuttamisesta monimutkaista. Ensinnäkin tekoälykenttä on ehtinyt jo muuttua villiksi länneksi, jonka kesyttäminen vaatisi Bass Reevesin kaltaisia kovanaamoja (ks. Wheeler 2023; Euroopan komissio 2024). Teknologia on levinnyt laajalle, työkalut ovat monien saatavilla, ja alustat, joilla sisältöä jaetaan, toimivat usein EU:n lainkäyttövallan ulkopuolella tai vähintäänkin sen harmaalla alueella.

Toisekseen tekoälyjärjestelmät hallusinoivat tietoa tavoilla, joita ei pystytä täysin ennakoimaan. Kun järjestelmä ei itsekään aina tiedä, mikä sen tuottamasta sisällöstä on totta ja mikä tarua, erilaisten varoitusten ja vesileimojen toteuttaminen ja niiden edellyttäminen voi olla helpommin sanottu kuin tehty (esim. Ji ym. 2023). Miten voi merkitä sisällön keinotekoiseksi, kun järjestelmä itse saattaa sekoittaa tosiasiat ja fiktion tavalla, jota sen luojatkaan eivät täysin ymmärrä?

Kolmanneksi vesileimat ja tekniset tunnisteet ovat alttiita manipulaatiolle. Niitä voidaan poistaa, muokata tai ohittaa sovelluksiin sisäänrakennetuilla generatiivisilla tekoälyillä tai kuvakokoa muuttamalla, ja kun sisältöä kopioidaan ja jaetaan edelleen eri alustoilla, alkuperäiset merkinnät katoavat helposti bittiavaruuteen (ks. Li ym. 2024; Hitaj 2019). Lisäksi osa tekoälyjärjestelmistä on avointa lähdekoodia, mikä tarkoittaa, että niitä voidaan muokata niin, että tunnisteet eivät koskaan päädy lopputuotteeseen.

Neljänneksi on todettava, että myös kehittyvän teknologian määritelmä tuottaa haasteita. Lainsäätäjät pyrkivät yhä toistuvasti rinnastamaan sääntelyn kehittyvän teknologian kiinteään määritelmään, joka on lähestulkoon sama asia kuin yrittäisi naulita hyytelön seinään (Bryson 2022). Generatiivisen tekoälyn kehitys on tällä hetkellä niin nopeaa, ettei kukaan pysty ennakoimaan, millaisia järjestelmiä käytössämme on kahden tai vaikkapa viiden vuoden päästä.

Prosessin läpikäynti EU:ssa ja kansallisissa parlamenteissa vie aikaa, ja kun säädökset lopulta astuvat täysimääräisesti voimaan kaikissa EU-maissa, niin teknologia on jo muuttunut sääntelyn luomishetkestä perustavanlaatuisesti. Tämä asettaa EU:lle jatkuvan haasteen pysyä kehityksen tahdissa menettämättä sääntelyn merkitystä tai kykyä ohjata kehitystä eettisesti kestävään suuntaan.

Kysymys valvonnasta ja toimeenpanosta

EU:n tekoälyasetuksen käytännön toteutus nostaa esiin myös kysymyksen valvonnasta. Vaikka asetus luo yhtenäiset säännöt, niin sen toimeenpano jää pitkälti kansallisille viranomaisille. Kuka käytännössä valvoo, että suomalaisessa taidegalleriassa sijaitseva tekoälyteos on merkitty asianmukaisesti? Entä miten sosiaalisen median alustat velvoitetaan tarkistamaan miljardeja päivittäin jaettuja kuvia ja videoita?

Lisäksi sanktiot tulevat vaihtelemaan rikkomuksen vakavuuden mukaan. Vakavimmista rikkomuksista, kuten kiellettyjen tekoälyjärjestelmien käytöstä, voidaan määrätä jopa 35 miljoonan euron sakko tai 7 prosenttia yrityksen maailmanlaajuisesta vuotuisesta liikevaihdosta (2024/1689). Läpinäkyvyysvelvoitteiden rikkomisesta sakot puolestaan ovat pienempiä, mutta silti huomattavia. Kysymys kuuluukin, käytetäänkö näitä sanktioita johdonmukaisesti, vai joutuuko EU samaan tilanteeseen kuin GDPR:n kanssa, jossa toimeenpano on ollut vaihtelevaa.

Toisaalta myös panokset ovat valtavat. Korkeat vaatimukset voivat myös koetella EU:n geopoliittista arvovaltaa globaalilla pelikentällä, mikäli niiden valvontaa ei kyetä järjestämään uskottavalla tavalla. EU yrittää luoda niin kutsuttua Brussels Effect -ilmiötä, jossa sen sääntelystandardi leviää globaaliksi käytännöksi samoin kuin GDPR teki tietosuojan suhteen (Murphy 2025; Li & Chen 2024; Bradford 2019). Mutta jos kiinalaiset tai yhdysvaltalaiset tekoäly-yritykset jättävät EU:n markkinat huomiotta tai luovat sisältöä, joka kiertää asetuksen vaatimukset, niin sääntely jää hampaattomaksi. On myös riski, että eurooppalaiset luovat yritykset siirtävät toimintaansa lainkäyttöalueille, joissa sääntely on kevyempää.

Teknologia, joka ei tunne itseään

EU:n tekoälyasetus pyrkii luomaan selkeyttä maailmaan, joka on luonteeltaan epäselvä – sekä teknisesti että kulttuurisesti. Tekoälyn hallusinaatio-ongelma tekee läpinäkyvyydestä lähes filosofisen paradoksin, sillä miten jokin voi olla läpinäkyvä, kun ei itsekään tiedä, mikä on läpinäkyvää tai millaista sisältöä se tuottaa.

Samalla myös kulttuurinen kysymys syvenee. Ihmiskunta on aina käyttänyt keinotekoisia keinoja taiteen ja tarinankerronnan tehostamiseen – teatterimeikeistä erikoistehosteisiin, väärennöksistä ja trompe-l’œil-maalauksista digitaalisiin efekteihin. Mikään näistä ei ole ”aitoa” siinä mielessä, että ne pyrkivät kaikki luomaan illuusion tai taikuuden, joka ylittää todellisuuden.

Tästä näkökulmasta tarkasteltuna synteettinen media ja syväväärennökset voivat parhaimmillaan jopa rikastaa kulttuurista kerrontaa sen sijaan, että ne pelkästään uhkaavat sitä. Ajatellaan esimerkiksi dokumenttia, jossa tekoäly elvyttää kuolleen kielen ja antaa historian hahmojen puhua omilla äänillään opetuksellisessa kontekstissa. Tai taideteosta, joka käyttää synteettistä mediaa kommentoidakseen yhteiskunnan suhdetta teknologiaan. Entäpä elokuva, jossa ikääntynyt näyttelijä voi jatkaa rooliaan digitaalisesti nuorennettuna?

Kysymys paljastaa sääntelyn taipumuksen mustavalkoiseen ajatteluun. Kaikki synteettinen sisältö ei ole harhaanjohtavaa. Ongelma ei ole teknologia itsessään, vaan kontekstit ja tavat, joilla sitä käytetään. Samat työkalut, jotka voivat uhata demokratiaa, voivat myös edistää taidetta, koulutusta ja kulttuurin säilyttämistä.

Kohti kontekstisidonnaista etiikkaa

Pahimmillaan EU:n tekoälyasetus synnyttää syvän jännitteen kahden tärkeän arvon välille. Toisaalla on demokraattinen vaatimus totuudesta ja läpinäkyvyydestä, ja toisaalla taas oikeus mielikuvitukseen ja illuusion luomiseen (Helberger, Pierson & Poell 2018). Mutta ehkä juuri tämä jännite pakottaa meidät ajattelemaan tarkemmin, mitä todella haluamme suojella, kun säätelemme tekoälyä ja sen sisältöä.

Ratkaisu ei välttämättä löydy teknologian tiukemmasta sääntelystä, vaan kontekstin paremmasta ymmärtämisestä. Sen sijaan, että kysymme ”onko tämä tekoälyä”, meidän tulisi kysyä, mihin tarkoitukseen tätä käytetään, kenelle tämä on tehty ja kuka on yleisö, ja mikä on käytön todennäköinen vaikutus eri sidosryhmiin.

Sama deepfake-video voi olla vaarallista disinformaatiota poliittisessa kampanjassa, mutta täysin hyväksyttävää satiirisessa keskusteluohjelmassa tai opetuksellisessa kontekstissa, jossa sen tarkoitus on nimenomaan kritisoida manipulaation mahdollisuutta. Samoin tekoälyllä nuorennettu näyttelijä palvelee taiteellista visiota, mutta sama teknologia voisi olla vahingollista, jos sitä käytetään luomaan väärennös, jossa henkilö näyttää tekevän jotain, mitä hän ei ole koskaan tehnyt.

EU:n tekoälyasetus edustaa ensimmäistä todellista yritystä navigoida näissä ristiaallokossa. Sen suurin haaste ei ole tekninen vaan pohjimmiltaan filosofinen: miten kykenemme suojelemaan totuutta tappamatta luovuutta, ja miten voimme tuoda läpinäkyvyyttä digitaalisen maailman pimeimpiin nurkkauksiin säilyttäen samalla illuusion ja taikuuden voiman?

Vastaus ei löydy pelkästään vesileimoista tai varoitusteksteistä, vaan ymmärryksestä, että synteettisen median etiikka ei ole kiinni teknologiasta itsessään, vaan siitä, millaisissa käsissä ja millaisiin tarkoituksiin sitä käytetään. Läpinäkyvyys on arvokas tavoite, kunhan se ei samalla tuhoa taikaa, joka tekee taiteesta ja kulttuurista merkityksellistä.

Taikuri voi kuiskata yleisölle taikansa olevan illuusio, ja silti lumous voi onnistua, jos katsoja ymmärtää kontekstin ja päättää antautua kokemukselle. Samoin tekoälyn tuottama sisältö voi olla merkittyä ja silti vaikuttavaa, jos merkintä ei tapa tarkoitusta vaan kirkastaa sitä. EU:n tekoälyasetuksen lopullinen onnistuminen riippuu siitä, osaako se tehdä tämän eron – erottaa harhaanjohtamisen taikatemput niistä taikatempuista, jotka rikastuttavat inhimillistä kokemusta.

Lähteet

Bird, R., & Bodo, B. (2023). The European Union’s Artificial Intelligence Act: A new paradigm for regulating AI. European Journal of Risk Regulation, 14(1), 1–20. Cambridge University Press.

Bradford, A. (2019). The Brussels Effect: How the European Union Rules the World. Kirja on julkaisut 19 joulukuuta 2019. Oxford. Oxford University Press.

Bryson, J. J. (2022): Europe is in Danger of Using the Wrong Definition of AI. Julkaistu Wired-verkkolehdessä 2. maaliskuuta 2022. Viitattu 3. lokakuuta 2025.

EU Artificial Intelligence Act. (2024). High-level summary of the AI Act. Brysseli. Euroopan unioni. Julkaistu verkkosivuilla 27. helmikuuta 2024. Viitattu 3. lokakuuta 2025.

Euroopan komissio. (2024). Artificial Intelligence Act: EU countries give final green light to the Commission’s proposal. Brysseli

Euroopan komissio (2025). Governance and enforcement of the AI Act. Euroopan komissio. Brysseli. Sivusto päivitetty 25. heinäkuuta 2025. Viitattu 3. lokakuuta 2025.

Castelluccia, C. & Le Métayer, D. (2019). Understanding algorithmic decision-making: Opportunities and Challenges. Euroopan parlamentin tutkimuspalvelut. Brysseli. Euroopan parlamentti.

Algorithmic decision-making and transparency in the EU: Impacts, ethics and governance challenges. Brysseli. Euroopan parlamentti.

Fiore, M. (2024). Attempts to stop ”Fake News” may threaten satire. Stanford Journalism Fellowships. Standfordin yliopisto. Julkaistu 10. joulukuuta 2024. Viitattu 3. lokakuuta 2025.

Helberger, N., Pierson, J., & Poell, T. (2018). Governing online platforms: From contested to cooperative responsibility. The Information Society, 34(1), 1–14. Oxfordshire. Taylor & Francis.

Hitaj, D., Hitaj, B. & Mancini, L.V. (2019). Evasion Attacks Against Watermarking Techniques found in MLaaS Systems. 2019 Sixth International Conference on Software Defined Systems (SDS), Rome, Italy, 2019, pp. 55-63.

Ji, Z., Lee, N., Frieske, R., Yu, T., Su, D., Xu, Y., Ishii, E., Bang, Y. J., Madotto, A., & Fung, P. (2023). Survey of hallucination in natural language generation. ACM Computing Surveys, 55(12), 1–38.

Kim, T.W. & Routledge, B.R. (2022). Algorithmic transparency, informed consent, and the right to explanation. Julkaistu Business Ethich Quarterlyssa 5. toukokuuta 2021. Cambridge University Press & Assessment.

Korte, L. (2024). Creator of Kamala Harris parody video sues California over election ’deepfake’ ban. Julkaistu Politicossa 18. syyskuuta 2024. Viitattu 3. lokakuuta 2025.

Leslie, D. (2019). Understanding artificial intelligence ethics and safety: A guide for the responsible design and implementation of AI systems in the public sector. The Alan Turing Institute.

Li, G. & Chen, J. (2024). From brussels effect to gravity assists: Understanding the evolution of the GDPR-inspired personal information protection law in China. Computer Law & Security Review, 54, 105048. Elsevier.

Li, G., Chen, Y., Zhang, J., Guo, S., Qiu, H., Wang, G., Li, J. & Zhang, T. (2023). Warfare: Breaking the Watermark Protection of AI-Generated Content. arXiv:2310.07726. arXiv.

Milmo, D. (2024). Elon Musk accused of spreading lies over doctored Kamala Harris video. Julkaistu The Guardianissa 29. heinäkuuta 2024. Viitattu 3. lokakuuta 2025.

Murphy, R. (2025). Mapping the Brussels Effect: The GDPR Goes Global. Julkaistu Center of European Policy Analysisin (CEPA) verkkosivuilla. Päivitetty viimeksi 7. elokuuta 2025. Viitattu 3. lokakuuta 2025.

Zeff, M. (2024). Judge blocks California’s new AI law in case over Kamala Harris deepfake. Julkaistu Tech Crunchissa 2. lokakuuta 2024. Viitattu 3. lokakuuta 2025.

Wheeler, T. (2023). The three challenges of AI regulation. Julkaistu Brookings Instituution verkkosivuilla 15. kesäkuuta 2023. Viitattu 3. lokakuuta 2025.

Martti Asikainen

Communications Lead
+358 44 920 7374
martti.asikainen@haaga-helia.fi

White logo of Finnish AI Region (FAIR EDIH). In is written FAIR - FINNISH AI REGION, EDIH
Euroopan unionin osarahoittama logo

Finnish AI Region
2022-2025.
Media contacts