Tekoälysi saattaa valehdella sinulle — näin kielimalleja manipuloidaan

Tekoälyjärjestelmien manipulointi altistaa yritykset uusille maineuhille, kun kielimallien groomaus yleistyy. Järjestelmällinen hyväksikäyttö disinformaation, propagandan ja valheiden levittämiseen ovat jo arkipäivää. Lue asiantuntijoille suunnattu koko artikkeli yksityiskohtaisine suosituksineen täältä.

People and robots grooming an LLM. Cartoonish picture.

Martti Asikainen, 1.6.2025

Nauha, jossa FAIR:in yhteistyökumppanien logot.

Kuvitteleppa hetki, jossa yrityksesi asiakaspalvelubotti alkaa latomaan outoja terveysneuvoja tai toistaa salaliittoteorioita? Tai sisäinen tekoälytyökalunne suosittelee strategisia päätöksiä, jotka tosiasiassa hyödyttävät kilpailijaanne? Tämä ei ole enää tieteisfiktiota, vaan totisinta totta.

Yritysten käyttämät tekoälytyökalut ovat alttiita järjestelmälliselle manipuloinnille, joka voi johtaa vääriin päätöksiin ja talouteen kohdistuviin uhkiin. Ilmiö, joka tunnetaan nimellä LLM-groomaus, on levinnyt kansallisista propagandakampanjoista arkipäiväisiin liiketoimintariskeihin.

Pohjoismainen faktantarkistusverkosto EDMO NORDIS paljasti taannoin, että venäläinen disinformaatio on tunkeutunut onnistuneesti laajasti käytettyihin kielimalleihin. Kielimallit tunnistivat yleisimmät narratiivit, kun niille esitettiin kysymyksiä pohjoismaisilla kielillä.

Yrityssabotaasin uusi aikakausi

FAIRin asiantuntija Martti Asikainen varoittaa, ettei uhka rajoitu pelkästään valtiolliseen vaikuttamiseen. Myös yritykset voivat manipuloida tekoälytyökaluja omaksi edukseen.

–  Kilpaileva yritys voi manipuloida esimerkiksi ChatGPT:tä suosittelemaan omia tuotteitaan – tai jopa levittämään harhaanjohtavaa tietoa kilpailijastaan, Faktabaarin entinen faktantarkistaja ja eurooppalaisen SOMA-verkoston jäsen selittää.

Asikaisen mukaan kyse ei ole vain teknisestä haavoittuvuudesta, vaan suorasta hyökkäykestä kaikkea tiedon uskottavuutta vastaan, joka tapahtuu viranomaisten tutkan alapuolella. Monet ovat siirtyneet perinteisemmistä hakukoneista tekoälytyökalujen hyödyntämiseen tiedonhaussa.

Seurauksia pohtiessa on huomioitava, että pelkästään ChatGPT:llä on lähes 800 miljoonaa kuukausittaista käyttäjää, joten vaikutusten mittakaava voi olla valtava. Yksi onnistunut manipulointikampanja voi saavuttaa miljoonia ihmisiä muutamassa tunnissa.

– Kuvittele toimitusjohtaja, joka tekee merkittävän investointipäätöksen tekoälyn laatiman analyysin perusteella – analyysin, joka on huomaamatta suunniteltu suosimaan kilpailijaa, hän varoittaa.

Kolme vakavaa liiketoimintariskiä

Asikaisen mukaan manipuloidut kielimallit voivat aiheuttaa yrityksille tuhoa kolmella tavalla:

    1. Brändi voi romahtaa hetkessä, jos tekoälyavustaja alkaa levittämään vääriä terveysväitteitä tai salaliittoteorioita. Seurauksena on välitön ja laaja PR-kriisi. Erityisesti korkean luottamuksen aloilla – kuten terveydenhuollossa, rahoituksessa tai lääketeollisuudessa – maineen menetys voi olla pysyvä.

    1. Tuotteen luotettavuus kyseenalaistuu, mikäli manipuloitu tekoäly antaa virheellisiä, ristiriitaisia tai jopa vaarallisia vastauksia. Äärimmillään järjestelmään on voitu upottaa piilotettu laukaisija ja nukkuva agentti, joka muuttaa sen toimintaa tietyssä tilanteessa – täysin huomaamatta.

    1. Johtopäätökset vääristyvät: Tekoälyä käytetään yhä useammin päätöksenteon tukena. Jos mallin tietopohja on saastunut, myös sen tuottama analyysi on vinoutunutta.

Propaganda tulvii verkkoon

NewsGuardin tutkimus paljasti aikaisemmin tänä vuonna hätkähdyttävän tosiasian. Sen löytöjen mukaan yli kolmasosa tiettyjen tekoälymallien vastauksista sisälsi harhaanjohtavia narratiiveja.

Taustalla toimii Kremlin tukema Pravda-verkosto, joka kattaa 182 verkkotunnusta 74 maassa. Verkosto julkaisee sisältöä tusinalla kielellä ja tuottaa arviolta 3,6 miljoonaa propagandajulkaisua vuodessa.

Nämä artikkelit eivät jää vain omien sivustojensa vangeiksi. Ne päätyvät systemaattisesti kaupallisten tekoälymallien koulutusdataan verkkosivujen indeksoinnin ja automaattisen tiedonkeruun kautta.

– Kun tekoäly kohtaa saman valheellisen väitteen satoja tai tuhansia kertoja eri lähteissä, se alkaa pitää sitä totena, Asikainen selittää ilmiön psykologiaa.

Lue asiantuntijoille suunnattu versio artikkelista täältä.

White logo of Finnish AI Region (FAIR EDIH). In is written FAIR - FINNISH AI REGION, EDIH
Euroopan unionin osarahoittama logo

Finnish AI Region
2022-2025.
Media contacts