Puolet työntekijöistäsi käyttää tekoälytyökaluja ilman lupaasi. Joka neljäs rikkoo tietoisesti yrityksen ohjeita. Lähes puolet lataa arkaluontoista yritystietoa julkisiin tekoälyalustoihin. Keskusteluihin noussut varjotekoäly ei ole hypoteettinen riski, vaan todellisuutta lähes jokaisessa yrityksessä.
Martti Asikainen 13.2.2026 | Kuva: Adobe Stock Photo
Kuvittele tavallinen tiistai toimistollasi. Markkinointipäällikkö kysyy ChatGPT:ltä apua kampanjan suunnitteluun ja liittää mukaan viime vuoden myyntidataanne. Kehitystiimin juniori muhkeine viiksineen kopioi yrityksenne patentoimaa koodia Claudeen debuggausta varten. HR-vastaava käyttää tekoälyä kiteyttämään luottamuksellisia rekrytointimuistiinpanoja.
Kukaan heistä ei kysy lupaa, eikä kukaan kerro mitä teki. Tämä ei suinkaan ole hypoteettinen skenaario, vaan todellisuutta lähes jokaisessa yrityksessä tällä hetkellä. Tutkimukset osoittavat, että yritysjohtajat aliarvioivat systemaattisesti sitä, kuinka laajasti heidän henkilöstönsä käyttää generatiivista tekoälyä. Joidenkin arvioiden mukaan todellinen käyttö voi olla jopa moninkertainen siihen nähden, mitä johto kuvittelee (Mishova 2025).
Myös KPMG:n tutkimus paljastaa karun totuuden: jopa puolet työntekijöistä käyttää tekoälytyökaluja ilman työnantajansa lupaa. Vielä hälyttävämpää on se, että jopa 44 % rikkoo tietoisesti yrityksen ohjeita tekoälyn käytöstä työnkulkuja parantaakseen. Lisäksi lähes puolet kaikista työntekijöistä lataa arkaluontoista yritystietoa julkisiin tekoälyalustoihin (KPMG 2025). Toisin sanoen on hyvin todennäköistä, että myös sinun työntekijäsi toimivat näin.
Ilmiön laajuus kertoo, ettei kyse ole yksittäisten työntekijöiden ongelmasta, vaan systeemisestä puutteesta. Ilman johdon tarjoamia selkeitä ohjeita ja turvallisia työnkulkuja työntekijät joutuvat ratkaisemaan tarpeitaan omaehtoisesti. Tästä voi seurata kaaos, jossa varjotekoäly uhkaa levitä hallitsemattomasti yrityksen sisällä, ja jonka myötä arkaluontoiset tiedot saattavat päätyä vääriin käsiin (Khan & Asikainen 2026).
On aika tunnustaa tosiasiat. Työntekijät käyttävät tekoälyä, halusimmepa sitä tai emme. Mutta kun he ottavat tekoälytyökaluja käyttöönsä ilman ohjaustasi tai ymmärrystä niiden rajoituksista, niin he eivät ainoastaan tehosta työtään, vaan altistavat samalla yrityksesi huomattaville riskeille. Vastaavia tapauksia löytyy lukemattomia.
Yksi ensimmäisistä kohuista nousi esiin vuonna 2023. Tuolloin kävi ilmi, että joukko elektroniikkajätti Samsungin insinöörejä oli käyttänyt ChatGPT:tä koodinsa debuggaukseen, ja jakanut mallille erittäin luottamuksellista lähdekoodia sekä sisäisiä muistiinpanojaan (Gurman 2023; Ray 2023). Heidän käytössään ChatGPT:n ilmainen versio, jonka vuoksi tiedot päätyivät osaksi mallin koulutusmateriaalia.
Vastaavia tapauksia löytyy muitakin. Esimerkiksi Amazonin työntekijät olivat käyttäneet ChatGPT:tä luottamuksellisten AWS-dokumenttien tiivistämiseen. Tämän seurauksena tekoäly alkoi vastailla sisällöillä, jotka muistuttivat kammottavan paljon korporaation sisäisiä dokumentteja (Kim 2023). Eri foorumeilla on esitetty väitteitä, että mallista on yhä mahdollista kaivaa esiin AWS:n lähdekoodia.
Yhteinen nimittäjä tapauksille on tietämättömyys. Kukaan ei yrittänyt vuotaa arkaluontoisia tietoja kenellekään, mutta tekoäly teki siitä liian helppoa, jonka vuoksi vahinko pääsi tapahtumaan. Tästä samaisesta syystä esimerkiksi investointipankki JPMorgan Chase kielsi kaikki ulkoiset tekoälytyökalut työntekijöiltään ja kehitti omat turvalliset ratkaisunsa (Rosen 2023). Samaan johtopäätökseen päätyi myös Apple (Tilley & Kruppa 2023).
Tietoturva ei suinkaan ole generatiiviseen tekoälyyn perustuvien mallien ainoa haaste, kun puhutaan työntekijöistä ja heidän työnkuluistaan. Myös käyttö ilman riittävää ymmärrystä sen toimintalogiikasta voi aiheuttaa tarpeetonta stressiä ja pääkipua, ja johtaa jopa päätöksiin, jotka perustuvat virheelliseen tietoon. Kielimallit ovat tunnettuja niiden hallusinaatioistaan, ja ne kykenevät tuottamaan vakuuttavan kuuloista, mutta täysin keksittyä tietoa.
Pahinta on kuitenkin se, että me ihmiset olemme erityisen taipuvaisia uskomaan sen tarjoamia vastauksia (Bender ym. 2021; Asikainen 2026). Useat tutkimukset ovat osoittaneet, että myös kriittiseen ajatteluun nojaavat ihmiset uskovat tekoälyn antamiin vastauksiin erityisesti silloin, kun vastaus on muotoiltu sujuvasti ja vakuuttavasti, eikä se ole kysyjän henkilökohtaista erityisalaa (Zou ym. 2023; Ovide 2025). Tekoälymallit myös vahvistavat koulutusdatansa vinoumia, joka voi tehdä niiden antamista vastauksista ennakkoluuloisia ja puolueellisia (Carlini ym. 2023; Qiang et al. 2024; Zhou ym. 2025).
Tosielämäsä löytyy useita tapauksia, joissa algoritmit ovat toistaneet historiallisia palkkauskäytäntöjä, ja jopa syrjineet tiettyjä demografisia ryhmiä, kuten kävi esimerkiksi Amazonin kohdalla, jonka rekrytointialgoritmit syrjivät naisia (Dastin 2018). Samalla tavoin esimerkiksi asiakaspalvelut chatbotit voivat väärien algoritmien kanssa tarjota syrjivästi erilaisia palveluita eri kielitaustoista tuleville asiakkaille.
Yrityksessä tämä puolestaan voisi näkyä esimerkiksi tapahtumaketjuna, jossa lakiosaston työntekijä turvautuu kielimalliin tehdäkseen lainopillisen selvityksen, mutta hän unohtaa tarkistaa lähteet. Tämän myötä yritys päätyy rikkomaan lakia tai toimimaan epäeettisesti, ja joutuu tästä edesvastuuseen. Tai jos talousosaston tuore asiantuntija tuottaa sillä analyysin ymmärtämättä rajoituksia, niin investointipäätökset voivat mennä täysin metsään.
Tekoälyn käyttö organisaatioissa ilman virallista valvontaa tai hyväksyntää on noussut yhdeksi merkittävimmäksi 2020-luvun operatiiviseksi riskiksi yrityksissä. Toisin kuin perinteiset IT-riskit, joissa vaarantuneet järjestelmät havaitaan melko nopeasti, tekoälyn kautta tapahtuneet vuodot ja muut loukkaukset toimivat hiljaa taustalla, kunnes jokin menee pieleen.
Ilman kriittistä ymmärrystä tekoälysovellusten riskeistä organisaatio voi tahtomattaan rikkoa koko kellokoneistonsa aina yhdenvertaisuuslainsäädännöstä brändiinsä ja maineeseensa (Noble 2018; Benjamin 2019). Esimerkiksi Suomessa vain 26 % suomalaisista kokee omaavansa riittävät taidot tekoälyn hyödyntämiseen (KPMG 2025).
Tästä syystä jokaisen yrityksen tulisi ottaa EU:n tekoälysäädöksessä EU 2024/1689 työantajille asettamat tekoälylukutaidon vähimmäisvaatimukset tosissaan. Kysymys ei ole enää siitä, käytetäänkö tekoälyä yrityksessänne. Kysymys on siitä, käytetäänkö sitä turvallisesti, tehokkaasti ja vastuullisesti – vai pimeässä, ilman minkäänlaista ymmärrystä seurauksista.
Ratkaisu ei ole kieltää tekoälyn käyttöä. Ratkaisu on rakentaa yritykseenne ihmispalomuuri ja kehittää tekoälylukutaitoa, joka suojaa yritystänne riskeiltä ja samalla mahdollistaa tekoälyn tuoman tehokkuusloikan.
Seuraavassa osassa kerromme, mitä tekoälylukutaito tarkoittaa käytännössä, miten se liittyy EU:n tekoälyasetukseen, ja miten onnistut rakentamaan sen neljän konkreettisen askeleen kautta.
Communications Lead
Finnish AI Region
+358 44 920 7374
martti.asikainen@haaga-helia.fi