Algoritminen johtaminen herättää pelkoja, mutta parhaimmillaan se voi tehdä johtamisesta oikeudenmukaisempaa kuin ihmisjohtaminen. Kun rutiinit automatisoituvat, johtajille jää enemmän aikaa siihen, mikä on tärkeintä: ihmisten johtamiselle ja strategiselle ajattelulle.
Teksti: Martti Asikainen, 5.11.2025 | Kuva: Adobe Stock Photos
Algoritminen johtaminen on yleistynyt viime vuosina huimaa vauhtia. Parhaimmillaan se voi tekoälyn kanssa toimia johtajien sparraajana ja rutiinien helpottajana. Se voi esimerkiksi seurata työhyvinvointia ja nostaa esiin keskustelun tarpeen, kun poissaoloja alkaa kertymään.
Lisäksi se voi muistuttaa merkkipäivistä ja auttaa työvuorosuunnittelussa. Myös laajoja työtyytyväisyyskyselyiden tuloksia on helpompi tulkita algoritmien avulla, ja henkilökohtainen osaamisen kehittäminenkin voi saada täysin uudenlaisia ulottuvuuksia, kun se yhdistetään älykkääseen datan käyttöön.
Nämä kuulostavat ehkä pieniltä asioilta, mutta niiden merkitys on suuri. Johtajat käyttävät valtavan määrän aikaa ja energiaa hallinnollisiin rutiineihin, jotka eivät varsinaisesti vaatisi inhimillistä harkintaa, mutta jonkun nekin on tehtävä. Kun algoritmi hoitaa aikataulutuksen, esihenkilö voi keskittyä kysymään työntekijältä, miten tämän projektissa oikeastaan menee. Kun järjestelmä tunnistaa hyvinvointiriskit datasta, niin esihenkilö voi käyttää aikansa varsinaiseen tukikeskusteluun numeroiden sijaan (esim. Jarrahi ym. 2023).
OECD:n raportin (2025) mukaan Yhdysvalloissa jo 90 prosenttia yrityksistä käyttää algoritmisia johtamisjärjestelmiä, Euroopassa 79 prosenttia ja Japanissakin 40 prosenttia. Noin 60 prosenttia esihenkilöistä kokee päätöksenteon laadun parantuneen algoritmisten työkalujen myötä, kun data on paremmin saatavilla ja sitä voi hyödyntää reaaliaikaisesti. Tulos on kuitenkin esihenkilöiden subjektiivinen kokemus, eikä se kerro työntekijöiden kokemuksista johdettavana.
Algoritminen johtaminen voi säästää aikaa ja parantaa laatua. Tärkeintä on kuitenkin se, että kone voi olla ihmistä tasapuolisempi johtaja. Se käsittelee dataa ennakkoon asetettujen rajojen ja parametrien mukaan, ilman henkilökohtaisia ennakkoluuloja tai hetkellisiä mielialoja, joka voi tuoda työpaikoille kaivattua objektiivisuutta esimerkiksi rekrytoinnissa tai suoritusarvioinneissa.
Ihmiset ovat luontaisesti puolueellisia. Meillä kaikilla on omat suosikkimme, omat ennakkoluulomme ja huonot päivämme, jolloin olemme kärsimättömämpiä kuin tavallisesti. Hyvä johtaja tiedostaa nämä vinoumat ja pyrkii korjaamaan niitä, mutta täydellistä objektiivisuutta on mahdotonta saavuttaa. Algoritmi taas kohtelee kaikkia täsmälleen samalla tavalla, eikä se välitä siitä, oletko sen suosikki tai onko sinulla huono päivä meneillään.
Haaga-Helian tutkimuksen ennakkotiedot vahvistavat, että työntekijöiden suhtautuminen algoritmiseen johtamiseen on monelta osin myönteistä, ja tuloksissa korostuu kokemus oikeudenmukaisuudesta (Asikainen & Lahtinen 2025). Järjestelmien koetaan kohtelevan työntekijöitä tasapuolisemmin kuin ihmisjohtajien. Erityisesti kannustavaan ja kontrolloivaan johtamiseen liittyvät tehtävät, kuten esimerkiksi työtehon mittaaminen tai tavoitteiden asettaminen, nähdään alueina, joissa algoritmipohjainen järjestelmä voi jopa ylittää ihmisen suorituksen.
Samansuuntaisia tuloksia on saatu myös kansainvälisesti. Esimerkiksi Amazonin varastotyöntekijöitä koskeva tutkimus osoittaa, että erityisesti hyvin suoriutuvat ja kokeneet työntekijät sekä aloittelijat arvioivat algoritmisten järjestelmien legitimiteetin myönteisesti juuri oikeudenmukaisuuden näkökulmasta (Hirsch et al. 2023). Tämä viittaa siihen, että kun järjestelmät toimivat läpinäkyvästi ja johdonmukaisesti, ne voivat myös lisätä luottamusta työnantajaan, vaikka työolosuhteet olisivatkin haastavat ja tehokkuusvaatimukset korkeat.
Tämä ei kuitenkaan tarkoita sitä, että algoritmit olisivat automaattisesti oikeudenmukaisia. Huonosti suunniteltu järjestelmä voi vahvistaa olemassa olevia ennakkoluuloja tai luoda uusia niiden tilalle. Mikäli rekrytointialgoritmia koulutetaan datalla, jossa tietyt ryhmät ovat aliedustettuina tai esitetään huonossa valossa, niin se oppii luontaisesti syrjimään. Jos suoritusarviointi taas perustuu vain määrällisiin mittareihin, niin se suosii niitä, joiden työ on helposti mitattavissa, ja rankaisee niitä, joiden panos on laadullisempaa ja innovatiivisempaa.
Teknologian hyödyntämisessä on syytä noudattaa varovaisuutta. Läpinäkyvyys, yksityisyys ja oikeudenmukaisuus on asetettava peruspilareiksi. Vaikka algoritmit voivat olla tasapuolisempia kuin ihmiset, niin ne heijastavat silti tekijöidensä arvoja ja oletuksia. Tässä lepää myös niiden mahdollisuus, jota ei tulisi vähätellä johtajuudesta puhuttaessa. Kun ihminen tekee puolueellisen päätöksen, sitä on lähes mahdoton todistaa tai haastaa. Algoritmien kohdalla tilanne on toinen.
Kun algoritmi tekee päätöksen, niin voimme tarkastella sen logiikkaa, testata sitä eri skenaarioilla ja korjata siinä olevia vikoja. Läpinäkyvä algoritmi on helpompi pitää vastuullisena kuin läpinäkymätön ihminen. Tutkimukset ovat osoittaneet, että läpinäkyvyyden puute voi heikentää merkittävästi työilmapiiriä ja luottamusta työnantajaa ja johtoa kohtaan, joka puolestaan heikentää sitoutumista ja motivaatiota (Parent-Rocheleau & Parker 2022; McParlja & Connolly 2019).
Tämä ei kuitenkaan tarkoita, etteikö ongelmiakin olisi. OECD:n tutkimuksessa kaksi kolmesta esimiehestä mainitsi vähintään yhden eettisen tai hallinnollisen ongelman algoritmisen johtamisen yhteydessä. Yleisimmät huolet liittyvät vastuunjakoon virhetilanteissa, päätösten läpinäkyvyyteen ja työntekijöiden hyvinvointiin. Kysymys siitä, kuka vastaa, jos algoritmi tekee virheen, on edelleen ratkaisematta monissa organisaatioissa.
Positiivista on kuitenkin se, että suurin osa yrityksistä on ryhtynyt toimenpiteisiin. OECD:n raportin (2025) mukaan 89 prosenttia organisaatioista kertoo omaavansa jonkinlaisen ohjeistuksen algoritmisten työkalun käyttöön. Yleisimmät käytännöt ovat käyttöohjeiden laatiminen, työntekijöiden kuuleminen ja säännölliset auditoinnit. Tämä osoittaa, että tietoisuus ongelmista on olemassa ja niitä pyritään ennakoimaan.
Algoritmisessa johtamisessa tekoäly voi analysoida dataa ja ehdottaa ratkaisuja, mutta se ei voi ymmärtää työyhteisön dynamiikkaa tai yksilöllisiä tarpeita samalla tavalla kuin ihminen. Kuvitellaanpa hetki mielessämme tilanne, jossa algoritmi havaitsee tietyn työntekijän tuottavuuden laskeneen 20 prosenttia viimeisen kolmen kuukauden aikana. Se nostaa asian esiin ja ehdottaa toimenpiteitä. Tämä on hyödyllistä, koska asia ei jää tuolloin huomaamatta.
Mutta mitä sen jälkeen pitäisi tapahtua? Ihmisjohtajan tulisi käydä työntekijän kanssa keskustelu. Ehkä työntekijä kamppailee henkilökohtaisen kriisin kanssa. Ehkä hän on turhautunut, koska hänen laadullisesti parasta työtään ei mitata lainkaan. Tai kenties hän on uupunut, koska viime kuukausina hän on joutunut tekemään kahden ihmisen työt. Algoritmi voi olla sokea tällaisille tekijöille, koska se näkee vain ja ainoastaan ne numerot, joita sitä on pyydetty tarkastelemaan.
Siinä mielessä hyvä johtaminen syntyy siitä, että yhdistetään datan tarjoama objektiivisuus ja ihmisen tarjoama ymmärrys. Näin ollen tekoäly ei korvaa johtajia, vaan tekee heistä parempia. Kun rutiinit automatisoituvat, niin aikaa jää enemmän strategiselle ajattelulle ja ihmisten johtamiselle. Tämä on mahdollisuus, jota ei tulisi hukata pelkäämällä teknologista kehitystä tai käyttämällä sitä väärin, kuten esimerkit maailmalta osoittavat (esim. Harrington 2021; Soper 2021; Hirsch 2024).
Algoritmisen johtamisen yleistyessä myös sääntelyn on kehityttävä. Esimerkiksi EU:n tekoälyasetus asettaa tiukkoja vaatimuksia korkean riskin tekoälyjärjestelmille, joihin kuuluvat myös työnhakua ja työntekijöiden hallinnointia koskevat sovellukset (EU 2024/1689). Järjestelmien on oltava läpinäkyviä, turvallisia ja ihmisen valvonnassa. Tästä syystä organisaatioiden onkin syytä varautua siihen, että vaatimukset läpinäkyvyydelle ja työntekijöiden oikeuksille tulevat tiukkenemaan lähitulevaisuudessa.
Myös Suomessa työsuojeluviranomaiset ovat alkaneet kiinnittämään huomiota algoritmisen johtamisen vaikutuksiin. Esimerkiksi Suomen työturvallisuuslaki edellyttää työnantajaa huolehtimaan siitä, että työntekijöiden henkinen kuormitus pysyy kohtuullisena – myös silloin, kun työtä johdetaan algoritmisesti (TTL 738/2002, 8 § ja 25 §; Työterveyslaitos 2023). Yleinen tietosuoja-asetus puolestaan suojaa työntekijöiden henkilötietoja ja antaa heille oikeuden vaatia ihmisen tekemää arviointia automaattisten päätösten sijaan (EU 2016/679).
Työntekijöillä on oikeus saada tietoa päätöksenteosta ja vaatia ihmisen arviointia automaattisten päätösten sijaan. Sääntely ei ole este kehitykselle, vaan tapa varmistaa, että teknologian hyödyt jakautuvat tasaisesti ja haitat minimoidaan (Euroopan komissio 2021; OECD 2022).
Kysymys ei ole enää siitä, pitäisikö johtamisen olla joko inhimillistä tai algoritmista. Paras tulos syntyy, kun yhdistämme molempien vahvuudet, jolloin kone tuo mukanaan johdonmukaisuuden ja tehokkuuden, ja ihminen empatian ja ymmärryksen. Oikein hyödynnettynä algoritminen johtaminen voi jopa parantaa työelämän laatua (Immonen 2024). Kun hyväksymme tämän tosiasian, niin meidän on mahdollista rakentaa työpaikkoja, joissa teknologia palvelee ihmisiä, eikä päinvastoin.
OECD:n raportti (2025) kannustaa meitä kokeilemaan, mutta samalla se muistuttaa meitä siitä, ettei teknologia itsessään ratkaise johtamisen ongelmia, ja että pahimmassa tapauksessa se voi jopa luoda niitä roppakaupalla lisää. Tärkeintä on, että organisaatiot omaksuvat algoritmisen johtamisen strategisesti ja eettisesti kestävällä tavalla, sillä kyse ei ole vain tehokkuudesta, vaan myös vallasta. Siitä, kuka määrittelee työntekijöiden tavoitteet, kuka tulkitsee datan, ja kuka kantaa vastuun koneen tekemistä päätöksistä.
Suomella on kaikki mahdollisuudet ottaa edelläkävijän rooli ja rakentaa tulevaisuuden johtamismalleja, joissa teknologia palvelee ihmisiä arvojemme mukaisesti ja algoritmit toimivat työkaluina vallankäyttäjien sijaan. Vahva luottamuskulttuuri, korkea digitalisaation taso ja perinteisesti toimiva työelämän yhteistyö luovat erinomaisen pohjan vastuullisen algoritmisen johtamisen kehittämiselle.
Asikainen, M. & Lahtinen, A. (2025). Algorithmic management spreads across Finnish workplaces – younger workers show greater acceptance than their older colleagues. Julkaistu STT:n verkkosivuilla (Suomen Tietotoimisto) 16.6.2025. Haaga-Helia ammattikorkeakoulun lehdistötiedote. Viitattu 27.10.2025..
Euroopan unioni. (2016). Regulation (EU) 2016/679 of the European Parliament and of the Council (General Data Protection Regulation). Official Journal of the European Union.
Euroopan unioni. (2024). Regulation (EU) 2024/1689 of the European Parliament and of the Council on artificial intelligence (AI Act). Official Journal of the European Union.
Euroopan komissio. (2021). Proposal for a Regulation laying down harmonised rules on artificial intelligence (Artificial Intelligence Act). COM/2021/206 final.
Harrington, C. (2021). As Amazon Workers Organize, They Stress: ’We Are Not Robots’. Julkaistu Wiredin verkkosivuilla 9.4.2021. Condé Nast Publications. New York City. Viitattu 27.10.2025.
Hirsch, F. (2024). Algorithmic control in non-platform organizations: Workers’ legitimacy judgments (ICIS 2024 Proceedings). AIS eLibrary.
Immonen, J. (2024). Johtajana tietokone. Algoritmisen johtamisen vaikutuksia työntekijöihin. Foundation for European Progressive Studies. Brysseli.
Jarrahi, M. H., Möhlmann, M. & Lee, M.K. (2023). Algorithmic Management. The Role of AI in Managing Workforces. MIT Sloan Management Review, 1-5.
Lahtinen, H. & Valtonen, T. (2025). Raportti: Algoritminen johtaminen yleistyy Pohjoismaissa – tutkijat varoittavat sen vaikutuksista työntekijöiden hyvinvointiin. Julkaistu Työterveyslaitoksen verkkosivuilla 8.9.2025. Viitattu 27.10.2025.
McParlja, C. & Connolly, R. (2019). Employee Monitoring in the Digital Era. Managing the Impact of Innovation. Proceedings of the ENTRENOVA Conference. Rovinj. Kroatia.
OECD (2022). AI Principles and Policy Observatory.
OECD (2025). Algorithmic management in the workplace: New evidence from an OECD employer survey. OECD Publishing. Pariisi.
Parent-Rocheleau, X., & Parker, S. K. (2022). Algorithms as work designers. How algorithmic management influences the design of jobs. Human Resource Management Review, 32(3), 100838.
Soper, S. (2021). Fired by Bot at Amazon: ’It’s You Against the Machine’. Julkaistu Bloombergin verkkosivuilla 8.6.2021. Bloomberg News. New York City. Viitattu 27.10.2025.
Tuomi, A., Jianu, B., Roelofsen, M., Ascenção, M.P. (2023). Riding Against the Algorithm: Algorithmic Management in On-Demand Food Delivery. Teoksessa: Ferrer-Rosell, B., Massimo, D., Berezina, K. (eds) Information and Communication Technologies in Tourism 2023. ENTER 2023. Springer Proceedings in Business and Economics. Springer, Cham.
Työterveyslaitos. (2023). Toimintakertomus 2023. Helsinki.
Työterveyslaki. 738/2002. Finlex.
Vuori, J. & Asikainen, M. (2025). When Algorithms Take the Reins: How Digital Management is Reshaping the Future of Work. Julkaistu Finnish AI Regionin verkkosivuilla 17.7.2025. Viitattu 27.10.2025.
Tämä kirjoitus on julkaistu osana Haaga-Helia ammattikorkeakoulun Kone johtajana – tekoäly asiantuntija- ja tietotyön johtamisessa -hanketta, jossa tutkitaan algoritmista johtamista erityisesti asiantuntija- ja tietotyössä – alueilla, joissa tekoälyn roolia on tähän mennessä tutkittu ja ymmärretty vain vähän. Hankkeen päärahoittajana toimii Työsuojelurahasto.
Communications Lead
+358 44 920 7374
martti.asikainen@haaga-helia.fi
Finnish AI Region
2022-2025.
Media contacts