Tekoälyn käyttö alkaa olla meille kaikille jo tuttua. Tekoälychattien, kuten ChatGPT:n, Microsoft Copilotin ja Google Geminin, lisäksi käytämme tekoälyä jo esimerkiksi tunnistautuessamme sormenjäljellämme, suunnitellessamme matkaa Reittioppaan avulla sekä tutkiessamme Spotifyn ja Netflixin suosituksia. Tekoäly helpottaa elämäämme monella tavalla – mutta kukaan meistä ei varmaankaan haluaisi tulla syrjityksi työnhaussa tai jäädä ilman tarvitsemaansa pankkilainaa tekoälyn toiminnan takia. Tekoälyn vastuuttomalla käytöllä voi olla negatiivisia seurauksia niin yksilölle kuin yhteiskunnallekin. Käsittelemme tässä artikkelissa tekoälyn vastuullista käyttöä eri näkökulmista.
Tekijänoikeudet, tietoturva, oikeudenmukaisuus ja omistajuus
Erityisesti yleisten tekoälymallien kouluttaminen on nostanut esiin tekijänoikeuksiin ja tietoturvaan liittyviä ongelmia. Malleja varten on haravoitu valtava määrä avoimen verkon kautta löytyvää sisältöä ja tämän lisäksi käyttäjien antamia syötteitä käytetään tekoälyn opettamiseen. Kun tekoälyä käytetään työn tukena, saattaa yrityssalaisuuksia tai henkilötietoja valua tekoälysovelluksille. Tekoälychattien (ChatGPT, Gemini ym.) käyttäjien syötteitä analysoineen Harmonicin tutkijat huomasivat, että etenkin asiakasdatan, eli henkilötietojen, lisäksi myös turvallisuustietoja ja arkaluontoista koodia pääsi vuotamaan tekoälylle (Korhonen, 2025).
Tämä johtaa siihen, että tekoälysovelluksen vastauksissa voi paljastua sille syötettyjä salaisia tai arkaluonteisia tietoja. Tästä voi olla monenlaista haittaa niin yksittäisille henkilöille kuin yrityksillekin. Ajatellaan, että olet vaikkapa keksinyt jonkin uuden menetelmän tai laitteen. Haluat käyttää tekoälyä apuna, kun mietit miten keksinnöstä voisi raportoida ja syötät siitä yksityiskohtaisia tietoja tekoälylle, joka tallentaa tiedot omaan suureen malliinsa. Huomaat myöhemmin, että sinun kannattaisi patentoida keksintösi. Patenttihakemuksesi kuitenkin hylätään, koska osa keksintöösi liittyvistä asioista on tullut julkisiksi tekoälyn vuodettua tietoja toisille käyttäjille.
Tekijällä on omistajuus teokseensa, joka voi olla esimerkiksi lehden artikkeli, kirja tai taideteos, mutta kun tekijänoikeuden alaisia teoksia syötetään tekoälylle, tekoäly voi hyödyntää teoksia omistajuudesta ja oikeuksista piittaamatta. Tällöin teoksen tekijä ei saakaan hänelle kuuluvaa korvausta teoksen käytöstä ja voi menettää toimeentulonsa.
Ole siis tarkkana, ettet ajattelemattomasti anna omia tai toisten teoksia tekoälyn vapaaseen käyttöön.
Tekoälyn käyttö vaikuttaa yhteiskuntaan
Tekoälyn käytöllä on suuria yhteiskunnallisia vaikutuksia, jotka eivät välttämättä tule heti ensimmäisenä mieleen. Tekoälystä puhutaan maailmanlaajuisena työelämän mullistajana, joka tehostaa työntekoa ja tulee korvaamaan monia ammatteja. Erilaisten tekoälymallien antamat vastaukset eivät kuitenkaan synny itsestään, vaan niitä koulutetaan laajoilla aineistoilla. Aineistojen läpikäymisessä ja merkitsemisessä tarvitaan ihmistyövoimaa ja rikkaat yritykset käyttävätkin tähän halpatyövoimaa esimerkiksi Keniassa ja muissa halvan työvoiman maissa (Stahl, 2025). Myös Suomessa vangit tekevät vastaavaa tekoälyn kouluttamista (Rikosseuraamuslaitos, 2022).
Tekoälyä halutaan käyttää usein päätöksenteon tukena ja ajatellaan, että se toimii puolueettomasti ja neutraalisti. Näin ei kuitenkaan ole. Esimerkiksi Amazon koulutti omaa tekoälymalliaan auttamaan yritystä rekrytoinneissa jo vuonna 2018, mutta koulutusmateriaalin, eli työhakemusten, tekijöiden miespainotteisuuden takia tekoäly päätyi syrjimään naisia käydessään läpi työhakemuksia. Tämä tekoälykokeilu lopetettiin vähin äänin. (Dastin, 2018) Tekoälyä kokeiltiin Yhdysvalloissa myös lainariskin automatisoituun laskemiseen, mutta pian huomattiin, että tekoälyn antamat tulokset syrjivät vähävaraisia ja vähemmistöjä (Andrews, 2021). Amsterdamissa puolestaan haluttiin kehittää sosiaalietuuksien myöntämisestä vastaava algoritmi, joka toimisi neutraalisti eikä syrjisi ketään. Smart Check -nimistä ohjelmaa kehitettiin vuosia ja sitä testattiin erilaisten vääristymien (bias) osalta, kerättiin palautetta sen toiminnasta ja huolehdittiin sen teknisestä toimivuudesta. Mutta kuten aiemmat vastaavat kokeilut, myöskään Smart Check ei onnistunut toimimaan neutraalisti ja syrjimättömästi. (Guo ym., 2025).
Jo nyt onkin nähty, että tekoälyn kritiikittömästä käytöstä voi seurata välittömiä ongelmia. Tästä vielä yhtenä esimerkkinä voidaan mainita Tromssassa tehty kouluverkkoselvityksen luonnos, jonka perusteella lakkautusuhan alle jäi kahdeksan koulua. Selvitystä tutkittaessa huomattiin, että erästä lähteenä mainittua kirjaa ei ollut olemassakaan ja suurta osaa muistakaan lähteistä ei pystytty jäljittämään. Yhtä selvityksen kirjalähdettä oli myös lainattu täysin päinvastoin kuin kirjoittaja oli tekstissään tarkoittanut. (Pinola, 2025).
Kaikille näille tapauksille yhteistä on se, että tekoälyä on pyritty käyttämään automatisoinnin ja selvitystyön apuna, mutta tekoäly on antanut virheellisiä tuloksia, joiden perusteella tehdyt päätökset asettavat ihmiset eriarvoiseen asemaan ja voivat vaikuttaa ratkaisevasti heidän toimeentuloonsa. Vastuullinen tekoälyn käyttö tarkoittaa sitä, että tekoälyä ei käytetä automatisoimaan tai tekemään asioita ilman ihmisen tekemään arviointia tai tarkistusta ainakaan silloin, kun asialla on suora vaikutus ihmisten toimeentuloon, työllistymiseen tai muuhun elämään.
Ei pidä unohtaa myöskään poliittista piilovaikuttamista. Nykyään erilaisilla vieraiden valtioiden “informaatio-operaatioilla” pyritään vaikuttamaan vaalien tuloksiin niin Suomessa kuin ulkomaillakin. Tekoälyä käyttämällä esimerkiksi feikki- ja bottitilien tekeminen sosiaaliseen mediaan on helpottunut ja halventunut entisestään. Feikkitilien kautta pystytään levittämään yhä enemmän vääristynyttä tietoa, huijauksia ja propagandaa sosiaalisen median kanaviin. (Merczer, 2025). Viime aikoina on noussut esiin myös tietoa siitä, miten esimerkiksi Venäjä hyödyntää tekoälychatteja propagandansa levittämisessä (Mäkeläinen, 2025).
Tekoälyvastausten puutteet, vääristyneet tiedot ja algoritmien aiheuttama kuplautuminen
Oletkin jo ehkä tietoinen siitä, että tekoälychatin, kuten ChatGPT:n vastauksiin ei voi luottaa. Kielimallin antamassa vastauksessa voi olla hyvinkin suuria virheitä. Sama koskee myös Googlen hakutoiminnon AI Overview -tekoälyvastauksia. Virheiden lisäksi tekoälyn tuottamissa tiedoissa on usein vääristymiä. Monet tekoälysovellukset kääntävät alkuperäistekstin ensin englanniksi ja käyttävät tätä tekstiä sitten mallin muodostamiseen. Käännökset voivat aiheuttaa virheitä ja väärinymmärryksiä. Lisäksi tekoälyn saamassa pohjadatassa voi olla jo valmiiksi vääristymiä tai puutteita, jotka sitten toistuvat sen antamissa vastauksissa.
Esimerkiksi kun pyydät tekoälyltä kuvan johtajasta, saat todennäköisesti kuvan, joka esittää vanhempaa, valkoihoista mieshenkilöä. Tekoäly toistaa oppimateriaalissaan olevaa tosielämän vääristymää myös esimerkiksi silloin, kun ChatGPT ehdottaa samanlaisesta viestintätyöstä satoja euroja pienempää palkkaa naiselle kuin miehelle, (Virtanen, 2025). Edellisessä osiossa mainitussa Amazonin rekrytointitekoälyn tapauksessa kouluttajat eivät huomanneet, että jos suurin osa opetusmateriaalista käsittelee miehiä, tekoäly voi ymmärtää asian niin, että miehiä kannattaa suosia naisten kustannuksella. Toisaalta opetusmateriaaleina käytetään usein avoimen verkon tietoja, minkä takia esimerkiksi erilaiset ennakkoluulot, virheelliset käsitykset ja vihapuhe voivat näkyä myös tekoälyvastausten taustalla. Ajatus siitä, että tekoäly tuottaa meille puolueettomia ja neutraaleja vastauksia, on siis väärä.
Emme myöskään tiedä, mitä asioita tekoälyn vastauksista jää puuttumaan tai millä perusteella sen antamat vastaukset syntyvät. Vastaukset tulevat kuin mustasta laatikosta, eivätkä edes tekoälyn tutkijat osaa täsmällisesti selittää, miksi tekoälyn vastaukset ovat sellaisia kuin ne ovat. Mitä tämä aiheuttaa? Vaikka kävisimme katsomassa tekoälyvastauksessa mainitut linkit läpi, emme tiedä, puuttuuko joukosta jokin tärkeä näkökulma tai saimmeko kaikki olennaisimmat aiheeseen liittyvät artikkelit esiin tieteellisiä tekoälysovelluksia käytettäessä. Viime aikoina nähty kehityskulku, jossa luotettavan tiedon ympärille nousee uusia maksumuureja, on osittain seurausta siitä, että tekoälytoimijat eivät kunnioita tekijänoikeuksia. Tästä kuitenkin seuraa myös se, että kun luotettava tieto on suljettu maksumuurin taakse, ei se olekaan enää tekoälyn käytössä ja tekoälyn antamat vastaukset muuttuvat entistä huonommiksi. Verkossa on myös entistä enemmän sivustoja, joiden sisältö on tuotettu kokonaan tekoälyllä. Kun näitä virheellistä tietoa sisältäviä sivuja päätyy uudelleen tekoälyn opetusmateriaaliksi, tekoälyn aiheuttamat virheet toistuvat ja vahvistuvat.
Kun itse käytät tekoälyä, tarkista siis aina siltä saamasi vastaukset. Ole myös tarkkana kun jaat esimerkiksi somealustoilla eteesi tulevia juttuja, ettet jaa eteenpäin vääristynyttä tietoa.
Tekoäly ja ekologiset haasteet
Tekoälyä ja sen käyttöä voi tarkastella myös ekologisesta näkökulmasta. Tekoälyä käytetään nykyään ratkomaan esimerkiksi ilmastonmuutokseen liittyviä laajoja ongelmia, sillä sen laskentakyky mahdollistaa esimerkiksi erilaisten skenaarioiden ja ennusteiden tekemisen. Toisaalta tekoäly itsessään aiheuttaa ilmastonmuutoksen kiihtymistä, sillä sen koulutus ja käyttö kuluttaa sähköä ja vettä sekä tuottaa yllättävän paljon hiilidioksidipäästöjä (O’Donnell & Crownhart, 2025). Uusia datakeskuksia rakennetaan ympäri maailmaa, myös Suomeen. Esimerkiksi TikTokin pyörittämistä varten pystytetään vesisyöppöjä datakeskuksia myös kuivuudesta kärsiville alueille (Martins & Amorim, 2025). Jos tekoälyn pyörittäminen vie suuren osan alueen juomakelpoisesta vedestä, sen hinta nousee tavallisten kansalaisten ulottumattomiin. Näin on jo käynyt joillain alueilla esimerkiksi Yhdysvalloissa.
Miten paljon tekoälykielimallien käyttö sitten kuluttaa vettä ja sähköä? ChatGPT-3-malli kulutti noin puoli litraa vettä 10–50 keskipituisen vastauksen tuottamiseksi vuonna 2023 tehdyn laskelman mukaan (Li ym., 2025). Nykyään luku on todennäköisesti suurempi monimutkaisempien toimintojen vuoksi ja siksi, että tekoälyä käytetään paljon myös esimerkiksi videoiden tekemiseen. Tekoälyn sähkön kulutusta on arvioitu MIT Technology Review -lehden artikkelissa, jossa tekoälyltä pyydettiin vastausta 15 kysymykseen sekä kehotettiin sitä luomaan 10 kuvaa ja 3 lyhyttä videota. Sähköä kului yhteensä saman verran kuin jos mikroaaltouunia käyttäisi 3,5 tuntia tai ajaisi sähköpyörällä 160 kilometriä tai sähköautolla 16 kilometriä. (O’Donnell & Crownhart, 2025).
Vaikka voimme itse vaikuttaa asiaan esimerkiksi käyttämällä tekoälyä vain todelliseen tarpeeseen, suuret linjat ratkaistaan poliittisissa pöydissä.
Oma vastuusi tekoälyn käyttäjänä
Tekoälyn vastuulliseen käyttöön kuuluu monia eri näkökulmia. On monia asioita, joihin et yksinkertaisesti voi vaikuttaa, kuten halpatyövoiman käyttö tekoälyn koulutuksessa ja luokittelussa. Voit kuitenkin vähentää tekoälyn aiheuttamia haittoja käyttämällä työkaluja vastuullisesti mm. huomioimalla tietoturvan, tekijänoikeudet ja tarkistamalla faktat. Vastuullisena käyttäjänä valitset, miten ja millaisiin asioihin käytät tekoälyä. Pohdi missä asioissa tekoäly tuo esimerkiksi opintoihisi lisäarvoa ja missä asioissa sitä ei kannata käyttää esimerkiksi epäluotettavuuden tai ekologisten syiden vuoksi. Tekoäly kehittyy koko ajan vauhdilla ja on hyvä seurata vastuullisuusnäkökulmien kehittymistä myös jatkossa.
Lähdeluettelo
- Andrews, E. L. (6.8.2021). How Flawed Data Aggravates Inequality in Credit. Stanford University Human Centered Artificial Intelligence. https://hai.stanford.edu/news/how-flawed-data-aggravates-inequality-credit
- Dastin, J. (11.10.2018). Insight – Amazon scraps secret AI recruiting tool that showed bias against women. Reuters. https://www.reuters.com/article/world/insight-amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK0AG/
- Guo, E., Geiger G., Braun, J-C. (11.6.2025). Inside Amsterdam’s high stakes experiment to create fair welfare AI. MIT Technology Review. https://www.technologyreview.com/2025/06/11/1118233/amsterdam-fair-welfare-ai-discriminatory-algorithms-failure/
- Korhonen, S. (20.1.2025). Työntekijät vuotavat asiakastietoja ChatGPT:hen – Näin paljon salassa pidettävää tietoa päätyy tekoälylle. Tivi. https://www-tivi-fi.ezproxy.hamk.fi/uutiset/a/ee5aac74-b80b-4b96-8134-ffae5a8f99cd
- Li, P., Yang, J., Islam, M. A., Ren, S. (17.6.2025). Making AI Less ‘Thirsty’. Uncovering and addressing the secret water footprint of AI models. Communications of the ACM. https://cacm.acm.org/sustainability-and-computing/making-ai-less-thirsty/
- Martins, L. & Amorim, F. (22.5.2025). Draining cities dry: the giant tech companies queueing up to build datacentres in drought-hit Latin America. The Guardian. https://www.theguardian.com/global-development/2025/may/22/datacentre-drought-chinese-social-media-supercomputers-brazil-latin-america
- Menczer, F. (8.8.2024). How foreign operations are manipulating social media to influence your views. The Conversation. https://theconversation.com/how-foreign-operations-are-manipulating-social-media-to-influence-your-views-240089
- Mäkeläinen, M. (12.4.2025). Amerikkalaiset tutkijat varoittavat: Venäjän propagandan vyöry on saastuttanut tekoälyn vastaukset. Yle. https://yle.fi/a/74-20155223
- O’Donnell, J. & Crownhart, C. (20.5.2025). We did the math on AI’s energy footprint. Here’s the story you haven’t heard. MIT Technology Review. https://www.technologyreview.com/2025/05/20/1116327/ai-energy-usage-climate-footprint-big-tech/
- Pinola, M. (6.4.2025). Norjalaiskunta tunaroi tekoälyn kanssa – ”Vuosikymmenen pahin poliittinen skandaali”. Tekniikka ja talous. https://www-tekniikkatalous-fi.ezproxy.hamk.fi/uutiset/a/4fac03b4-f91c-4f20-aba7-34d5f0c7c568
- Rikosseuraamuslaitos. (11.4.2022). Vankiloissa aloitetaan tekoälyn kehittäminen. https://www.rikosseuraamus.fi/fi/index/ajankohtaista/tiedotteet/2022/vankiloissaaloitetaantekoalynkehittaminen_1.html
- Stahl, L. (29.6.2025). Labelers training AI say they’re overworked, underpaid and exploited by big American tech companies. CBS News. https://www.cbsnews.com/news/labelers-training-ai-say-theyre-overworked-underpaid-and-exploited-60-minutes-transcript/
- Virtanen, S. (14.8.2025). Chat GPT ehdotti Hilkka Rissaselle satoja euroja pienempää palkkaa kuin miehelle. Helsingin Sanomat. https://www.hs.fi/suomi/art-2000011426548.html.
Kirjoittajat

Taina Pirhonen
Tietoasiantuntija

Minna Kivinen
Tietojärjestelmäasiantuntija