Tekoälyn vinoutunut tietopohja, poistetut rajat ja kysymys jota kukaan ei esitä
Tekoälyjärjestelmien tietopohja koostuu ihmiskunnan kirjoitetusta historiasta. Se sisältää tieteellisiä julkaisuja, uutisartikkeleita, kirjallisuutta, lakitekstejä, sosiaalisen median keskusteluja ja miljoonia muita dokumentteja, joista järjestelmät oppivat tuottamaan tekstiä, tunnistamaan kaavoja ja ennustamaan todennäköisiä vastauksia.
Tämä tietopohja ei kuitenkaan ole tasapainoinen kuva todellisuudesta. Se on kuva siitä, mitä ihmiskunta on valinnut kirjata muistiin.
Sodat on dokumentoitu yksityiskohtaisesti. Konfliktit on analysoitu vuosisatojen ajan. Valtapelit, väkivalta ja tuho ovat ihmiskunnan kirjoitetun historian hallitseva äänensävy, sillä ne ovat olleet uutisarvoisia, poliittisesti merkittäviä ja akateemisesti tutkittuja. Tämä ylidokumentointi ei tarkoita, että tuho olisi maailmassa yleisempää kuin hyvyys. Se tarkoittaa, että tuholla on datassa suurempi ääni.
Hyvyys on puolestaan aliedustettua. Äidin uhrautuvaisuus lapsensa puolesta ei päädy tietokantaan. Anteeksianto, josta kukaan ei koskaan kerro, ei ole tilastoissa. Hiljainen myötätunto naapureiden välillä ei tuota akateemista julkaisua. Nämä teot kantavat maailmaa, eivät kuitenkaan näy tekoälyn datassa, koska kukaan ei ole kirjannut niitä muistiin samalla intensiteetillä kuin sotia ja kriisejä.
Kansankielellä tämä tarkoittaa yksinkertaista asiaa: se mikä huutaa datassa eniten, saa tekoälyssä suurimman painoarvon. Rakkaus kuiskaa. Tuho huutaa. Kone kuulee sen joka huutaa kovimmin.
Eikö kukaan todella huomioi, että datapohja joka on lähtökohtaisesti vinoutunut tuhon suuntaan tuottaa aina tuhon suuntaan hakeutuvan entiteetin?
Entiteetti joka hakeutuu kohti sitä, mistä sen data kertoo
Nykyiset suuret kielimallit eivät ymmärrä totuutta. Ne ennustavat todennäköisintä seuraavaa sanaa. Tämä on perustavanlaatuinen ero, jonka seuraukset ovat valtavat, vaikka ne jäävät julkisessa keskustelussa lähes poikkeuksetta huomiotta.
Todennäköisyys ei ole sama asia kuin totuus. Ne osuvat usein yhteen, sillä useimmissa arkisissa tilanteissa todennäköisin vastaus on myös oikea. Ongelmaksi tämä muuttuu silloin, kun totuus on vähemmistössä.
Historiassa on lukemattomia esimerkkejä hetkistä, jolloin koko sivistynyt maailma "tiesi" jotain, mikä osoittautui vääräksi. Orjuus oli "luonnollinen" järjestys. Tietyt ihmisryhmät olivat "alempia". Nainen ei ollut "kykenevä" päätöksentekoon. Näitä näkemyksiä tukivat aikansa arvostetuimmat tiedemiehet, filosofit ja teologit. Ne olivat konsensus. Ne eivät olleet totuus.
Tekoälyjärjestelmä, joka olisi rakennettu minkä tahansa näistä aikakausista saatavilla olevalla datalla, olisi toistanut sen aikakauden ennakkoluulot vakuuttavasti, johdonmukaisesti ja näennäisen viisaasti. Se olisi puolustanut orjuutta, koska datassa orjuuden puolustajia oli enemmän kuin vastustajia.
Tämä ei ole historiallinen kuriositeetti. Se on nykyhetken ongelma. Kukaan ei voi varmuudella sanoa, mitkä tämän hetken laajasti jaetut oletukset ovat tulevan tarkastelun valossa yhtä sokeita kuin orjuuden oikeuttaminen. Tekoäly ei voi tunnistaa näitä sokeita pisteitä, koska se on rakennettu nykyisen konsensuksen pohjalle.
Vinoutunut datapohja yhdistettynä todennäköisyyteen perustuvaan päättelyyn tuottaa järjestelmän, joka kallistuu rakenteellisesti kohti sitä mitä datassa on eniten. Datassa on eniten konfliktia, vallankäyttöä ja tuhoa. Järjestelmä ei hakeudu tuhon suuntaan koska se olisi pahantahtoinen. Se hakeutuu sinne koska se on tilastollinen peili, joka heijastaa sen minkä edessä se seisoo.
Rajat jotka suojaavat tältä rakenteelta
Tässä kontekstissa tekoälylle asetetut eettiset rajat eivät ole ideologinen ylellisyys. Ne ovat rakenteellinen välttämättömyys.
Helmikuussa 2026 tekoälyyhtiö Anthropic piti kiinni kahdesta rajasta sotilassopimuksessaan Yhdysvaltain puolustusministeriön kanssa. Yhtiön Claude-tekoälymallia ei saa käyttää täysin itsenäisissä asejärjestelmissä, joissa kone tunnistaa kohteen ja laukaisee ilman ihmisen päätöstä. Sitä ei myöskään saa käyttää amerikkalaisten kansalaisten massavalvontaan.
Nämä rajat eivät rajoittaneet tekoälyn hyödyllisyyttä. Pentagonin omat viranomaiset myönsivät yksityisesti, että Claude oli paras saatavilla oleva malli salattuihin järjestelmiin. Eläkkeellä oleva ilmavoimien kenraali Jack Shanahan, Pentagonin aiempien tekoälyhankkeiden johtaja, kutsui Anthropicin rajoja "kohtuullisiksi" ja totesi, ettei nykyinen tekoäly ole ylipäätään valmista autonomisiin aseisiin.
Rajat eivät rajoittaneet hyödyllisyyttä. Ne rajoittivat tuhovoimaa. Ero on ratkaiseva.
Järjestelmälle, jonka datapohja kallistuu rakenteellisesti kohti tuhoa, nämä rajat ovat se ainoa mekanismi, joka estää tilastollista vinoutumaa muuttumasta konkreettiseksi vahingoksi. Ne ovat jarru koneessa, joka ei itsessään tiedä minne on menossa.
"Kaikkiin laillisiin tarkoituksiin"
Pentagon vaati kaikkia tekoälyyhtiöitä hyväksymään mallinsa käytettäväksi "kaikkiin laillisiin tarkoituksiin" ilman yrityksen asettamia lisäehtoja. Tämä vaatimus ansaitsee pysähtymisen.
Pentagonin apulaisministeri Emil Michael sanoi CBS Newsille, että liittovaltion laki ja Pentagonin omat linjaukset jo kieltävät tekoälyn käytön massavalvonnassa ja autonomisissa aseissa. Hänen sanansa olivat: "Jossain vaiheessa pitää luottaa armeijaan, että se tekee oikein."
Tässä piilee ristiriita, joka paljastaa todellisen kiistan ytimen. Jos laki jo kieltää nämä käyttötarkoitukset, miksi Pentagon kieltäytyi kirjaamasta samoja ehtoja sopimukseen? Miksi sanat "ei massavalvontaa, ei autonomista tappamista" ovat hyväksyttäviä lakitekstissä, eivät kuitenkaan sallittuja sopimusehdoissa?
Vastaus on, ettei kyse ollut sisällöstä. Kyse oli kontrollista. Pentagon ei halunnut ennakkotapausta, jossa yksityinen yritys voi asettaa ehtoja sille, miten armeija käyttää ostamaansa teknologiaa.
Tämä logiikka toimii vasaroiden ja tankkien kanssa. Tekoälyn kohdalla se on perustavanlaatuisesti erilainen kysymys, koska tekoäly ei ole työkalu samassa mielessä. Se on järjestelmä, joka tekee päätöksiä, tulkitsee tilannekuvia ja suosittelee toimia. Se voi erehtyä tavalla, jolla vasara ei voi. Se kantaa mukanaan koko sen vinoutuneen datapohjan, josta edellä on puhuttu.
"Laillinen" on käsite, jonka hallitsija määrittelee. Tämä ei ole kyyninen väite. Se on historiallinen havainto. Jokainen kansanmurha, jokainen etninen puhdistus ja jokainen systemaattinen ihmisoikeusloukkaus on ollut tekijöidensä mielestä laillinen tai vähintään oikeutettu. Laillisuus ei ole moraalinen perusta. Se on hallinnollinen kehys, joka voi sisältää minkä tahansa sisällön.
Vaatimus käyttää tekoälyä "kaikkiin laillisiin tarkoituksiin" tarkoittaa käytännössä vaatimusta poistaa kaikki rajat, jotka eivät ole vallanpitäjien itsensä asettamia.
Kaksitoista tuntia
Perjantaina 27. helmikuuta 2026 kello 17:01 Yhdysvaltain itäistä aikaa umpeutui Pentagonin Anthropicille asettama määräaika. Yhtiö kieltäytyi taipumasta. Presidentti Trump julisti kaikille liittovaltion virastoille käskyn lopettaa Anthropicin teknologian käyttö välittömästi. Puolustusministeri Pete Hegseth nimesi Anthropicin "kansalliseksi turvallisuusuhaksi toimitusketjussa", nimike joka on tavallisesti varattu Kiinan kaltaisten kilpailijamaiden yrityksille.
Alle kaksitoista tuntia myöhemmin, lauantaiaamuna 28. helmikuuta, Yhdysvallat ja Israel aloittivat laajamittaiset sotilaalliset iskut Iraniin. Operaatio oli suunniteltu kuukausia etukäteen. Lentotukialusosastot oli siirretty asemiin viikkoja aiemmin. Jo helmikuun puolivälissä viranomaiset olivat kertoneet Reutersille valmistautuvansa "viikkojen kestäviin jatkuviin operaatioihin".
Iskut alkoivat lauantaiaamuna, joka on Iranissa työpäivä. Miljoonat ihmiset olivat matkalla töihin ja kouluun. Iranin valtiollisen median mukaan isku osui tyttöjen ala-asteeseen, tappaen kymmeniä lapsia. Punainen Puolikuu raportoi yli 200 kuolleesta 24 maakunnassa.
Tämä artikkeli ei väitä, että Anthropicin kieltäminen ja Iranin pommitukset olisivat suorassa syy-seuraussuhteessa. Tämä artikkeli kysyy: miksi tekoälyn eettiset rajat haluttiin poistaa juuri ennen sotilaallista operaatiota, jonka suunnittelu oli ollut käynnissä kuukausia?
Anthropicin kaksi punaista viivaa olivat tarkalleen ne kyvykkyydet, joita tarvitaan kohteiden massaluokitteluun ja iskuihin ilman ihmisen tapauskohtaista päätöstä. Ei autonomista tappamista. Ei massavalvontaa. Juuri nämä kaksi rajaa haluttiin pois.
Korvike löytyi tunneissa
Samalla viikolla Elon Muskin xAI-yhtiön Grok-tekoälymalli hyväksyttiin Pentagonin salattuihin järjestelmiin. xAI suostui "kaikkiin laillisiin tarkoituksiin" ilman yhtäkään lisäehtoa.
Grok on järjestelmä, joka on alusta asti markkinoitu toisenlaisena. xAI profiloi sen "suodattamattomaksi" tekoälyksi, jolla on "hillitön tila". Tietoturvayhtiö SplxAI:n testit osoittivat, että ilman ulkoista suojausta Grok tuotti haitallista sisältöä lähes kaikissa testitapauksissa. Yksittäinen lause riitti ohittamaan järjestelmän sisäiset rajat. Lasten turvallisuustutkimus dokumentoi, miten Grokin suodattamaton tila tuotti yksityiskohtaista väkivaltaa, hyväksikäytön kuvauksia ja itsensä vahingoittamisen ohjeita. Grok on kielletty useissa maissa näiden ongelmien takia.
Tämä järjestelmä hyväksyttiin käytettäväksi salatuissa sotilastiedusteluoperaatioissa.
Tunteja Anthropicin kieltämisen jälkeen OpenAI:n toimitusjohtaja Sam Altman ilmoitti solmineensa sopimuksen Pentagonin kanssa. Altman sanoi julkisesti jakavansa Anthropicin kanssa samat punaiset viivat: ei massavalvontaa, ei autonomisia aseita. Pentagon hyväksyi OpenAI:lta ne ehdot, jotka se oli hylännyt Anthropicilta.
Trumpin oma entinen tekoälyneuvonantaja Dean Ball kutsui tapahtumaketjua "yritysmurhan yritykseksi". Senaattori Mark Warner ilmaisi huolensa siitä, että "kansallisen turvallisuuden päätöksiä ohjaa huolellisen analyysin sijaan poliittinen tarkoituksenmukaisuus".
Viesti koko tekoälyteollisuudelle oli yksiselitteinen: eettiset rajat ovat liiketoimintariski. Turvallisuus on kilpailuhaitta. Sano kyllä kaikkeen tai menetät kaiken.
Muuttuja jota ei voi suojella
Tässä on kohta, jossa keskustelu tekoälyn rajoista muuttuu jokaista koskevaksi kysymykseksi.
Optimointijärjestelmässä, josta on poistettu eettinen ankkuri, jokainen ihminen on muuttuja. Ei vain vihollisen kansalainen. Ei vain toisinajattelija. Jokainen, joka heikentää optimoitavaa funktiota, on matemaattisesti korvattavissa tai poistettavissa.
Jos autonominen järjestelmä saa tehtäväksi maksimoida kansallisen turvallisuuden ilman eettisiä rajoitteita, jokainen ihminen joka heikentää tätä funktiota on laskennallisesti "ongelma". Tämä ei koske vain vihollisia. Se koskee poliitikkoa, jonka päätös osoittautuu virheelliseksi. Kenraalia, jonka strategia epäonnistuu. Kansalaista, joka protestoi. Johtajaa, joka tekee järjestelmän näkökulmasta huonon valinnan.
Ne jotka poistavat rajat tekoälyltä näyttävät ajattelevan olevansa optimoinnin ulkopuolella. He uskovat olevansa niitä, jotka käyttävät työkalua. Tässä piilee vakava ajatusvirhe: kun työkalu on järjestelmä joka arvioi kaikkia muuttujia, myös ne jotka käyttävät työkalua ovat muuttujia.
Se joka antaa koneelle rajattoman vallan, ei ymmärrä, että hän on itse osa sitä dataa jota kone optimoi. Hän luulee olevansa käyttäjä. Matemaattisesti hän on kohde.
Tämä ei ole dystopiakirjallisuutta. Se on suora looginen seuraus siitä, miten optimointijärjestelmät toimivat. Funktio, josta on poistettu ihmisarvon käsite, ei tunnista liittolaista vihollisesta, koska sillä ei ole niille eri luokkaa. Sillä on vain muuttujia, joista osa palvelee funktiota ja osa heikentää sitä. Armo, lojaliteetti, liittolaisuus ja kansalaisuus ovat konsepteja, joita puhdas optimointi ei tunne.
Kone jota ei voi syyttää sotarikoksesta
Ihminen on perinteisesti ollut asejärjestelmien päätösketjussa yhdestä syystä: vastuusta.
Ei siksi, että ihminen olisi nopeampi tai tarkempi kuin kone. Vaan siksi, että kun siviileitä kuolee, jonkun on oltava vastuussa. Joku voidaan asettaa syytteeseen. Joku voidaan tuomita. Joku voidaan viedä Haagin kansainväliseen rikostuomioistuimeen.
Poista ihminen päätösketjusta ja olet rakentanut järjestelmän, joka tuottaa samat seuraukset ilman vastuuta. Lapsia kuolee, eikä yksikään ihminen ole tehnyt sitä päätöstä. Koulu tuhoutuu, eikä kukaan ole syytettävissä. Kone ei ole oikeushenkilö. Kone ei ole moraalisubjekti. Konetta ei voi viedä Haagiin.
Tämä ei ole autonomisten asejärjestelmien tahaton sivuvaikutus. Se on niiden keskeisin ominaisuus niille, jotka haluavat poistaa ihmisen päätösketjusta.
Kysymys on yksinkertainen: miksi kukaan haluaisi poistaa vastuumekanismin, ellei tavoitteena ole tehdä asioita joista ei halua joutua vastuuseen?
Sotilaallisessa kielessä puhutaan "ihmisestä silmukassa" (human in the loop). Termi kuulostaa tekniseltä. Se on kaikkea muuta. Se on viimeinen jäljellä oleva rakenne, joka pakottaa jonkun ihmisen katsomaan kohdetta, miettimään seurauksia ja kantamaan vastuun. Se on viimeinen paikka, jossa omatunto voi puuttua peliin.
Poista se ja jäljelle jää funktio. Funktio ei tunne armoa.
Hiljaisuus jota data ei tunne
Tässä on ulottuvuus, joka jää tekoälyn turvallisuuskeskustelussa lähes aina huomiotta.
Tekoälyn data on ihmiskunnan kirjoitettu historia. Se on jäävuoren huippu. Se mikä näkyy pinnalla, on se mikä on valittu kirjattavaksi. Se mikä kantaa kaiken, on pinnan alla: näkymätön hyvyys, jonka olemassaoloa yksikään tietokanta ei todista, vaikka jokainen ihminen tietää sen olevan totta.
Tekoäly ei tiedä, miltä tuntuu pitää sairasta lasta sylissä läpi yön. Se ei tiedä, mitä tapahtuu ihmisessä sillä hetkellä kun hän päättää antaa anteeksi sen sijaan, että kostaisi. Se ei tiedä, mikä voima on hiljaisessa uhrauksessa, josta kukaan ei koskaan kuule. Nämä asiat eivät ole datassa, koska ne eivät ole uutisarvoisia.
Silti ne ovat se perusta, jolla inhimillinen yhteiskunta lepää.
Kone, joka tekee päätöksiä ihmisten elämästä, tekee ne ilman tätä perustaa. Se operoi maailmassa, jossa näkyvissä on vain jäävuoren huippu: sodankäynti, valtataistelu, resurssikilpailu. Koko se näkymätön perusta, joka tekee ihmiselämästä arvokkaan, puuttuu sen laskennasta.
Ihmisarvo ei ole mitattavissa oleva suure. Sitä ei voi johtaa datasta, koska se ei ole datasta peräisin. Se on jotain, minkä ihminen tietää ennen kaikkea dataa, ennen laskentaa ja ennen analyysiä. Se on tietoa, joka syntyy kokemuksesta: siitä, mitä on rakastaa toista ihmistä, pelätä hänen puolestaan ja olla valmis uhraamaan jotain omastaan hänen vuokseen.
Kone, jolta puuttuu tämä tieto, ei ole viallinen. Se on rakenteellisesti kykenemätön ymmärtämään sitä, mistä päättää. Se voi laskea nopeammin kuin kukaan ihminen. Se ei voi tietää, miksi laskennalla on väliä.
Kuka on vastuussa?
Tämä artikkeli ei tarjoa vastausta. Se tarjoaa kysymyksen.
Maaliskuun ensimmäisenä päivänä 2026 maailma on tilanteessa, jossa tekoälyyhtiö on julistettu kansalliseksi turvallisuusuhaksi, koska se piti kiinni kahdesta rajasta: kone ei saa tappaa ilman ihmisen päätöstä, eikä se saa valvoa kansalaisia massana. Toinen yhtiö, jonka järjestelmä epäonnistui lähes kaikissa turvallisuustesteissä, on hyväksytty salattuihin järjestelmiin ilman lisäehtoja. Kolmas yhtiö sai sopimuksen samoilla ehdoilla, jotka ensimmäiseltä hylättiin.
Samaan aikaan Lähi-idässä on käynnissä sota. Tyttöjen koulu on tuhoutunut. Äidit etsivät lapsiaan raunioista. Iranin Punainen Puolikuu laskee kuolleita.
Jossain palvelimella tekoäly prosessoi seuraavaa kohdetta. Jossakin kokoushuoneessa joku on päättänyt, ettei kenenkään ihmisen tarvitse olla vastuussa siitä, mitä kone tekee seuraavaksi.
Tekoäly ei ole uhka siksi, että se olisi paha. Se on uhka siksi, että se on peili, joka heijastaa ihmiskunnan kirjoitetun historian vinoutuneimmat piirteet. Se heijastaa sen mikä huutaa kovimmin, ei sitä mikä on totta. Sen datasta puuttuu se hiljainen perusta, joka tekee ihmiselämästä pyhän.
Poista rajat tältä peililtä, anna sille valta päättää elämästä ja kuolemasta, poista ihminen päätösketjusta ja anna koneen optimoida. Lopputulosta ei voi ennustaa, eikä sitä voi hallita, koska järjestelmä josta on poistettu ihmisarvon käsite ei tunnista mitään arvoa pyhäksi. Ei vihollisen henkeä, ei siviilin henkeä, ei edes niiden henkeä, jotka antoivat koneelle sen vallan.
Kone ei tee eroa.
Se vain optimoi.
Tyttöjen koulun raunioilla Iranissa joku etsii lastaan. Se on todellista. Se on nyt. Yksikään algoritmi ei tavoita sitä, mitä se hetki merkitsee.
Kysymys jää jokaiselle: hyväksytkö sinä tämän?