Hiljainen vallankumous
Kiinalainen Zhipu AI julkaisi 11. helmikuuta 2026 uuden GLM-5-mallinsa ilman suurta fanfaaria. Ei näyttävää keynote-esitystä, ei viikkojen mittaista ennakkohypetystä. Malli ilmestyi yksinkertaisesti Z.ai-alustalle ja Hugging Faceen - ja tekoälymaailma huomasi sen välittömästi.
Syitä on kolme, ja jokainen niistä on merkittävä yksinäänkin.
Ensinnäkin GLM-5 on ensimmäinen frontier-tason tekoälymalli, joka on koulutettu kokonaan Huawei Ascend -siruilla. Ei yhtään NVIDIA:n piiriä. Ei amerikkalaista teknologiaa. USA:n vientirajoitusten oli tarkoitus hidastaa Kiinan tekoälykehitystä - GLM-5 todistaa, että ne pikemminkin kiihdyttivät sitä.
Toiseksi GLM-5 on avoin malli MIT-lisenssillä. Kuka tahansa voi ladata sen, ajaa omilla palvelimillaan ja rakentaa sen päälle liiketoimintaa ilman lisenssimaksuja.
Kolmanneksi GLM-5:n API-käyttö maksaa murto-osan siitä, mitä Claude Opus 4.6 tai GPT-5.2 veloittavat - ja suorituskyky on monissa tehtävissä samaa luokkaa.
Julkaisun ajoitus tekee siitä erityisen kiinnostavan. Samalla viikolla Anthropic julkaisi Opus 4.6:n nopeutetun version ja OpenAI toi GPT-5.3 Codexin Codex-alustalle. Kilpailu huipulla ei ole koskaan ollut näin tiivistä.
Mikä on GLM-5?
Zhipu AI (kansainvälisesti Z.ai) on Tsinghua-yliopiston spinoff-yritys, joka perustettiin vuonna 2019. Yrityksen taustalla ovat professorit Tang Jie ja Li Juanzi, jotka johtivat Tsinghuan Knowledge Engineering -tutkimusryhmää. Toimitusjohtajana toimii Zhang Peng.
Yritys listautui Hong Kongin pörssiin tammikuussa 2026 ja keräsi 558 miljoonaa dollaria. Listautumisanti ylimerkittiin yli tuhatkehtaisesti. Markkina-arvo IPO:n jälkeen oli noin 7,1 miljardia dollaria - mikä tekee Zhipusta yhden maailman arvokkaimmista tekoälyyn keskittyvistä yrityksistä.
Zhipulla on 2,9 miljoonaa käyttäjää ja 12 000 yritysasiakasta. Aiemmat mallit (ChatGLM, GLM-4-sarja) olivat vahvoja erityisesti kiinankielisessä käytössä, mutta GLM-5 tähtää ensimmäistä kertaa suoraan globaaliin kilpailuun.
Tekniset spesifikaatiot
GLM-5 käyttää Mixture of Experts (MoE) -arkkitehtuuria. Käytännössä tämä tarkoittaa, että mallissa on 745 miljardia parametria, mutta jokaista syötettä käsittelee kerrallaan vain 40 miljardia. Malli koostuu 256 erikoistuneesta "asiantuntijasta", joista 8 aktivoituu per token.
Vertauskuvallisesti: GLM-5 on kuin 256 hengen asiantuntijapaneeli, josta jokaiseen kysymykseen vastaa kahdeksan relevanteinta osaajaa. Lopputulos on lähellä sitä, mitä koko paneeli tuottaisi, mutta laskentatehoa kuluu murto-osa.
Ominaisuus | GLM-5 |
|---|---|
Parametrit (yhteensä) | 745 miljardia |
Aktiiviset parametrit | 40 miljardia |
MoE-asiantuntijat | 256 (8 aktiivista/token) |
Konteksti-ikkuna | 200 000 tokenia |
Maksimituloste | 131 000 tokenia |
Harjoitusdata | 28,5 biljoonaa tokenia |
Harjoitussirut | 100 000 Huawei Ascend |
Lisenssi | MIT (avoin) |
GLM-5 käyttää DeepSeek Sparse Attention -mekanismia, joka mahdollistaa 200 000 tokenin konteksti-ikkunan tehokkaasti ilman perinteisten transformereiden neliöllistä laskentakustannusta. Malli on koulutettu 28,5 biljoonalla tokenilla - merkittävä kasvu edeltäjän GLM-4.5:n 23 biljoonasta.
Malli tukee tällä hetkellä vain tekstiä (syöte ja tuloste). Kuvien, äänen ja videon käsittelyyn Zhipulla on erilliset mallit (GLM-Image, GLM-Voice), mutta GLM-5 itsessään on puhdas kielimalli.
Benchmark-vertailu: GLM-5 vs. länsimaiset huippumallit
Kuinka hyvä GLM-5 todella on? Riippumattomat testit antavat melko selkeän kuvan.

Avoimien mallien ykkönen
Artificial Analysis, yksi arvostetuimmista riippumattomista tekoälymallien arviointialustoista, nimesi GLM-5:n avoimien mallien johtajaksi. Se on ensimmäinen avoin malli, joka saavutti 50 pisteen rajan Artificial Analysisin Intelligence Indexissä - kaventaen merkittävästi kuilua suljettuihin kaupallisiin malleihin.
Text Arena -vertailussa GLM-5 nousi avoimien mallien ykköseksi 1 452 pisteellä, sijoittuen kokonaislistalla 11:nneksi. Se on samalla tasolla Claude Sonnet 4.5:n ja GPT-5.1-highin kanssa.
Vertailu suljettuihin malleihin
Mittari | GLM-5 | Claude Opus 4.6 | GPT-5.2 | Huomio |
|---|---|---|---|---|
AA Intelligence Index | 50 | 53 | - | GLM-5 lähellä, ero 3 pistettä |
AA Agentic Index | 63 (#3) | #1 | #2 | GLM-5 kolmas kokonaisuudessa |
SWE-bench Verified | 77,8% | ~81% | - | Koodauksessa lähellä Claudea |
AA-Omniscience Index | -1 | - | - | GLM-5 alan paras (harha-arvot) |
GDPval-AA ELO | 1 412 | #1 | #2 | Käytännön työtehtävissä kolmas |
BrowseComp | 75,9% | - | - | Web-selaustehtävät |
Text Arena | #11 (1 452) | - | - | Samalla tasolla Sonnet 4.5:n kanssa |
Tuloksista piirtyy selkeä kuva: GLM-5 ei ole paras missään yksittäisessä kategoriassa, mutta se on vaikuttavan lähellä huippua lähes kaikissa. Koodauksessa se jää hieman Claude Opus 4.6:sta (77,8% vs. ~81% SWE-benchissä), mutta ero on pieni. Agenttitehtävissä se sijoittuu kolmanneksi - Claude Opuksen ja GPT-5.2:n jälkeen, mutta muiden edelle.
Missä GLM-5 loistaa
GLM-5:n selkein vahvuus on harha-arvojen vähyys. Artificial Analysisin AA-Omniscience Indexissä GLM-5 saavutti tuloksen -1, mikä on alan paras. Tulos parani 35 pistettä edeltäjästä GLM-4.7:stä, ja harha-arvojen (hallusinaatioiden) määrä laski 56 prosenttiyksikköä.
Tämä tarkoittaa, että GLM-5 on oppinut tunnistamaan, milloin se ei tiedä vastausta - ja pidättäytyy vastaamasta sen sijaan, että keksisi uskottavan mutta virheellisen vastauksen. Tämä on kriittinen ominaisuus esimerkiksi lakipalveluissa, terveydenhuollossa ja journalismissa, joissa väärä tieto voi aiheuttaa vakavaa haittaa.
Zhipu AI käyttää tähän "slime"-nimistä vahvistusoppimistekniikkaa, jonka yksityiskohdat on kuvattu mallin teknisessä blogissa.
Missä GLM-5 jää jälkeen
Rehellisyyden vuoksi on syytä mainita myös puutteet:
Multimodaalisuus: GLM-5 käsittelee vain tekstiä. Kimi K2.5 tukee kuvia, ja Gemini 3 Pro käsittelee tekstiä, kuvia ja videota.
Puhdas päättely: Abstraktissa päättelyssä (ARC-AGI-2) GPT-5.2 johtaa selvästi. Claude Opus 4.6 on niin ikään edellä reasoning-tehtävissä.
Kielituki: Pääkielet ovat kiina ja englanti. Suomen kielen tuki on todennäköisesti heikko.
Konteksti: 200 000 tokenia on hyvä, mutta Gemini 3 Pro tarjoaa miljoonan tokenin ikkunan.
Hinta-vallankumous
GLM-5:n ehkä mullistavin ominaisuus ei ole mikään yksittäinen benchmark-tulos, vaan sen hinta.

API-hinnoittelu
Kolmannen osapuolen API-palveluissa (Novita, DeepInfra, GMI Cloud) GLM-5:n hinnoittelu on:
Syöte: ~$0,80-1,00 per miljoona tokenia
Tuloste: ~$2,56-3,20 per miljoona tokenia
Vertailun vuoksi: Claude Opus 4.6 ja GPT-5.2 ovat moninkertaisesti kalliimpia. Artificial Analysisin mukaan GLM-5 sijoittuu älykkyyden ja hinnan suhteessa Pareto-optimaaliselle käyrälle - eli se tarjoaa parhaan mahdollisen älykkyyden suhteessa kustannukseen.
Käytännön esimerkki: Jos yritys ajaa pitkiä agenttitehtäviä, joissa malli tuottaa miljoonia tokeneita päivässä, ero kustannuksissa voi olla tuhansia euroja kuukaudessa.
MIT-lisenssi ja avoimuus
GLM-5:n painot ovat vapaasti ladattavissa Hugging Facesta MIT-lisenssillä. Tämä tarkoittaa:
Mallia saa käyttää kaupallisesti ilman lisenssimaksuja
Sen voi ajaa omilla palvelimilla (tietoturva ja tietosuoja omissa käsissä)
Sitä saa muokata ja hienosäätää omiin tarpeisiin
Käytännön rajoitus: Mallin ajaminen vaatii noin 1 490 gigatavua muistia BF16-tarkkuudella. Tämä tarkoittaa useita huippuluokan GPU-kortteja tai pilvipalvelun käyttöä. Tavallisen käyttäjän kotikoneella GLM-5:ttä ei ajeta.
Useimmat hyötyvätkin mallista API-palveluiden kautta, joissa kynnys on matala ja kustannus pieni.
Mitä hintakilpailu tarkoittaa kaikille
GLM-5 ei ole ainoa edullinen vaihtoehto. DeepSeek, Qwen ja Kimi painostavat kaikki hintoja alas. Tämä kilpailu hyödyttää jokaista tekoälyn käyttäjää:
OpenAI ja Anthropic joutuvat reagoimaan hinnoitteluun
Pienet ja keskisuuret yritykset saavat frontier-tason kyvykkyyden ulottuvilleen
Kehittäjät voivat kokeilla ja prototypoida ilman merkittävää budjettia
Geopoliittinen merkitys: piirisaarto ei toiminut
GLM-5:n taustalla on yksi 2020-luvun merkittävimmistä teknologiapoliittisista kokeiluista - ja sen epäonnistuminen.

USA:n vientirajoitukset
Yhdysvallat on vuodesta 2022 lähtien rajoittanut huipputason tekoälysiruen vientiä Kiinaan. Tavoite oli selvä: hidastaa Kiinan tekoälykehitystä estämällä pääsy NVIDIA:n ja AMD:n tehokkaimpiin piireihin.
GLM-5 osoittaa, että strategia ei saavuttanut tavoitettaan. Zhipu AI koulutti mallin kokonaan 100 000 Huawei Ascend -sirulla käyttäen kiinalaista MindSpore-ohjelmistokehystä. Lopputulos kilpailee suoraan mallien kanssa, jotka on koulutettu NVIDIA:n huippusiruilla.
Tämä ei tarkoita, etteikö vientirajoituksilla olisi ollut mitään vaikutusta. Kiinan sirujen tehokkuus on todennäköisesti heikompi piiriä kohden, mikä tarkoittaa suurempia klustereita ja korkeampia energiakustannuksia. Mutta lopputulos - frontier-tason malli - saavutettiin siitä huolimatta.
Kaksi ekosysteemiä
Tekoälymaailma on jakautumassa kahteen rinnakkaiseen ekosysteemiin:
Läntinen ekosysteemi:
Sirut: NVIDIA (A100, H100, B200)
Suljetut mallit: OpenAI, Anthropic, Google
Regulaatio: EU AI Act, USA:n säännöt
Kiinalainen ekosysteemi:
Sirut: Huawei Ascend, omat ratkaisut
Avoimet mallit: GLM-5, DeepSeek, Kimi, Qwen
Strategia: Avoimuudella markkinaosuutta, kotimaisella teknologialla riippumattomuutta
Mielenkiintoista on, että kiinalaiset toimijat ovat valinneet avoimuuden strategiakseen. Kun OpenAI ja Anthropic pitävät mallinsa suljettuina, Zhipu, Alibaba (Qwen) ja DeepSeek jakavat omansa avoimesti. Tämä ei ole altruismia vaan strategia: avoimet mallit leviävät nopeammin, rakentavat ekosysteemiä ja luovat riippuvuuksia.
EU:n ja Suomen asema
Eurooppa on kahden blokin välissä. EU AI Act säätelee tekoälyn käyttöä, mutta ei ota kantaa mallien alkuperään. Suomalainen yritys voi teknisesti käyttää GLM-5:ttä yhtä hyvin kuin Claudea tai ChatGPT:tä.
Käytännössä kysymykset ovat monimutkaisempia: Missä data käsitellään? Kenen lainsäädännön alla? Millaiset tietoturvakäytännöt palveluntarjoajalla on? Nämä ovat samoja kysymyksiä, joita minkä tahansa pilvipalvelun kanssa joutuu pohtimaan - mutta kiinalaisiin palveluihin liittyy lisäkerros geopoliittista epävarmuutta.


