Hiljainen vallankumous

Kiinalainen Zhipu AI julkaisi 11. helmikuuta 2026 uuden GLM-5-mallinsa ilman suurta fanfaaria. Ei näyttävää keynote-esitystä, ei viikkojen mittaista ennakkohypetystä. Malli ilmestyi yksinkertaisesti Z.ai-alustalle ja Hugging Faceen - ja tekoälymaailma huomasi sen välittömästi.

Syitä on kolme, ja jokainen niistä on merkittävä yksinäänkin.

Ensinnäkin GLM-5 on ensimmäinen frontier-tason tekoälymalli, joka on koulutettu kokonaan Huawei Ascend -siruilla. Ei yhtään NVIDIA:n piiriä. Ei amerikkalaista teknologiaa. USA:n vientirajoitusten oli tarkoitus hidastaa Kiinan tekoälykehitystä - GLM-5 todistaa, että ne pikemminkin kiihdyttivät sitä.

Toiseksi GLM-5 on avoin malli MIT-lisenssillä. Kuka tahansa voi ladata sen, ajaa omilla palvelimillaan ja rakentaa sen päälle liiketoimintaa ilman lisenssimaksuja.

Kolmanneksi GLM-5:n API-käyttö maksaa murto-osan siitä, mitä Claude Opus 4.6 tai GPT-5.2 veloittavat - ja suorituskyky on monissa tehtävissä samaa luokkaa.

Julkaisun ajoitus tekee siitä erityisen kiinnostavan. Samalla viikolla Anthropic julkaisi Opus 4.6:n nopeutetun version ja OpenAI toi GPT-5.3 Codexin Codex-alustalle. Kilpailu huipulla ei ole koskaan ollut näin tiivistä.

Mikä on GLM-5?

Zhipu AI (kansainvälisesti Z.ai) on Tsinghua-yliopiston spinoff-yritys, joka perustettiin vuonna 2019. Yrityksen taustalla ovat professorit Tang Jie ja Li Juanzi, jotka johtivat Tsinghuan Knowledge Engineering -tutkimusryhmää. Toimitusjohtajana toimii Zhang Peng.

Yritys listautui Hong Kongin pörssiin tammikuussa 2026 ja keräsi 558 miljoonaa dollaria. Listautumisanti ylimerkittiin yli tuhatkehtaisesti. Markkina-arvo IPO:n jälkeen oli noin 7,1 miljardia dollaria - mikä tekee Zhipusta yhden maailman arvokkaimmista tekoälyyn keskittyvistä yrityksistä.

Zhipulla on 2,9 miljoonaa käyttäjää ja 12 000 yritysasiakasta. Aiemmat mallit (ChatGLM, GLM-4-sarja) olivat vahvoja erityisesti kiinankielisessä käytössä, mutta GLM-5 tähtää ensimmäistä kertaa suoraan globaaliin kilpailuun.

Tekniset spesifikaatiot

GLM-5 käyttää Mixture of Experts (MoE) -arkkitehtuuria. Käytännössä tämä tarkoittaa, että mallissa on 745 miljardia parametria, mutta jokaista syötettä käsittelee kerrallaan vain 40 miljardia. Malli koostuu 256 erikoistuneesta "asiantuntijasta", joista 8 aktivoituu per token.

Vertauskuvallisesti: GLM-5 on kuin 256 hengen asiantuntijapaneeli, josta jokaiseen kysymykseen vastaa kahdeksan relevanteinta osaajaa. Lopputulos on lähellä sitä, mitä koko paneeli tuottaisi, mutta laskentatehoa kuluu murto-osa.

Ominaisuus

GLM-5

Parametrit (yhteensä)

745 miljardia

Aktiiviset parametrit

40 miljardia

MoE-asiantuntijat

256 (8 aktiivista/token)

Konteksti-ikkuna

200 000 tokenia

Maksimituloste

131 000 tokenia

Harjoitusdata

28,5 biljoonaa tokenia

Harjoitussirut

100 000 Huawei Ascend

Lisenssi

MIT (avoin)

GLM-5 käyttää DeepSeek Sparse Attention -mekanismia, joka mahdollistaa 200 000 tokenin konteksti-ikkunan tehokkaasti ilman perinteisten transformereiden neliöllistä laskentakustannusta. Malli on koulutettu 28,5 biljoonalla tokenilla - merkittävä kasvu edeltäjän GLM-4.5:n 23 biljoonasta.

Malli tukee tällä hetkellä vain tekstiä (syöte ja tuloste). Kuvien, äänen ja videon käsittelyyn Zhipulla on erilliset mallit (GLM-Image, GLM-Voice), mutta GLM-5 itsessään on puhdas kielimalli.

Benchmark-vertailu: GLM-5 vs. länsimaiset huippumallit

Kuinka hyvä GLM-5 todella on? Riippumattomat testit antavat melko selkeän kuvan.

Avoimien mallien ykkönen

Artificial Analysis, yksi arvostetuimmista riippumattomista tekoälymallien arviointialustoista, nimesi GLM-5:n avoimien mallien johtajaksi. Se on ensimmäinen avoin malli, joka saavutti 50 pisteen rajan Artificial Analysisin Intelligence Indexissä - kaventaen merkittävästi kuilua suljettuihin kaupallisiin malleihin.

Text Arena -vertailussa GLM-5 nousi avoimien mallien ykköseksi 1 452 pisteellä, sijoittuen kokonaislistalla 11:nneksi. Se on samalla tasolla Claude Sonnet 4.5:n ja GPT-5.1-highin kanssa.

Vertailu suljettuihin malleihin

Mittari

GLM-5

Claude Opus 4.6

GPT-5.2

Huomio

AA Intelligence Index

50

53

-

GLM-5 lähellä, ero 3 pistettä

AA Agentic Index

63 (#3)

#1

#2

GLM-5 kolmas kokonaisuudessa

SWE-bench Verified

77,8%

~81%

-

Koodauksessa lähellä Claudea

AA-Omniscience Index

-1

-

-

GLM-5 alan paras (harha-arvot)

GDPval-AA ELO

1 412

#1

#2

Käytännön työtehtävissä kolmas

BrowseComp

75,9%

-

-

Web-selaustehtävät

Text Arena

#11 (1 452)

-

-

Samalla tasolla Sonnet 4.5:n kanssa

Tuloksista piirtyy selkeä kuva: GLM-5 ei ole paras missään yksittäisessä kategoriassa, mutta se on vaikuttavan lähellä huippua lähes kaikissa. Koodauksessa se jää hieman Claude Opus 4.6:sta (77,8% vs. ~81% SWE-benchissä), mutta ero on pieni. Agenttitehtävissä se sijoittuu kolmanneksi - Claude Opuksen ja GPT-5.2:n jälkeen, mutta muiden edelle.

Missä GLM-5 loistaa

GLM-5:n selkein vahvuus on harha-arvojen vähyys. Artificial Analysisin AA-Omniscience Indexissä GLM-5 saavutti tuloksen -1, mikä on alan paras. Tulos parani 35 pistettä edeltäjästä GLM-4.7:stä, ja harha-arvojen (hallusinaatioiden) määrä laski 56 prosenttiyksikköä.

Tämä tarkoittaa, että GLM-5 on oppinut tunnistamaan, milloin se ei tiedä vastausta - ja pidättäytyy vastaamasta sen sijaan, että keksisi uskottavan mutta virheellisen vastauksen. Tämä on kriittinen ominaisuus esimerkiksi lakipalveluissa, terveydenhuollossa ja journalismissa, joissa väärä tieto voi aiheuttaa vakavaa haittaa.

Zhipu AI käyttää tähän "slime"-nimistä vahvistusoppimistekniikkaa, jonka yksityiskohdat on kuvattu mallin teknisessä blogissa.

Missä GLM-5 jää jälkeen

Rehellisyyden vuoksi on syytä mainita myös puutteet:

  • Multimodaalisuus: GLM-5 käsittelee vain tekstiä. Kimi K2.5 tukee kuvia, ja Gemini 3 Pro käsittelee tekstiä, kuvia ja videota.

  • Puhdas päättely: Abstraktissa päättelyssä (ARC-AGI-2) GPT-5.2 johtaa selvästi. Claude Opus 4.6 on niin ikään edellä reasoning-tehtävissä.

  • Kielituki: Pääkielet ovat kiina ja englanti. Suomen kielen tuki on todennäköisesti heikko.

  • Konteksti: 200 000 tokenia on hyvä, mutta Gemini 3 Pro tarjoaa miljoonan tokenin ikkunan.

Hinta-vallankumous

GLM-5:n ehkä mullistavin ominaisuus ei ole mikään yksittäinen benchmark-tulos, vaan sen hinta.

API-hinnoittelu

Kolmannen osapuolen API-palveluissa (Novita, DeepInfra, GMI Cloud) GLM-5:n hinnoittelu on:

  • Syöte: ~$0,80-1,00 per miljoona tokenia

  • Tuloste: ~$2,56-3,20 per miljoona tokenia

Vertailun vuoksi: Claude Opus 4.6 ja GPT-5.2 ovat moninkertaisesti kalliimpia. Artificial Analysisin mukaan GLM-5 sijoittuu älykkyyden ja hinnan suhteessa Pareto-optimaaliselle käyrälle - eli se tarjoaa parhaan mahdollisen älykkyyden suhteessa kustannukseen.

Käytännön esimerkki: Jos yritys ajaa pitkiä agenttitehtäviä, joissa malli tuottaa miljoonia tokeneita päivässä, ero kustannuksissa voi olla tuhansia euroja kuukaudessa.

MIT-lisenssi ja avoimuus

GLM-5:n painot ovat vapaasti ladattavissa Hugging Facesta MIT-lisenssillä. Tämä tarkoittaa:

  • Mallia saa käyttää kaupallisesti ilman lisenssimaksuja

  • Sen voi ajaa omilla palvelimilla (tietoturva ja tietosuoja omissa käsissä)

  • Sitä saa muokata ja hienosäätää omiin tarpeisiin

Käytännön rajoitus: Mallin ajaminen vaatii noin 1 490 gigatavua muistia BF16-tarkkuudella. Tämä tarkoittaa useita huippuluokan GPU-kortteja tai pilvipalvelun käyttöä. Tavallisen käyttäjän kotikoneella GLM-5:ttä ei ajeta.

Useimmat hyötyvätkin mallista API-palveluiden kautta, joissa kynnys on matala ja kustannus pieni.

Mitä hintakilpailu tarkoittaa kaikille

GLM-5 ei ole ainoa edullinen vaihtoehto. DeepSeek, Qwen ja Kimi painostavat kaikki hintoja alas. Tämä kilpailu hyödyttää jokaista tekoälyn käyttäjää:

  • OpenAI ja Anthropic joutuvat reagoimaan hinnoitteluun

  • Pienet ja keskisuuret yritykset saavat frontier-tason kyvykkyyden ulottuvilleen

  • Kehittäjät voivat kokeilla ja prototypoida ilman merkittävää budjettia

Geopoliittinen merkitys: piirisaarto ei toiminut

GLM-5:n taustalla on yksi 2020-luvun merkittävimmistä teknologiapoliittisista kokeiluista - ja sen epäonnistuminen.

USA:n vientirajoitukset

Yhdysvallat on vuodesta 2022 lähtien rajoittanut huipputason tekoälysiruen vientiä Kiinaan. Tavoite oli selvä: hidastaa Kiinan tekoälykehitystä estämällä pääsy NVIDIA:n ja AMD:n tehokkaimpiin piireihin.

GLM-5 osoittaa, että strategia ei saavuttanut tavoitettaan. Zhipu AI koulutti mallin kokonaan 100 000 Huawei Ascend -sirulla käyttäen kiinalaista MindSpore-ohjelmistokehystä. Lopputulos kilpailee suoraan mallien kanssa, jotka on koulutettu NVIDIA:n huippusiruilla.

Tämä ei tarkoita, etteikö vientirajoituksilla olisi ollut mitään vaikutusta. Kiinan sirujen tehokkuus on todennäköisesti heikompi piiriä kohden, mikä tarkoittaa suurempia klustereita ja korkeampia energiakustannuksia. Mutta lopputulos - frontier-tason malli - saavutettiin siitä huolimatta.

Kaksi ekosysteemiä

Tekoälymaailma on jakautumassa kahteen rinnakkaiseen ekosysteemiin:

Läntinen ekosysteemi:

  • Sirut: NVIDIA (A100, H100, B200)

  • Suljetut mallit: OpenAI, Anthropic, Google

  • Regulaatio: EU AI Act, USA:n säännöt

Kiinalainen ekosysteemi:

  • Sirut: Huawei Ascend, omat ratkaisut

  • Avoimet mallit: GLM-5, DeepSeek, Kimi, Qwen

  • Strategia: Avoimuudella markkinaosuutta, kotimaisella teknologialla riippumattomuutta

Mielenkiintoista on, että kiinalaiset toimijat ovat valinneet avoimuuden strategiakseen. Kun OpenAI ja Anthropic pitävät mallinsa suljettuina, Zhipu, Alibaba (Qwen) ja DeepSeek jakavat omansa avoimesti. Tämä ei ole altruismia vaan strategia: avoimet mallit leviävät nopeammin, rakentavat ekosysteemiä ja luovat riippuvuuksia.

EU:n ja Suomen asema

Eurooppa on kahden blokin välissä. EU AI Act säätelee tekoälyn käyttöä, mutta ei ota kantaa mallien alkuperään. Suomalainen yritys voi teknisesti käyttää GLM-5:ttä yhtä hyvin kuin Claudea tai ChatGPT:tä.

Käytännössä kysymykset ovat monimutkaisempia: Missä data käsitellään? Kenen lainsäädännön alla? Millaiset tietoturvakäytännöt palveluntarjoajalla on? Nämä ovat samoja kysymyksiä, joita minkä tahansa pilvipalvelun kanssa joutuu pohtimaan - mutta kiinalaisiin palveluihin liittyy lisäkerros geopoliittista epävarmuutta.

Kiinalaisten mallien nousu

Subscribe to keep reading

This content is free, but you must be subscribed to AI-Sanomat to continue reading.

Already a subscriber?Sign in.Not now

Reply

Avatar

or to participate

Keep Reading