50 hengen kehitystiimi käyttää Claude Opus 4.6:ta noin 10 miljardin output-tokenin edestä kuukaudessa. Lasku on noin 230 000 euroa. Sama käyttö DeepSeek V4-Prolla maksaa 32 000 euroa. Benchmarkit ovat koodaustehtävissä käytännössä identtiset.

Luvut ovat todellisia. DeepSeek julkaisi V4-Pron ja V4-Flashin 24. huhtikuuta 2026. Painot löytyvät Hugging Facesta MIT-lisenssillä. API on avoinna kaikille.

Kysymys, jonka jokainen suomalainen AI-päätöksentekijä joutuu nyt ratkaisemaan, on: miten V4 otetaan käyttöön niin, että tietoturva, GDPR ja geopolitiikka pysyvät hallinnassa.

Tässä artikkelissa käymme läpi kolme asiaa. Ensin mikä V4 on ja miten se vertautuu länsimaisiin frontier-malleihin. Sen jälkeen kustannuslaskelma suomalaiselle organisaatiolle. Lopuksi käytännön valintaopas ja 30 minuutin kokeiluohje.

Mikä DeepSeek V4 on

DeepSeek on kiinalaisen kvantitatiivisen hedge fundin High-Flyerin tutkimuslaboratorio. Perustaja Liang Wenfeng johti aiemmin kvanttisijoitusstrategioita ennen kuin hän siirsi painopisteen tekoälyyn. Kyseessä on tutkimusorganisaatio, ei tuoteyritys perinteisessä mielessä.

Aikajana auttaa ymmärtämään V4:n merkityksen:

  • Toukokuu 2024: V2, ensimmäinen merkittävä MoE-arkkitehtuuri DeepSeekiltä

  • Joulukuu 2024: V3, selvästi parantunut suorituskyky

  • Tammikuu 2025: R1, päättelymalli, joka järkytti markkinoita halpuudellaan

  • Elokuu 2025: V3.1, hybridipäättelyarkkitehtuuri

  • Joulukuu 2025: V3.2, Sparse Attention pitkille konteksteille

  • Huhtikuu 2026: V4-Pro ja V4-Flash, 1 miljoonan tokenin konteksti ja Huawei-optimointi

V4 on kahdessa variantissa. V4-Pro on 1,6 biljoonan parametrin MoE-malli, jossa kerrallaan aktivoituu 49 miljardia parametria. V4-Flash on 284 miljardin parametrin versio, jossa aktivoituu 13 miljardia kerrallaan. Molemmilla on miljoonan tokenin konteksti-ikkuna ja 33 biljoonan tokenin koulutusdata.

MoE eli Mixture-of-Experts tarkoittaa käytännössä sitä, että mallilla on monta "asiantuntijaa", mutta jokaisessa syötteessä aktivoituu vain osa niistä. Tämä tekee suurista malleista nopeita ja kustannustehokkaita ajaa. V4-Pron aktiivinen parametrimäärä 49 miljardia on pienempi kuin GPT-4:n koko malli, mutta kokonaiskapasiteetti on moninkertainen.

Tärkeä huomio: V4 on julkaisuhetkellä pelkkä tekstimalli. Multimodaalisuus eli kuvien ja videon ymmärrys ei ole mukana. DeepSeek on ilmoittanut kehittävänsä kuvaominaisuuksia, mutta tällä hetkellä käyttöaihe on rajattu tekstiin ja koodiin.

Benchmarkit: onko V4 oikeasti frontier-tasolla

Vastaus on kyllä, mutta vivahteikkaasti. Taulukko kertoo enemmän kuin lyhyt tiivistys.

Benchmark

V4-Pro

Claude Opus 4.6

GPT-5.4

Gemini 3.1 Pro

SWE-Bench Verified

80,6 %

80,8 %

80,6 %

Terminal-Bench 2.0

67,9 %

65,4 %

LiveCodeBench

93,5 %

88,8 %

91,7 %

Codeforces Rating

3 206

3 168

3 052

IMOAnswerBench

89,8 %

75,3 %

91,4 %

81,0 %

MMLU-Pro

87,5 %

89,1 %

87,5 %

91,0 %

GPQA Diamond

90,1 %

93,6 %

94,3 %

HLE (Humanity's Last Exam)

37,7 %

40,0 %

39,8 %

44,4 %

Taulukosta kannattaa lukea kaksi asiaa.

Ensinnäkin koodaus ja matematiikka: V4-Pro tasoittaa tai voittaa Claude Opus 4.6:n jokaisessa koodausbenchmarkissa. LiveCodeBenchissä ero on viisi prosenttiyksikköä Claudeen nähden. Matematiikkapuolella V4-Pro ylittää Clauden selvästi, muttei aivan yllä GPT-5.4:n tasolle.

Toisekseen yleistieto ja tiede: V4-Pro jää 3–6 prosenttiyksikköä jälkeen Claude Opus 4.6:sta ja GPT-5.4:stä. Ero on suurin HLE:ssä, joka on vaikein tieteellisen päättelyn benchmark. DeepSeekin oma kommentti on, että malli on "3–6 kuukautta jäljessä frontieria" tieteellisissä tehtävissä.

Artificial Analysis asettaa V4-Pron älykkyysindeksissä sijalle 2 avoimen lähteen mallien joukossa. Pisteet 52/100, kun alan mediaani on 28. V4 on koodaus- ja päättelyluokan kärkeä, mutta tieteellisessä ajattelussa länsimaalliset suljetut mallit ovat vielä kuukausia edellä.

Benchmarkit ovat aina vain osa totuutta. Testaa omalla datalla ja omilla käyttötapauksilla ennen suurempaa sitoutumista. Simon Willisonin mukaan V4-Pron oikean maailman suorituskyky vastaa "lähes frontieria" suurimmassa osassa arkitehtäviä.

Hinnoittelu: konkreettinen laskelma

Tämä on V4:n todellinen uutisarvo. Benchmarkit ovat kuin ovat, mutta hinnoittelu rikkoo aiemmat markkinarakenteet.

Malli

Input ($/M)

Output ($/M)

Suhde V4-Prohon

DeepSeek V4-Flash

0,14

0,28

1/12 Prosta

DeepSeek V4-Pro

1,74

3,48

1x

GPT-5.4

2,50

15,00

4,3x

Gemini 3.1 Pro

2,00

12,00

3,4x

Claude Opus 4.6

5,00

25,00

7,2x

V4-Flash on halvempi kuin GPT-5.4 Nano (0,20/1,25 $ per M-tokenia). Robert Scoble tiivisti asian X:ssä 24.4.2026: sama benchmark-luokka, viidennes hinnasta.

Tehdään konkreettinen laskelma. Otetaan suomalainen 50 hengen kehitysorganisaatio, joka käyttää AI-koodausta aktiivisesti. Kuukauden output-tokeniin kertyy 10 miljardia tokenia. Tämä on realistinen lukema, jos jokainen kehittäjä tuottaa noin 7 miljoonaa tokenia päivässä. Cursorin ja Claude Coden kanssa tämä on nykyään varsin normaalia.

Kuukausilaskut puhdastokenihinnoilla ilman ALV:ta:

  • Claude Opus 4.6: 10 mrd × 25 $/M = 250 000 $ ≈ 230 000 €

  • GPT-5.4: 10 mrd × 15 $/M = 150 000 $ ≈ 138 000 €

  • DeepSeek V4-Pro: 10 mrd × 3,48 $/M = 34 800 $ ≈ 32 000 €

  • DeepSeek V4-Flash: 10 mrd × 0,28 $/M = 2 800 $ ≈ 2 600 €

Vuositasolla Claudesta V4-Prohon vaihtaminen säästää noin 2,4 miljoonaa euroa. V4-Flashiin vaihtaminen säästää noin 2,7 miljoonaa euroa, jos malli riittää laatutasoltaan. Useimmissa koodaustehtävissä V4-Flash riittää.

Yksi varoitus paikallaan: API-hinta ei ole kokonaiskustannus. Kun mietit self-hostingia, laskuun tulevat GPU-klusterin vuokra, valvontatyö, tietoturva ja ylläpito. Nämä näkyvät oikeassa laskennassa vasta luvussa tietoturva ja GDPR.

Mikä tekee V4:stä teknisesti erilaisen

DeepSeek kehitti V4:ään kolme teknistä innovaatiota, jotka kannattaa ymmärtää korkeatasolla. Ne selittävät, miksi kiinalainen malli pystyy operoimaan länsimaalaisia halvemmalla.

Compressed Sparse Attention on uusi huomiomekanismi. Se vie 27 prosenttia V3.2:n laskentakustannuksista ja 10 prosenttia KV-cachen muistista. Käytännössä miljoonan tokenin konteksti-ikkuna ei vaadi samaa tehoa kuin kilpailijoilla. Pitkän kontekstin tehtävät (dokumenttianalyysi, kokonaiset koodikantarepositoriot, juridinen läpikäynti) ovat V4:n vahvuus.

Engram Conditional Memory on tekniikka, jolla V4 saavuttaa 97 prosentin tarkkuuden niin sanotussa Needle-in-a-Haystack-testissä. Testissä piilotetaan kriittinen tieto miljoonan tokenin syötteeseen ja tarkistetaan, osaako malli löytää sen. 97 prosenttia on käytännössä kärkiluokkaa.

Huawei-optimointi on geopoliittisesti merkittävin. V4 on ensimmäinen DeepSeek-malli, joka on optimoitu Huawein Ascend 950 -piireille Nvidian GPU:iden sijaan. V4-Flashin koulutus tehtiin Huawein laitteistolla. V4-Pron osalta DeepSeek ei kerro yksityiskohtia. Kiinalainen AI-ekosysteemi on irrottautumassa amerikkalaisesta laitteistosta.

Trumpin hallinnon virkailija väitti huhtikuussa 2026, että V4 koulutettiin kielletyillä Nvidia Blackwell -piireillä Inner Mongolian datakeskuksessa. Nvidia kutsui väitteitä "kaukaa haetuksi" ja DeepSeek kiisti ne. CSIS:n analyysin mukaan V4:n Huawei-optimointi "signaloi, että kiinalaiset AI-labrat voivat rakentaa frontier-malleja ilman amerikkalaisia siruja". Liang Wenfengin oma kommentti asiasta on ollut yksiselitteinen: raha ei ole koskaan ollut ongelma, piirikiellot ovat.

Markkinointijohtajan AI-työkalupakki
Markkinointijohtajan AI-työkalupakki
122 strategista kehotepohjaa markkinoinnin johtamiseen. Hallitusraportointi, budjettineuvottelut, tiimin johtaminen, brändistrategia, kriisiviestintä ja AI-strategia. Kehotteet on tehty johtajalle,...
€79.00 eur

Geopoliittinen konteksti lyhyesti

Teknologisen valinnan takana on aina geopoliittinen valinta. Jos otat käyttöön DeepSeekin, kannattaa ymmärtää maasto.

Yhdysvaltain vientirajoitukset (2022–2026) ovat pakottaneet kiinalaiset AI-labrat käyttämään 2–4-kertaisen laskentatehon samaan lopputulokseen. DeepSeekin kaltaiset yritykset ovat sen vuoksi optimoineet mallien tehokkuutta aivan eri tasolla kuin amerikkalaiset kilpailijat. Paradoksaalisesti vientirajoitukset ovat tehneet kiinalaisista malleista halvempia käyttää.

Kiinan kansallinen tiedustelupalvelulaki (2017, pykälä 7) velvoittaa kiinalaisia yrityksiä luovuttamaan dataa viranomaisille pyydettäessä. Tämä koskee myös DeepSeekin APIa. Kun lähetät tekstisi api.deepseek.com-osoitteeseen, data prosessoidaan Kiinan palvelimilla ja voi olla Kiinan viranomaisten saatavilla.

Euroopan GDPR-tutkimukset ovat käynnistyneet useissa maissa. Italia, Irlanti, Belgia, Alankomaat ja Ranska selvittävät DeepSeekin tietosuojakäytäntöjä. Tutkimukset keskittyvät erityisesti siihen, miten henkilötietoja käsitellään ja siirretään.

Kirjoitin aiemmin kiinalaisten LLM-mallien käytöstä sairaaloissa, ja sama logiikka pätee tähänkin. Teknologia voi olla teknisesti erinomainen, mutta lainsäädäntö määrittää käytännön hyödynnettävyyden suurissa organisaatioissa.

Tietoturva ja GDPR: voiko DeepSeekiä käyttää Suomessa

Vastaus riippuu kolmesta tekijästä: datan luonne, budjetti ja tekninen osaaminen.

logo

Tilaa AI-Sanomien Plus-jäsenyys niin näet loput sisällöstä

Tilaamalla AI-Sanomien maksullisen jäsenyyden saat pääsyn kaikkiin uutiskirjeen sisältöihin sekä tuet Suomen parasta AI-mediaa.

Tilaa jäsenyys tästä! Voit lopettaa koska tahansa.

Miksi tilaus kannattaa?:

  • Näet kaikki uutiskirjeen sisällöt, uudet AI-työkalut sekä vinkit tekoälyn käyttöön.
  • Pääsy kaikkiin verkkokursseihin kurssit.aisanomat.fi-alustassa
  • Pääsy Kehotesuunnittelija.fi Premium-tasoon (15 €/kk)
  • Pääsy satoihin maksullisiin sisältöihin, oppaisiin ja artikkeleihin

Reply

Avatar

or to participate

Keep Reading