Leikkauspöydällä vai kuolinvuoteella?
Kuvittele, että sinulla on vakava sydänsairaus. Lääkäri tarjoaa leikkausta, joka voi pelastaa henkesi ja antaa sinulle vuosikymmeniä tervettä elämää. Mutta leikkaus on riskialtis - on merkittävä todennäköisyys, että kuolet leikkauspöydälle. Ilman leikkausta kuolet varmasti muutaman kuukauden tai vuoden sisällä.
Kuinka suuren riskin hyväksyisit?
Oxfordin yliopiston filosofi Nick Bostrom väittää tuoreessa tutkimuspaperissaan "Optimal Timing for Superintelligence" (helmikuu 2026), että tämä on täsmälleen se päätös, jonka ihmiskunta tekee superintelligenssin kohdalla. Paperi on working paper, jota ei ole vielä vertaisarvioitu, mutta se on jo herättänyt laajaa keskustelua akateemisissa piireissä - LessWrongissa, Hacker Newsissa ja taloustieteilijä Tyler Cowenin Marginal Revolution -blogissa.
Bostromin keskeisin väite on provokatiivinen: hänen malliensa mukaan superintelligenssin kehittäminen lisää ihmisten elinajanodotetta, vaikka AI-aiheuttaman tuhon todennäköisyys olisi jopa 97 prosenttia (Bostrom 2026, s. 5, taulukko 1). Luku kuulostaa absurdilta. Mutta logiikka sen takana on yllättävän yksinkertainen - ja vaikeasti kumottavissa.
Paperi on erityisen ajankohtainen nyt, kun OpenAI, Anthropic, Google ja muut kilpailevat avoimesti AGI:n kehittämisestä. Bostrom ei kirjoita abstraktista tulevaisuudesta. Hän kirjoittaa päätöksestä, jota tehdään juuri nyt.
Kukaan ei ole turvassa
Bostromin argumentin ydin on yksinkertainen: nykytilanne ei ole turvallinen perustila. Se tuntuu turvalliselta, koska olemme tottuneet siihen. Mutta todellisuudessa 170 000 ihmistä kuolee joka päivä sairauksiin, ikääntymiseen ja muihin syihin. Jokainen meistä on kuolemantuomion saanut - tuomion täytäntöönpano vain vaihtelee muutamasta vuodesta muutamaan vuosikymmeneen.
"If nobody builds it, everyone dies. In fact, most people are already dead. The rest of us are on course to follow within a few short decades," Bostrom kirjoittaa (s. 2).
Tämän vuoksi hän hylkää venäläisen ruletin analogian, jota AI-riskien kriitikoiden kuten Tamlyn Huntin ja Roman Yampolskiyn ovat käyttäneet. Venäläisessä ruletissa et saa mitään vastineeksi riskinotosta. Superintelligenssin kehittämisessä vastineena on mahdollisuus ratkaista kuolema itsessään.
Bostrom maalaa konkreettisen kuvan siitä, mitä onnistunut superintelligenssi voisi tarkoittaa (s. 2): Alzheimerin taudin parantaminen kasvattamalla menetetyt neuronit uudelleen. Syövän hoitaminen kohdennetuilla terapioilla, jotka tuhoavat jokaisen kasvainsolun ilman nykyisen kemoterapian kauheita sivuvaikutuksia. Kuluneiden nivelten ja tukkeutuneiden valtimoiden palauttaminen nuorekkaaseen kuntoon. Nämä eivät ole tieteisfiktiota - ne ovat realistisia ja välittömiä seurauksia, kun superintelligenssi ohjaa tiedettämme.
Mutta kyse ei ole vain lääketieteestä. Linjautettu superintelligenssi voisi myös auttaa ihmiskuntaa välttämään sotia, torjumaan bioaseita ja muita uhkia, sekä yleisesti vakauttamaan dynamiikkoja jotka muuten voisivat suistaa tulevaisuutemme raiteiltaan (s. 2).
Bostromin yksinkertainen malli toimii näin: ilman superintelligenssiä ihmisen keskimääräinen jäljellä oleva elinajanodote on noin 40 vuotta. Jos superintelligenssi onnistuu, se voisi kehittää ikääntymisen vastaiset hoidot, jotka laskisivat kuolleisuuden terveen 20-vuotiaan tasolle kehittyneissä maissa. Tämä vastaisi noin 1 400 vuoden elinajanodotetta (s. 4, alaviite 11). Bostrom huomauttaa, että tämäkin on konservatiivinen arvio, sillä se jättää huomiotta radikaalimmat mahdollisuudet kuten mielen lataamisen digitaaliseen muotoon.
Näillä oletuksilla matematiikka on suoraviivaista. Superintelligenssin kehittäminen lisää odotettua elinaikaa, jos ja vain jos:
AI-tuhon todennäköisyys < 1 - (40 / 1 400) = 97,1 %
Toisin sanoen: vain jos uskot, että superintelligenssi tuhoaa ihmiskunnan yli 97 prosentin todennäköisyydellä, kannattaa jättää se kehittämättä. Ja tämä on siis vain elinajan pituuden osalta - jos oletetaan, että elämänlaatu paranisi AGI:n jälkeen, kynnys nousee entisestään.
Bostromin taulukko 1 (s. 5) näyttää hyväksyttävän riskitason eri elämänlaatuskenaarioissa. Jos AGI:n jälkeinen elämä olisi kaksi kertaa parempaa kuin nykyinen, hyväksyttävä tuhoriskin raja nousee yli 98 prosenttiin. Jos kymmenen kertaa parempaa, lähes 100 prosenttiin.
On syytä huomata, mitä "97 prosentin tuhoriskin" pitää tarkoittaa: kyse on todennäköisyydestä, että koko ihmiskunta kuolee. Bostrom huomauttaa (s. 28, alaviite 22), että epäonnistunut superintelligenssi ei välttämättä tapa kaikkia. Jos osa ihmisistä selviäisi, hyväksyttävä riski nousee entisestään - teoriassa jopa 100 prosenttiin.
Milloin painaa nappia?
Yksinkertainen "nyt tai ei koskaan" -malli on vasta lähtökohta. Todellisuudessa päätös on monimutkaisempi: milloin superintelligenssi kannattaa ottaa käyttöön?
Odottaminen vähentää riskiä, koska turvallisuustutkimus ehtii edetä. Mutta odottaminen myös maksaa ihmishenkiä, koska ihmiset jatkavat kuolemista perinteisiin syihin. Tämä on sama dilemma kuin sydänpotilaalla: odotatko parempaa kirurgia, mutta riskeeraat kuoleman odottaessa?
Bostromin taulukko 3 (s. 6) näyttää optimaaliset odotusajat eri alkuriskin ja turvallisuusedistyksen yhdistelmillä. Tulokset ovat yllättäviä:
Kun alkuriski on matala (esim. 5 %): kannattaa toimia heti tai odottaa korkeintaan kuukausia
Kun alkuriski on korkea (esim. 80 %) ja turvallisuus etenee kohtalaisesti: optimaalinen viive on tyypillisesti muutama vuosi, ei vuosikymmeniä
Ääritapauksessa (99 % riski, erittäin hidas turvallisuusedistys): ei kannata koskaan ottaa käyttöön
Mielenkiintoisin löydös on, että sekä erittäin nopea että erittäin hidas turvallisuusedistys suosivat aikaista käyttöönottoa (s. 6-7). Jos turvallisuus paranee nopeasti, ei tarvitse odottaa kauan. Jos hitaasti, odottamisesta ei ole juuri hyötyä. Pisimmät viiveet syntyvät vain välimaastossa: turvallisuus paranee tarpeeksi nopeasti, jotta odottaminen kannattaa, mutta tarpeeksi hitaasti, ettei ongelma ratkea itsestään.
Nopeasti satamaan, hitaasti laituriin
Paperin kenties tärkein käytännön kontribuutio on monivaiheinen malli (s. 11-13), jossa erotetaan kaksi aikamuuttujaa:
Vaihe 1: Aika ennen kuin AGI on teknisesti mahdollinen (pääosin teknisen kehityksen ja kilpailun ajama)
Vaihe 2: Mahdollinen tauko AGI-kyvyn saavuttamisen ja täyden käyttöönoton välillä
Bostrom jakaa vaiheen 2 neljään osaan, joista kukin on hitaampi kuin edellinen (s. 12):
2a (viikot-kuukaudet): Erittäin nopea turvallisuusedistys - ensimmäistä kertaa voidaan tutkia varsinaista järjestelmää
2b (noin vuosi): Nopea edistys, mutta helpoimmat ongelmat on jo ratkaistu
2c (vuosia): Kohtalainen edistys, vastaa vaiheen 1 tasoa
2d (loputtomiin): Hyvin hidas edistys, perustutkimusta
Taulukko 8 (s. 12) näyttää, että monissa skenaarioissa optimaalinen strategia on lyhyt tauko vaiheen 2 alussa - kuukausia tai muutama vuosi - jolla hyödynnetään nopeimman turvallisuusedistyksen vaihe. Sen jälkeen lisäodottamisen hyödyt pienenevät nopeasti.
Vielä kiinnostavampaa: taulukko 9 (s. 13) osoittaa, että kun päätöksentekijä voi vaikuttaa molempiin muuttujiin, monissa skenaarioissa kannattaa jopa nopeuttaa vaihetta 1 päästäkseen vaiheen 2 turvallisuusvoittoihin aikaisemmin. Toisin sanoen: nopeampi AGI-kehitys voi johtaa turvallisempaan lopputulokseen, koska se antaa enemmän aikaa testata varsinaista järjestelmää.
Bostrom tiivistää tämän iskulauseeksi: "Swift to harbor, slow to berth" - nopeasti satamaan, hitaasti laituriin.
Aikapreferenssi ja elämänlaatu kääntävät yhtälöä
Perusmallin päälle Bostrom rakentaa useita herkkyysanalyysejä, jotka testaavat tulosten kestävyyttä (s. 7-10, liitteet B-D).
Aikapreferenssi (temporal discounting) tarkoittaa sitä, että arvostamme lähitulevaisuuden hyötyjä enemmän kuin kaukaisia. Jos diskonttaamme tulevaisuutta kolmen prosentin vuosivauhdilla, 1 400 vuoden elinajanodote ei ole enää 35-kertainen nykyiseen nähden - sen nykyarvo on paljon pienempi. Tämä hidastaa optimaalista aikataulua, koska kaukaiset elinvuodet menettävät painoarvoaan (taulukko 4, s. 8).
Mutta sitten tulee käänne. Jos oletamme, että elämänlaatu paranee AGI:n jälkeen - vaikkapa kaksinkertaiseksi nykyiseen nähden - aikapreferenssin vaikutus kääntyy (s. 8-9). Nyt kärsimättömyys rankaisee AGI:n viivästyttämistä, koska joka päivä ilman sitä on päivä huonompilaatuista elämää. Mitä suurempi laatuero, sitä vahvemmin aikapreferenssi vetää kohti nopeampaa käyttöönottoa.
Bostrom testaa myös vähenevää rajahyötyä - ajatusta, että ensimmäiset sata lisäelinvuotta ovat arvokkaampia kuin seuraavat tuhat (taulukko 6, s. 9-10). Tämä tekee päätöksentekijästä konservatiivisemman: "ota käyttöön heti" -alue pienenee ja optimaaliset viiveet pitenevät. Mutta vaikutus on maltillinen. Edes merkittävä riskiaversio ei kumoa peruslogiikkaa: pitkät viiveet ovat optimaalisia vain hyvin harvoin.
Kenen elämästä on kyse?
Paperin poliittisesti kiinnostavin osio käsittelee sitä, kenellä on eniten menetettävää ja voitettavaa (s. 19-24).
Optimaalinen aikataulu vaihtelee ihmisten välillä. Vanhukset kohtaavat korkeamman lähiajan kuolleisuusriskin ilman AGI:ta. Vakavasti sairaat eivät voi odottaa vuosikymmeniä turvallisempaa versiota. Köyhät ja kurjat hyötyisivät eniten AGI:n jälkeisestä runsaudesta, koska heillä on vähemmän menetettävää nykytilassa.
"Those who are old, sick, poor, downtrodden, miserable - or who have higher discount rates or less concave preferences over future quality-adjusted life years - should prefer earlier AGI launch dates compared to people who are comparatively satisfied and secure in the status quo," Bostrom kirjoittaa (s. 20).
Tämä luo ristiriidan eri väestöryhmien välille. Terveet, nuoret ja hyvinvoivat ihmiset voivat rationaalisesti suosia pidempää odottamista. Vanhat, sairaat ja köyhät eivät.
Bostrom huomauttaa, että rikkaiden ja köyhien maiden välinen elinajanodotteen ero - joka voi olla yli 25 vuotta syntymähetkellä - kaventuu mutta ei katoa, kun otetaan huomioon köyhien maiden nuorempi ikärakenne (s. 20, alaviite 16). Köyhyys korreloi positiivisesti lyhyemmän jäljellä olevan elinajan kanssa myös väestöpainotetulla mittarilla. Toisin sanoen: taloudellisesti huono-osaiset ihmiset voivat keskimäärin odottaa kuolevansa aiemmin kuin hyväosaiset - mikä vahvistaa heidän intressiään nopeampiin AGI-aikatauluihin.
Julkisen politiikan kirjallisuudessa käytetään usein prioritarianistista sosiaalista hyvinvointifunktiota, joka painottaa heikoimmassa asemassa olevia (Parfit 1997, johon Bostrom viittaa s. 20). Jos yhteiskunta antaa enemmän painoarvoa huono-osaisimmille - kuten monet oikeudenmukaisuusteoriat edellyttävät - optimaalinen aikataulu superintelligenssin käyttöönotolle lyhenee entisestään.
Miksi "70 vuotta riittää" on väärä argumentti
Bostrom kumoaa myös niin kutsutun "full cup" -näkemyksen (s. 22-23): ajatuksen, että noin 70 elinvuotta täyttää ihmisen "kupin" ja sen jälkeen lisäelinvuosilla on vähän arvoa.
Hän myöntää, että intuitiolla on pintapuolista vetovoimaa. Mutta hän väittää sen johtuvan sekaannuksesta: nykyinen vanhuus on yhdistetty monisairastavuuteen, heikkeneviin kykyihin, yksinäisyyteen, kipuun ja synkkiin tulevaisuudennäkymiin. Tietenkin lisäelinvuodet näissä olosuhteissa tuntuvat vähemmän arvokkailta. Mutta AGI-kontekstissa nämä olosuhteet eivät päde - koko premissi on, että terveys palautetaan täysimääräisesti.
Bostrom viittaa tutkimukseen (Tsevat ym. 1998, johon viitattu s. 23-24), jossa yli 80-vuotiaat sairaalapotilaat arvioivat jäljellä olevan elämänsä arvoa. Yli kaksi kolmasosaa oli valmis luopumaan korkeintaan yhdestä kuukaudesta jäljellä olevasta vuodestaan saadakseen "erinomaisen terveyden". Omaiset ja sijaiset aliarvioivat systemaattisesti potilaiden halua elää. Ja kun samoja potilaita haastateltiin vuotta myöhemmin, he olivat valmiita luopumaan vielä vähemmästä ajasta terveyden vuoksi.
Ihmiset jotka ovat lähimpänä kuolemaa arvostavat elämää enemmän kuin ulkopuoliset uskovat.
Miksi pysäyttäminen voi olla vaarallisempaa kuin jatkaminen
Bostrom listaa paperissaan 14 tapaa, joilla AI-kehityksen pysäyttäminen tai hidastaminen voi kääntyä itseään vastaan (s. 25-27). Tässä merkittävimmät:
Laskentateho-ylijäämä. Jos AI-kehitys pysäytetään mutta laitteisto- ja algoritmikehitys jatkuu, syntyy valtava "compute overhang". Kun pysäytys lopulta puretaan, edistys on räjähdysmäinen ja hallitsematon - vaarallisempi kuin tasainen kehitys olisi ollut. Pahimmassa tapauksessa pysäytys kestää niin kauan, että vaaralliset mallit voidaan ajaa kuluttajalaitteilla, mikä tekee sääntelystä mahdotonta (s. 26).
Kehitys siirtyy muualle. Pysäytys ajaa kehityksen maanalaisten toimijoiden, vähemmän vastuullisten valtioiden tai sotilaallisen sektorin piiriin. Tuloksena voi olla vähemmän läpinäkyvyyttä, heikompi turvallisuustutkimus ja suurempi tuhoaseiden kehittämisen painotus (s. 25).
Turvallisuusteatteri. Huonosti suunniteltu sääntely tuottaa vaatimustenmukaisuusbyrokratiaa, joka kuluttaa resursseja mutta ei vähennä todellista riskiä. Lomakkeiden täyttäminen syrjäyttää varsinaisen turvallisuustyön (s. 25).
Pysyvä luopuminen. Alun perin väliaikaiseksi tarkoitettu moratorio jäädyttää pysyväksi kielloksi. Bostrom kuvailee mekanismia, jossa hyperbolinen diskonttaus - "ei tänään" -ajattelu joka toistuu joka kerta kun käyttöönottopäivä lähestyy - voi johtaa ikuiseen lykkäämiseen (s. 26, alaviite 20).
Totalitarismin riski. Globaalin pysäytyksen valvominen vaatii voimakasta kontrollikoneistoa. Tämä koneisto voi itsessään kehittyä uhkaksi vapauksille (s. 26).
Yudkowsky vs. Bostrom
Paperi asettuu suoraan vastakkain Eliezer Yudkowskyn ja Nate Soaresin kannan kanssa. Heidän vuoden 2025 kirjassaan "If Anyone Builds It, Everyone Dies" Yudkowsky ja Soares ehdottavat rajatonta kestoaikaa omaavaa sopimusta, joka kieltäisi AGI:n kehittämisen ja sitä tukevan laskentainfrastruktuurin (s. 1, alaviite 2). He näkevät superintelligenssin lähes varmana tuomiona.
Bostrom kääntää argumentin päälaelleen: kyllä, superintelligenssi voi tappaa meidät. Mutta sen kehittämättä jättäminen tappaa meidät varmasti. Kysymys ei ole siitä, hyväksymmekö riskin - vaan siitä, kumman riskin valitsemme.
Mielenkiintoisesti Yudkowsky ja Soares eivät itsekään vastusta superintelligenssin rakentamista ikuisesti. He ehdottavat geneettisesti muokattujen supernerojen tiimiä, joka lopulta auttaisi ihmiskuntaa navigoimaan siirtymän turvallisesti (Yudkowsky & Soares 2025b, johon viitattu s. 1, alaviite 2). Bostrom pitää tätä aikataulua tarpeettoman pitkänä.
Mitä tämä tarkoittaa käytännössä?
Bostrom itse korostaa, ettei paperi anna suoria politiikkasuosituksia: "The preceding analysis - although it highlights several relevant considerations and tradeoffs - does not on its own imply support for any particular policy prescriptions" (s. 30).
Mutta hän analysoi kolme mahdollista pysäytysskenaariota (s. 27-28):
Eturintaman toimija hidastaa vapaaehtoisesti. Yritys jolla on teknologinen etumatka "polttaa" osan siitä ylimääräisiin varotoimiin. Tämä on houkuttelevin vaihtoehto: ei vaadi sääntelykoneistoa, ei johda pysyvään luopumiseen, ja päättyy luonnollisesti kun kilpailija saavuttaa saman tason. Haittapuoli: nykyisessä kilpailutilanteessa etumatkat mitataan kuukausissa.
Valtion asettama moratorio. Tuo mukanaan byrokratisoitumisen, sotilaistumisen ja itsevaltaistumisen riskit. Kesto voi venyä tarpeettoman pitkäksi, erityisesti jos se syntyy poliittisen AI-vastaisen liikehdinnän tuloksena.
Kansainvälinen sopimus. Teoriassa paras, käytännössä vaikein. Tiukka valvonta estää kehityksen siirtymisen muualle, mutta luo samalla riskin globaalista totalitaarisesta järjestelmästä. Ilman tiukkaa valvontaa kehitys jatkuu vähiten yhteistyöhaluisissa maissa.
Bostrom pitää pragmaattisimpana yhdistelmää: maailma etenee nopeasti kohti AGI-kykyä (vaihe 1), ja sitten eturintaman toimijat sopivat lyhyestä tauosta ennen täyttä käyttöönottoa (vaihe 2). Tämä on "swift to harbor, slow to berth" käytännössä.
Hän huomauttaa myös, että AI-kehityksen ajoituskysymys ei koske vain moratorioita. Mikä tahansa politiikka, joka hidastaa AI-kehitystä marginaalilla - siruvientirajoitukset, datakeskusten verotus, irtisanomisia vaikeuttavat työlait - on implisiittisesti kannanotto ajoituskysymykseen (s. 28). Sen arvioiminen, onko tuo hidastus toivottava vai ei, vaatii juuri sellaista analyysiä kuin mitä paperi tarjoaa.
Turvallisuustestauksen arvo
Bostrom tarkastelee myös variaatiota, jossa järjestelmän riskitaso on epävarma ja turvallisuustestit voivat antaa siitä tietoa (s. 17-18, liite G). Tämä muuttaa ongelman luonteen: sen sijaan, että valittaisiin optimaalinen käyttöönottopäivä etukäteen, valitaan optimaalinen politiikka: ota käyttöön kun näyttö on riittävän suotuisaa, odota kun se ei ole.
Taulukko 13 (s. 17) osoittaa, että useimmissa tapauksissa optimaalinen politiikka tuottaa lyhyen mutta nollaa suuremman viiveen. Jos järjestelmän todellinen riskitaso osoittautuu matalaksi, käyttöönotto tapahtuu tyypillisesti vuoden sisällä. Jos riskitaso on korkea, odotusajat pitenevät. Testaus nostaa odotettua hyötyä kaikissa tapauksissa - joskus lyhentämällä käyttöönottoaikaa, joskus vähentämällä riskiä käyttöönottohetkellä (taulukko 14, s. 18).
Entä jos maailma muuttuu vaarallisemmaksi?
Bostrom pohtii myös skenaariota, jossa lähes AGI-tason järjestelmät tekevät maailmasta vaarallisemman ennen täyden superintelligenssin käyttöönottoa (s. 14-16). Erikoistuneet AI-järjestelmät voisivat levittää bioaseiden valmistuskykyä, mahdollistaa autonomisia drone-parvia, horjuttaa poliittisia prosesseja tai kiihdyttää geopoliittista kilpailua.
Bostrom pitää pessimististä skenaariota todennäköisempänä kuin optimistista: merkittävät lääketieteen läpimurrot vaativat pitkiä kliinisiä kokeita ja aikaa saavuttaa globaali mittakaava, kun taas tuhoamiskyky voi levitä nopeasti (s. 14). Tämä lisää syitä pitää vaihe 2 - tauko AGI-kyvyn ja käyttöönoton välillä - lyhyenä ja tarkoituksenmukaisena.
Paras huono vaihtoehto
Bostromin paperin ydinviesti on epämukava: emme valitse riskin ja turvallisuuden välillä. Valitsemme kahden riskin välillä. Toinen riski on tuttu ja näkymätön - päivittäinen kuolema sairauksiin ja ikääntymiseen. Toinen on uusi ja pelottava - mahdollisuus, että luomamme superintelligenssi tuhoaa meidät.
Matematiikka osoittaa, että useimmilla uskottavilla parametriarvoilla uusi riski kannattaa hyväksyä. Ei siksi, että se olisi pieni - vaan siksi, että vanha riski on varma.
Bostromin "swift to harbor, slow to berth" -strategia ei ole rohkea optimismi. Se on pragmaattinen laskutoimitus: edetään nopeasti kohti kyvykkyyttä, pysähdytään hetkeksi testaamaan ja säätämään, ja otetaan käyttöön kun riski on laskenut riittävästi. Suurin turvallisuusvoitto saadaan juuri siinä lyhyessä tauossa, kun varsinaista järjestelmää voidaan ensimmäistä kertaa tutkia.
Onko tämä oikea vastaus? Bostrom itse varoittaa liioittelemasta paperin sovellettavuutta. Se on yksinkertaistettu malli monimutkaisesta todellisuudesta. Paperi rajautuu tietoisesti "arkisiin" näkökulmiin - se jättää eksplisiittisesti käsittelemättä simulaatiohypoteesit, digitaalisten mielten moraalisen statuksen, äärettömän etiikan ja muut "arkaaniset" kysymykset (s. 3-4). Se tarkastelee asiaa vain nykyisten ihmisten näkökulmasta, ei mahdollisten tulevien sukupolvien. Ja se olettaa, ettei kukaan yksittäinen toimija hallitse aikataulua - todellisuudessa monilla toimijoilla on eri intressit ja kenelläkään ei ole täyttä valtaa.
Silti paperin peruslogiikka on vaikea kumota. Se ei väitä, että superintelligenssi olisi turvallista. Se väittää, että status quo on vaarallisempi kuin useimmat meistä ymmärtävät - koska olemme sokeita hitaalle katastrofille joka tapahtuu ympärillämme joka päivä.
Kukaan meistä ei ole turvassa. Kysymys on vain siitä, minkä riskin valitsemme.
Lähteet:
Bostrom, N. (2026). "Optimal Timing for Superintelligence: Mundane Considerations for Existing People". Working paper, versio 1.0. nickbostrom.com
Yudkowsky, E. & Soares, N. (2025a). If Anyone Builds It, Everyone Dies. Little, Brown and Company.
Yudkowsky, E. & Soares, N. (2025b). "Why Would Making Humans Smarter Help?" Supplementary online material.
Tsevat, J., Dawson, N., Wu, A. ym. (1998). "Health Values of Hospitalized Patients 80 Years or Older". JAMA 279(5): 371-375.
Parfit, D. (1997). "Equality and Priority". Ratio 10(3): 202-221.
Bostrom, N. (2014). Superintelligence: Paths, Dangers, Strategies. Oxford University Press.
Haluatko sparrailla AI:sta etäkahvitellen?
Tekoäly voi olla voimakas työkalu, ja näiden aloittelijaystävällisten vaihtoehtojen avulla voit hyödyntää sitä omissa projekteissasi – olipa kyseessä sisällöntuotanto, ohjelmointi, markkinointi tai oppiminen.
Jos kaipaat koulutusta tekoäly-työkalujen käyttöön, nappaa tästä sitoumukseton etäkahvitteluaika ja jutellaan tarpeistasi 👇


