- AI-Sanomat
- Posts
- Opas: Näin rakennat toimivan kehotteen AI-agentille
Opas: Näin rakennat toimivan kehotteen AI-agentille
Tämä opas antaa sinulle käytännön vinkit tehokkaiden AI-agenttien rakentamiseen

Kun kehotteet eivät enää riitä
Muistatko sen ajan, kun tekoälyn kanssa työskentely tarkoitti pelkästään "oikean kehotteen" löytämistä? Kirjoitit huolellisesti laaditun ohjetekstin, painoit Enter-näppäintä ja toivoit parasta. Jos tulos ei ollut tyydyttävä, palasit takaisin muokkaamaan kehotetta sanasta sanaan, kuin hioisit runoa täydellisyyteen.
Tuo aika alkaa olla ohi. Nykyään tekoälysovellusten rakentaminen on siirtynyt uudelle tasolle, jossa pelkkä kehotteen kirjoittaminen ei enää riitä.
Kun tekoälystä tehdään agentti – itsenäisesti toimiva järjestelmä, joka käyttää työkaluja ja tekee päätöksiä useiden vaiheiden aikana – kysymys muuttuu muotoon: "Mikä kontekstin kokoonpano todennäköisimmin johtaa haluttuun lopputulokseen?"
Tämä on kontekstisuunnittelun (context engineering) ydin. Siinä missä kehotteen kirjoittaminen (prompt engineering) keskittyi ohjeiden sanamuotoon, kontekstisuunnittelu tarkastelee koko sitä informaatiokokonaisuutta, joka kielimallille annetaan jokaisella käyttökerralla. Tämä opas vie sinut matkalle perusperiaatteista käytännön toteutukseen.
Miksi konteksti on kuin työpöytä täynnä post-it -lappuja
Kuvittele työpöytä, jonka pinnalla on vain rajallinen määrä tilaa. Jokainen uusi dokumentti, muistilappu tai kirja vie siitä osan. Lopulta pöytä täyttyy niin täyteen, että et enää löydä sieltä mitään olennaista – kaikki vain hukuttaa kaiken muun alleen.

Kielimallit toimivat samalla tavalla. Niillä on niin sanottu "huomiobudjetti" (attention budget), joka kuluu jokaisen uuden tokenin (sanan tai merkin) myötä. Tutkimukset ovat osoittaneet ilmiön, jota kutsutaan "kontekstin rapautumiseksi" (context rot): mitä enemmän tokeneita kontekstissa on, sitä heikommaksi mallin kyky käsitellä ja muistaa yksittäisiä tietoja käy.
Mikä ihmeen context rot?
Context rot (kontekstin rapautuminen) on ilmiö, jossa tekoälymallin suorituskyky heikkenee merkittävästi, kun sen konteksti-ikkunaan syötetään suuri määrä informaatiota, vaikka kaikki relevantti tieto olisi teknisesti mallin saatavilla.
Promptien suunnittelussa tämä tarkoittaa sitä, että pelkkä kaiken mahdollisen taustatiedon, dokumenttien tai esimerkkien lisääminen kontekstiin ei automaattisesti paranna mallin vastauksia – päinvastoin, liian pitkä tai huonosti jäsennelty konteksti voi hämärtää keskeisen informaation ja johtaa epätarkkoihin tai epäolennaisiin vastauksiin. Ilmiö korostuu erityisesti "neulan heinäsuovassa" -tyyppisissä tehtävissä, joissa mallin pitää löytää tietty yksityiskohta valtavasta tietomäärästä.
Context rot on tärkeä huomioida RAG-järjestelmissä (Retrieval-Augmented Generation) ja pitkien dokumenttien käsittelyssä: tehokkaampi strategia on usein esikäsitellä ja tiivistää informaatiota, priorisoida oleellisinta tietoa kontekstin alkuun tai loppuun, sekä käyttää strukturoituja formaatteja kuin pursuta kaikki saatavilla oleva data kerralla mallin kontekstiin.
Tämä ei johdu siitä, että mallit olisivat "tyhmiä" – kyse on arkkitehtuurisesta rajoitteesta. Transformer-arkkitehtuurissa, jolle suuret kielimallit rakentuvat, jokainen token voi teoriassa kiinnittää huomionsa jokaiseen muuhun tokeniin. Kun tokeneiden määrä on n, parien määrä on n². Kun kontekstin pituus kasvaa, mallin kyky hahmottaa kaikkia näitä suhteita heikkenee väistämättä.
Siksi kontekstisuunnittelu on tärkeää: se on taitoa valita juuri ne oikeat palat informaatiota, jotka maksimoidvat halutun lopputuloksen todennäköisyyden ilman että huomiobudjetti kuluu loppuun.
Systeemikehotteet: Ei liian tarkkoja, ei liian epämääräisiä
Hyvä systeemikehote on kuin kartta: sen pitää olla tarpeeksi yksityiskohtainen, että tiedät minne olet menossa, mutta ei niin yksityiskohtainen, että se määrää jokaisen askeleesi. Tätä kutsutaan "oikeaksi lentokorkeudeksi".
Liian matalalla lennettäessä – eli kirjoittamalla jokaiseen tilanteeseen tarkat if-else-säännöt – luot järjestelmän, joka on hauras kuin lasinen karahvi. Yksi odottamaton tilanne, ja koko rakennelma hajoaa.
Eräs kehittäjä kertoi kerran kirjoittaneensa 47-sivuisen ohjeen tekoälyagentille, joka käsitteli asiakaspalvelupyyntöjä. Lopputulos? Agentti jumittui aina kun asiakas kysyi jotain, mitä ohjeen kirjoittaja ei ollut osannut ennustaa.
Liian korkealla lennettäessä – eli antamalla vain epämääräisiä yleisohjeita – annat kielimallille liian vähän ohjattavuutta. "Ole avulias ja ystävällinen" on yhtä hyödyllistä kuin sanoa talven ulkoiluvaatteista: "Pukeudu säähän sopivasti." Teknisesti ottaen totta, mutta käytännössä hyödytöntä.
Kultakutri-vyöhyke on siinä välissä: tarpeeksi spesifinen antamaan selkeät suuntaviivat, mutta tarpeeksi joustava antamaan mallille tilaa soveltaa älyään. Käytännössä tämä tarkoittaa, että jaat ohjeesi selkeisiin osioihin ja käytät XML-tageja tai markdown-otsikoita niiden erotteluun. Esimerkiksi:
<taustatiedot>
Olet asiakaspalveluagentti verkkokaupassa...
</taustatiedot>
<ohjeet>
1. Vastaa aina kohteliaasti...
2. Jos asiakas kysyy tilauksen tilasta...
</ohjeet>
Työkalut: Vähemmän on enemmän
Jos annat agentille 50 erilaista työkalua, mikä tapahtuu? Sama kuin antaisit remonttimiehelle 50 erilaista vasaraa. Hän ei todennäköisesti valitse niistä parasta, vaan viettää puolet ajastaan ihmetellen, mitä vasaraa käyttää.

Tilaa AI-Sanomien Plus-jäsenyys niin näet loput sisällöstä
Tilaamalla AI-Sanomien maksullisen jäsenyyden saat pääsyn kaikkiin uutiskirjeen sisältöihin sekä tuet Suomen parasta AI-mediaa.
Already a paying subscriber? Sign In.
Miksi tilaus kannattaa?:
- • Pääsy kaikkiin maksullisiin oppaisiin
- • Webinaari-tallenteet
- • Näet kaikki uutiskirjeen sisällöt, uudet AI-työkalut sekä vinkit tekoälyn käyttöön.
- • GPT4o-botti: Tämä on tietoturvallinen versio ChatGPT:stä, jossa syöttämääsi dataa ei käytetä kielimallin kouluttamiseen.
- • Tuet Suomen parasta AI-mediaa 😊
Reply