AI Guiden

Hva er en språkmodell? (LLM)

En språkmodell, eller på engelsk Large Language Models(LLM) er et dataprogram som er trent til å forstå og generere menneskelig språk. Den fungerer ikke med bevissthet eller en dyp forståelse av verden slik vi mennesker gjør, men er en avansert statistisk mønstergjenkjenner. Tenk på den som en ekstremt dyktig forfatter som har lest nesten all tilgjengelig tekst, og derfor vet nøyaktig hvilke ord som mest sannsynlig følger hverandre i ulike sammenhenger. Eksempler på noen populære språkmodeller er GPT, Gemini, Grok og Claude.

Modeller lærer disse mønstrene ved å analysere enorme mengder tekstdata. De deler språket opp i små enheter, ofte kalt tokens, og identifiserer statistiske sammenhenger mellom dem. Når du gir en språkmodell en tekst, beregner den sannsynligheten for det neste tokenet i sekvensen, og bygger gradvis opp et svar. Dette er grunnen til at språkmodeller ofte beskrives som en svært avansert form for autokorrektur.

Moderne språkmodeller bruker en arkitektur kalt Transformers, som gjør at de kan vurdere hele konteksten i en setning samtidig, ikke bare de umiddelbart foregående ordene. Dette gir dem evnen til å opprettholde en rød tråd over lengre tekster og fange opp nyanser i språket, noe som resulterer i tekst som er vanskelig å skille fra menneskeskrevet innhold.

Det er viktig å huske at en språkmodell ikke har egne meninger, følelser eller en personlig forståelse av verden. Den genererer tekst basert på statistiske sannsynligheter, og kan av og til hallusinere eller finne på fakta som virker troverdige, men som ikke er korrekte. Den er et verktøy som etterligner språkbruk, og dens effektivitet ligger i dens evne til å forutsi og generere tekst basert på mønstre den har lært. En mer selvstendig bruk er agenter, der modellen styrer handlinger i stedet for bare å svare på spørsmål. For mer nøyaktige svar kan man bruke RAG for å koble modellen til egne kilder innenfor dens kontekstvindu.