# AiBølgen – Fullt innhold > AiBølgen er et norsk nettsted som dekker kunstig intelligens med fokus på teknologi, strategi og analyse. > Alle artikler er skrevet på norsk bokmål. --- ## OpenAI legger ned Sora URL: https://aibølgen.no/artikler/openai-legger-ned-sora Dato: 2026-03-25 Kategori: Teknologi OpenAI avvikler videotjenesten Sora grunnet høye driftskostnader og strategiske endringer. OpenAI har besluttet å avvikle Sora, deres verktøy for å generere video basert på tekstbeskrivelser. Denne overraskende kunngjøringen kom tirsdag 24. mars og innebærer at både applikasjonen og utviklertilgangen til Sora vil bli fjernet. ### Økonomiske utfordringer og prioriteringer Hovedårsaken til denne strategiske endringen er knyttet til økonomi og prioriteringer. Det er anslått at driften av Sora kostet OpenAI rundt 15 millioner dollar daglig. Denne betydelige kostnaden understreker utfordringene ved å tilby avansert videoteknologi direkte til forbrukermarkedet. Selv for et selskap som OpenAI ble det for kostbart å opprettholde et slikt tilbud, spesielt når de samtidig fokuserer ressursene på kjerneområdet ChatGPT. Ledelsen i OpenAI ønsker nå å allokere sine ressurser der de gir størst strategisk verdi. Videogenereringsverktøy krever ekstremt mye datakraft. Ved å legge ned Sora frigjøres kapasitet som kan rettes mot å styrke konkurranseevnen mot selskaper som Google. ### Overraskende vending Nyheten kom som en overraskelse for mange ansatte, spesielt ettersom den ble annonsert bare én dag etter at selskapet presenterte nye sikkerhetsplaner for verktøyet. Det virker som om den nye strategien er å konsolidere tilbudet i én stor tjeneste, fremfor å spre investeringene på flere mindre prosjekter som krever store driftskostnader. Nyheten får også konsekvenser for Disney. OpenAI og Disney hadde nylig inngått en avtale verdt en milliard dollar, med en plan om å benytte Disneys velkjente figurer i AI-genererte videoer. Nå avsluttes samarbeidet før det har kommet i gang. ### Hva skjer med innholdet i Sora? Brukere som har lagret arbeid i Sora vil få mulighet til å laste ned innholdet sitt før tjenesten stenges permanent. OpenAI har foreløpig ikke fastsatt en eksakt dato for når all tilgang vil opphøre. --- ## Meta hyperagenter: Når kunstig intelligens begynner å forbedre seg selv URL: https://aibølgen.no/artikler/meta-hyperagenter-selvforbedrende-ai Dato: 2026-03-25 Kategori: Teknologi Meta har nylig presentert et konsept de kaller hyperagenter. Dette er systemer som ikke bare løser oppgaver, men som også har evnen til å skrive om sin egen kode for å bli mer effektive over tid. De fleste av dagens modeller for kunstig intelligens er statiske etter at de er ferdig trent. Når en modell først er lansert, endrer den ikke måten den lærer eller løser oppgaver på. Meta har nylig presentert et konsept de kaller hyperagenter, som bryter med dette mønsteret. Dette er systemer som ikke bare løser oppgaver, men som også har evnen til å skrive om sin egen kode for å bli mer effektive over tid. ## Todelt struktur Kjernen i teknologien er en todelt struktur. På det ene nivået finnes en agent som utfører selve jobben, for eksempel å skrive kode eller løse et matematisk problem. Over denne sitter en kontrollagent som overvåker prosessen. Det spesielle med hyperagenter er at denne kontrollagenten kan endre både den utøvende agenten og seg selv. Dette skaper en sirkulær prosess der systemet hele tiden leter etter bedre måter å lære på. ## Inspirasjon fra Darwin-Gödel-maskiner Denne tilnærmingen bygger på ideer fra Darwin-Gödel-maskiner. Navnet henviser til kombinasjonen av evolusjonær utvikling og logiske systemer som kan referere til seg selv. Tidligere har slike metoder stort sett vært begrenset til programmering, men Metas forskere viser nå at prinsippet kan overføres til nesten alle typer digitale oppgaver. Ved å la systemet utvikle egne verktøy som hukommelse og resultatoppfølging, ser man at ytelsen øker jevnt uten behov for menneskelig inngripen. ## Et skifte i utviklingen Dette markerer et skifte i hvordan vi utvikler kunstig intelligens. I stedet for at ingeniører manuelt må finjustere hver eneste algoritme, lager man rammeverk som selv finner ut hvordan de skal bli bedre. Hyperagenter handler derfor mindre om å finne det rette svaret på en spesifikk oppgave, og mer om å perfeksjonere selve metoden for problemløsning. Resultatet er systemer som blir mer autonome og som akkumulerer kunnskap om sin egen læringsprosess for hver oppgave de møter. ## Begreper og forklaringer | Begrep | Forklaring | | :--- | :--- | | **Oppgaveagent** | Den delen av systemet som utfører den konkrete jobben. | | **Overordnet agent** | En kontrollfunksjon som overvåker og endrer systemets oppbygging. | | **Selvrefererende** | Evnen et program har til å analysere og endre sin egen kildekode. | | **DGM rammeverk** | En metode som kombinerer naturlig utvalg med logisk selvforbedring. | --- ## Microsofts nye bildegenerator: MAI Image 2 URL: https://aibølgen.no/artikler/mai-image-2 Dato: 2026-03-22 Kategori: Teknologi Microsoft har lansert MAI Image 2, en bildegenerator som klarer å lage lesbar tekst og realistisk lys. Vi har gått igjnnom modellen. Et av de viktigste målene med MAI Image 2 har vært å skape bilder som føles som om de faktisk eksisterer i den virkelige verden. Utviklerne har lagt spesielt stor vekt på naturlig lys og korrekte hudtoner. Dette er områder hvor mange lignende verktøy ofte sliter, da de gjerne produserer bilder som ser litt for perfekte eller kunstige ut. Ved å studere hvordan lys reflekteres i virkeligheten, har Microsoft prøvd å lage en modell som produserer resultater med en dybde og realisme som minner om profesjonell fotografering. ## Tekst som kan leses En vanlig utfordring for slike verktøy har vært å inkludere tekst i bildene(selv om både gemini og gpt-5 nå har blitt relativt gode på dette). Ofte ble bokstavene uklare eller helt uforståelige. MAI Image 2 har løst mye av dette problemet. Den er nå i stand til å generere lesbar tekst på alt fra plakater og skilt til mer komplekse infografikker. ## Tilgjengelighet og bruk Microsoft fremhever modellen som en av de beste bildegeneratorene som finnes, men på Arena.ai, plattformen for å sammenligne ulike AI-modeller, rangerer den bare på en femteplass: ![Text-to-Image Leaderboard](/images/mai-image-2-arena.png) Mai Image 2 er tilgjengelig gjennom Microsofts egne tjenester som Copilot og Bing Image Creator. I tillegg finnes det en egen sandkasse kalt MAI Playground hvor brukere kan teste ut funksjonaliteten (dog er ikke den tilgjengelig for oss i norge i skrivende stund). ## Konklusjon Dette er ikke en modell som vil utfordre de aller beste på alle områder, men det er en solid modell som er god nok for mange formål. Fra microsoft sin side handler det om å ha et eget adekvat verktøy, slik at de ikke trenger å integrere modeller fra konkurrentene inn i sine egne produkter. Du kan lese mer om MAI Image 2 på Microsofts nettsider: https://microsoft.ai/news/introducing-mai-image-2/ --- ## GLM 5 Turbo: En teknisk gjennomgang URL: https://aibølgen.no/artikler/glm-5-turbo-teknisk-gjennomgang Dato: 2026-03-21 Kategori: Teknologi 744 milliarder parametere, 40 milliarder aktive. GLM 5 Turbo er bygget for agentbaserte arbeidsflyter og slår GPT-4o og Claude 3.5 Sonnet på BrowseComp til en brøkdel av prisen. Z.ai, tidligere kjent som Zhipu AI, ble etablert i 2019 ved universitetet i Tsinghua i Beijing. Selskapet ledes av administrerende direktør Zhang Peng og har på kort tid markert seg som en sentral aktør i det globale teknologikappløpet. ## Fokus på utførelse og stabilitet GLM 5 Turbo representerer den nyeste utviklingen innen store språkmodeller fra Z.ai. Modellen benytter en arkitektur kjent som Mixture of Experts. Dette innebærer at systemet har en total kapasitet på 744 milliarder parametere, men bare aktiverer rundt 40 milliarder av disse for hver enkelt oppgave. Denne metoden sikrer høy ytelse samtidig som ressursbruken holdes nede, noe som resulterer i raskere svar og lavere driftskostnader. I motsetning til generelle modeller som primært er trent for samtale, er GLM 5 Turbo finjustert for å fungere som en aktiv agent i digitale arbeidsflyter. Den er programmert til å håndtere lange logiske kjeder og komplekse instruksjoner uten å miste sammenhengen. En sentral styrke er evnen til å bruke eksterne verktøy og programvaregrensesnitt med stor nøyaktighet. Dette betyr at modellen kan utføre faktiske oppgaver, som å hente data eller kjøre kode, med dokumentert lavere feilrate enn forgjengeren GLM 4. ## Sammenligning av nøkkeltall For å gi et bilde av hvordan GLM 5 Turbo står seg mot andre ledende modeller, viser tabellen under sentrale tekniske spesifikasjoner og testresultater. Kontekstvinduet er oppgitt i tokens, som er den industristandarden alle modeller benchmarkes mot. En token tilsvarer omtrent tre til fire tegn på norsk, noe som betyr at 200 000 tokens dekker rundt 600 000 til 800 000 tegn sammenhengende tekst. | Egenskap | GLM 5 Turbo | GPT 4o | Claude 3.5 Sonnet | | :--- | :--- | :--- | :--- | | Kontekstvindu | 200 000 tokens | 128 000 tokens | 200 000 tokens | | Score på BrowseComp | 75,9 poeng | 65,8 poeng | 67,8 poeng | | Pris per million tokens inn | 1,2 dollar | 5,0 dollar | 3,0 dollar | | Pris per million tokens ut | 5,0 dollar | 15,0 dollar | 15,0 dollar | Testene ble utført og publisert av OpenAI for å sammenligne ulike modeller i et uavhengig testmiljø. Prisene er basert på offisielle lister fra leverandørene Z.ai, OpenAI og Anthropic. ## Ytelse og benchmarks I tekniske tester viser modellen styrke på områder som krever presisjon. På BrowseComp oppnådde modellen en score på 75,9 poeng, noe som plasserer den foran flere konkurrerende modeller. I ZClawBench, en test utviklet og utført av Z.ai selv for å måle automatisering i OpenClaw-økosystemet, viser modellen høy stabilitet. Ettersom denne testen er egenpublisert av leverandøren, bør resultatene veies mot uavhengige målinger. ## Brukernes erfaringer Modellen har på kort tid blitt enn av de mest omtalte modellene i diverse tech forum. Særlig blant brukere av det populære agent rammeverket [OpenClaw](/artikler/openclaw-en-ny-era-for-personlige-ai-agenter) som vi har skrevet om tidligere, der utgifter til api-kall er en vesentlig faktor. --- ## Mistral slapp en kodeverifikator som slår Claude Sonnet URL: https://aibølgen.no/artikler/mistral-leanstral Dato: 2026-03-20 Kategori: Teknologi Leanstral er den første åpne agenten bygget spesifikt for Lean 4. 6 milliarder parametere, Apache 2.0-lisens, og bedre ytelse enn Sonnet på formell kodesjekk. Dette er en agent som er utviklet for å bistå med formell verifisering av programvare. Når Ai agenter genererer kode, kan manuell gjennomgang og verifisering av denne koden være en tidkrevende prosess, spesielt i applikasjoner som matematisk forskning og kritisk programvare. Leanstral er utviklet for å adressere dette ved å integrere formell verifisering i kode genereringsprosessen. ## Hva er Leanstral? Leanstral er den første åpne kildekode agenten spesifikt utviklet for Lean 4, et så kalt bevisassistent system. Leanstral er bygget for å være effektiv med 6 milliarder aktive parametere, og er trent for å operere i formelle arkiver. ## Kort om Mistral AI og Lean 4: * **Mistral AI:** Et fransk teknologiselskap som utvikler kunstig intelligens, inkludert store språkmodeller. Selskapet fokuserer på åpen kildekode og effektive modeller. * **Lean 4:** Et verktøy som fungerer som et programmeringsspråk og en bevisassistent. Det tillater brukere å formulere matematiske påstander eller programregler, og Lean 4 sjekker automatisk logikkens korrekthet. Dette bidrar til å sikre at kode eller bevis er matematisk korrekte. ## Nøkkelegenskaper ved Leanstral: * **Åpen og tilgjengelig:** Leanstral er utgitt under en Apache 2.0 lisens. Den er tilgjengelig som en agent modus innenfor Mistral Vibe og via et gratis API endepunkt. Mistral AI vil også publisere en teknisk rapport som beskriver treningsmetoden og en evalueringssuite kalt FLTEval. * **Effektiv og kraftig:** Modellen benytter en sparsom optimalisert arkitektur. Ved å utnytte parallell inferens med Lean som en verifikator, er Leanstral ytelsessterk og kostnadseffektiv sammenlignet med eksisterende lukkede kildekode alternativer. * **Oppgraderbar via MCP:** Leanstral støtter vilkårlige MCP-er (Model Context Protocols) gjennom Vibe, og er spesifikt trent for å oppnå maksimal ytelse med den ofte brukte lean-lsp-mcp. ## Ytelse og kostnadseffektivitet I evalueringer som reflekterer bruken i bevisscenarier, ble Leanstral testet for å fullføre formelle bevis og definere nye matematiske konsepter. Leanstral demonstrerer en effektivitetsfordel over større modeller. For eksempel, mens modeller som GLM5-744B-A40B og Kimi-K2.5-1T-32B har begrensninger i skalering, overgår Leanstral dem begge med en enkelt gjennomkjøring. Sammenlignet med Claude sine modeller, tilbyr Leanstral konkurransedyktig ytelse, for mye lavere pris. Leanstral oppnår en score på 26.3 med to gjennomkjøringer, noe som slår Sonnet med 2.6 poeng. Claude Opus 4.6 leder i kvalitet, men har en høyere kostnad. | Modell | Kostnad ($) | Score | | :--- | :--- | :--- | | Haiku | 184 | 23.0 | | Sonnet | 549 | 23.7 | | Opus | 1,650 | 39.6 | | Leanstral | 18 | 21.9 | | Leanstral pass@2 | 36 | 26.3 | | Leanstral pass@4 | 72 | 29.3 | | Leanstral pass@8 | 145 | 31.0 | | Leanstral pass@16 | 290 | 31.9 | ## Konklusjon Leanstral tilbyr en åpen kildekode løsning for formell verifisering av maskin generert kode, og gjør avansert kode verifisering mer tilgjengelig for utviklere. Bra alternativ til Claude Sonnet og Opus, til en brøkdel av prisen. Du kan lese mer på Mistrals nettsider: https://mistral.ai/news/leanstral --- ## Manus tar over PC-en din URL: https://aibølgen.no/artikler/manus-my-computer-personlig-assistent-pa-skrivebordet Dato: 2026-03-18 Kategori: Teknologi My Computer er Manus sin nye funksjon der agenten klikker, skriver og navigerer på datamaskinen din direkte. Agentkappeløpet har nådd skrivebordet ditt. Manus er en generell kunstig intelligens som er designet for å utføre oppgaver, automatisere arbeidsflyter og utvide brukerens kapasitet. Mens mange AI-systemer opererer i skyen, har Manus nå introdusert funksjonen My Computer. Dette gjør at Manus kan interagere direkte med din lokale datamaskin, og dermed fungere som en personlig assistent som kan styre din egen maskin. ### Hva kan Manus My Computer gjøre på din datamaskin? Når Manus får tilgang til din lokale maskin, kan den utføre oppgaver som tidligere krevde at du satt og fulgte med selv. Den kan åpne nettleseren din, organisere filer i mappene dine eller kjøre kommandoer i terminalen. Det som gjør dette spesielt nyttig, er at den kan bruke ressursene du allerede har. Har du en kraftig grafikkprosessor, kan Manus bruke denne til å trene modeller eller utføre tunge beregninger lokalt i stedet for å sende alt til en server langt unna. ### En mer sømløs arbeidsdag Mange opplever at arbeidsflyten blir stykket opp fordi man må flytte data mellom ulike verktøy. My Computer fungerer som en bro mellom dine lokale filer og den kunstige intelligensen. Du kan be den om å rydde opp i nedlastingsmappen din eller finne informasjon i dokumenter du har lagret lokalt. Siden den opererer direkte på operativsystemet ditt, enten du bruker Mac eller Windows, forstår den sammenhengen i arbeidet ditt på en helt annen måte enn en vanlig nettbasert tjeneste. ### Er Manus My Computer trygt å bruke? En stor fordel med å flytte oppgavene til din egen maskin er kontrollen over egne data. Når assistenten jobber lokalt, forblir informasjonen i ditt eget miljø. Du kan se nøyaktig hva den gjør i et eget vindu og gripe inn hvis det er nødvendig. Dette gjør det mulig å automatisere komplekse prosesser uten at du mister oversikten. ### Manus My Computer vs. OpenClaw og Perplexity Computer Markedet for AI-agenter som kan interagere med lokale datamaskiner vokser, og aktører som [OpenClaw](/artikler/openclaw-en-ny-era-for-personlige-ai-agenter) og [Perplexity Computer](/artikler/perplexity-computer-ai-som-din-digitale-arbeidsflate) tilbyr også lignende funksjonalitet. Det som gjør Manus My Computer særegen, er dens fokus på å utvide den generelle AI-agentens kapasitet direkte inn i brukerens lokale miljø, med vekt på å utnytte eksisterende maskinvareressurser som GPU-er. Mens OpenClaw, og Perplexity Computer er designet for å håndtere langvarige og komplekse arbeidsflyter med flere agenter, gir Manus My Computer brukeren en mer direkte og transparent kontroll over AI-ens handlinger på egen maskin. Brukeren kan observere og gripe inn i sanntid, noe som gir en høy grad av innsyn og trygghet i automatiseringen av komplekse prosesser. ### Konklusjon Ideen om å ha en personlig agent som styrer pc-en er ikke ny, men hvis manus greier å levere et produkt som fungerer uten komplisert oppsett, kan de skille seg ut. Det vil gjøre det mulig for selv de uten teknisk kompetanse å få mer ut av teknologien sin uten å måtte lære seg avansert programmering. Hvis de også greier å levere en agent som bruker mindre penger enn konkurrentene ved å bruke lokale resurser, kan dette bli en vinner. Du kan lese mer fra Manus selv her: [Manus My Computer blogg](https://manus.im/blog/manus-my-computer-desktop) --- ## Apple kan nå lage en 3D-modell fra ett eneste bilde URL: https://aibølgen.no/artikler/apple-lito-fremtidens-3d-generering-fra-ett-bilde Dato: 2026-03-18 Kategori: Teknologi LiTo analyserer hvordan lys treffer en overflate i et enkelt foto og bygger en komplett 3D-modell fra det. Uten skanning eller spesialutstyr. Apple har nylig presentert en teknologi som heter LiTo. Navnet står for Surface Light Field Tokenization. Dette er en metode som gjør det mulig å skape detaljerte 3D modeller basert på bare ett enkelt bilde. Det som skiller LiTo fra tidligere løsninger er evnen til å fange opp hvordan lyset treffer en overflate. Vanligvis mister man mye informasjon når et flatt bilde gjøres om til et romlig objekt. Refleksjoner i glass eller gjenskinn i metall forsvinner ofte eller ser kunstige ut. LiTo løser dette ved å dele opp både formen og lyset i små biter som kalles tokens. Ved å bruke denne teknikken klarer systemet å gjenskape effekter som endrer seg når du beveger deg rundt objektet. Hvis du ser på en virtuell bil vil du se at lyset flytter seg på panseret akkurat slik det ville gjort i virkeligheten. Dette kalles synsvinkelavhengige effekter. Det er avgjørende for at digitale gjenstander skal se ekte ut i utvidet virkelighet. ### Hvordan kan du prøve det selv? Foreløpig er LiTo et forskningsprosjekt fra Apple og teknologien er ikke innebygd i iPhone eller Mac ennå. Du kan imidlertid se interaktive eksempler på deres offisielle prosjektside: Apple LiTo Project Page. Her kan du sammenligne deres resultater med andre modeller og se hvordan de håndterer komplekse materialer. For de som ønsker å generere 3D modeller selv i dag finnes det flere tilgjengelige alternativer: * **Tripo AI**: En populær tjeneste som lar deg laste opp et bilde og få ut en 3D modell på få sekunder. * **Rodin**: Fokusert på høy kvalitet og nøyaktige overflater, ofte brukt av profesjonelle. * **Trellis**: En åpen kildekode-modell som Apple selv sammenligner LiTo med. Den er kjent for å være rask og effektiv. ### Andre metoder for 3D-generering Før LiTo var de fleste metoder basert på å gjette seg frem til formen på baksiden av et objekt. Mange brukte teknikker som NeRF (Neural Radiance Fields) eller Gaussian Splatting. Disse fungerer bra hvis du har mange bilder av samme ting fra ulike vinkler. Utfordringen med LiTo er at den klarer nesten det samme med bare ett bilde ved å forstå lysfeltene på overflaten. Ved å kombinere geometri og lysfelt i ett felles digitalt rom oppnår Apple en visuell kvalitet som tidligere krevde tunge manuelle prosesser. For deg som bruker betyr dette at fremtidens apper og spill vil få objekter som føles mer fysiske. Apple ser for seg at dette blir viktig for alt fra netthandel til avanserte verktøy i Vision Pro. Teknologien er et stort skritt for å gjøre overgangen mellom den fysiske og digitale verdenen mer sømløs. Det handler ikke bare om å lage en figur men om å forstå hvordan materialer og lys fungerer sammen. LiTo viser at Apple satser hardt på å lede utviklingen innen romlig databehandling. Du kan lese hele den tekniske rapporten her: [LiTo: Surface Light Field Tokenization (ICLR 2026)](https://machinelearning.apple.com/research/lito) --- ## Slutten på offentlige jobber? URL: https://aibølgen.no/artikler/gartner-ai-agenter-offentlig-sektor-2028 Dato: 2026-03-17 Kategori: Analyse Gartner spår at minst 80 prosent av verdens myndigheter vil ta i bruk AI agenter for å automatisere rutinemessige beslutninger innen 2028 Ifølge en fersk rapport fra Gartner, publisert 17. mars 2026, forventes det at minst 80 prosent av verdens myndigheter vil ta i bruk AI agenter for å automatisere rutinemessige beslutninger innen 2028. Gartner er på tross av navnet et internasjonalt analyse og rådgivningsselskap som spesialiserer seg på teknologi, og leverer innsikt, prognoser og strategiske råd til både offentlige og private virksomheter. Denne utviklingen er satt til å forbedre både effektiviteten og kvaliteten på tjenesteleveransen i offentlig sektor. Daniel Nieto, senior direktør og analytiker hos Gartner, understreker at offentlige ledere står overfor et økende press for å integrere AI i beslutningsprosesser på en rask og ansvarlig måte. Fremveksten av multimodal AI, sammen med konversasjons og agentbaserte systemer, har utvidet spekteret av hva offentlige organisasjoner kan automatisere, forstå og forutse. ## Nye roller og endrede oppgaver Automatiseringen av rutinepregede beslutninger betyr ikke nødvendigvis slutten på menneskelig arbeid i offentlig sektor. Gartner påpeker at vi står overfor en omfattende endring i hvordan oppgaver løses. Mens AI agenter overtar enkle og repeterende prosesser vil ansatte få frigjort tid til mer komplekse saker som krever menneskelig skjønn og empati. Denne utviklingen skaper et behov for nye typer kompetanse. Ansatte må i større grad fungere som veiledere og kontrollører for de digitale systemene. Det innebærer å overvåke at beslutningene som tas er rettferdige og i tråd med lovverket. Mange vil oppleve at hverdagen flyttes fra saksbehandling til systemforvaltning og kvalitetssikring. Tillit er en nøkkelfaktor i denne omstillingen. Når direkte kontakt mellom innbyggere og ansatte reduseres blir det enda viktigere at de ansatte kan forklare og forsvare systemenes valg. Mennesker vil fortsatt ha det øverste ansvaret for unntak og klagesaker. Dette sikrer at rettssikkerheten ivaretas selv når teknologien tar over de store volumene av rutinearbeid. Fremtidens offentlige ansatte vil samarbeide tett med teknologien for å levere bedre tjenester. Dette kan føre til høyere trivsel fordi man slipper de mest monotone delene av jobben. Samtidig krever det en vilje til kontinuerlig læring og tilpasning til nye digitale verktøy. Offentlig sektor vil derfor ha et stort behov for ansatte som kombinerer fagkunnskap med digital forståelse i årene som kommer. ## Kilder - [Gartner Predicts at Least 80% of Governments Will Deploy AI Agents To Automate Routine Decision-Making by 2028](https://www.gartner.com/en/newsroom/press-releases/2026-03-17-gartner-predicts-at-least-80-percent-of-governments-will-deploy-ai-agents-to-automate-routine-decision-making-by-2028) – Gartner, 17. mars 2026 --- ## Jensen Huang vil ikke bare selge brikker lenger URL: https://aibølgen.no/artikler/nvidia-gtc-2026-fra-brikker-til-infrastruktur Dato: 2026-03-16 Kategori: Teknologi Vera Rubin-plattformen lover 3–5x ytelsesforbedring. Med NemoClaw sikter Nvidia seg inn mot å bli ryggraden i bedriftenes AI-agenter. GTC 2026 var ikke en produktlansering — det var en strategerklæring. I dag åpnet dørene til GTC 2026 i San Jose, og det er ingen tvil om at Nvidia-sjef Jensen Huang har flyttet målstengene igjen. Der fjoråret handlet om å få tak i nok regnekraft, handler årets store snakkis om at AI nå har blitt selve grunnmuren i moderne industri. ### Vera Rubin tar over Hovednyheten under dagens åpning er den nye plattformen Vera Rubin, arvtakeren til Blackwell arkitekturen. Tallene er massive: vi snakker om en ytelsesforbedring på 3 til 5 ganger over forgjengeren. Det viktigste grepet er overgangen til HBM4 minne, som gir en båndbredde på utrolige 22 TB/s. For oss betyr dette at de største språkmodellene kan kjøre langt mer effektivt. Det kutter drastisk kostnadene ved inferens, altså selve bruken av modellene, noe som gjør kraftig AI tilgjengelig for langt flere. | Plattform | Minnetype | Båndbredde | | :--- | :--- | :--- | | Blackwell | HBM3e | ~8 TB/s | | Vera Rubin | HBM4 | ~22 TB/s | ### NemoClaw: Nvidia vil eie infrastrukturen En annen stor nyhet er satsingen på det Nvidia kaller NemoClaw. Dette er en ny plattform for "enterprise agents" Nvidia ønsker ikke lenger bare å selge brikkene som AI-en kjører på. De vil levere verktøyene bedrifter bruker for å bygge autonome agenter som faktisk utfører arbeid. Tanken ligner på det vi har sett fra andre hold: [Perplexity lanserte nylig sitt "Computer"-produkt](/artikler/perplexity-computer-ai-som-din-digitale-arbeidsflate), som lar AI-en ta kontroll over datamaskinen din for å løse oppgaver. Og [OpenClaw](/artikler/openclaw-en-ny-era-for-personlige-ai-agenter) som opererer på vegne av brukeren. Med NemoClaw sikter Nvidia seg inn mot bedriftsmarkedet med samme ambisjon: agenter som ikke bare svarer, men som gjør. Forskjellen er at Nvidia kontrollerer hele stacken fra silisium til programvare. ### Fysisk AI og energi Et annet viktig spor fra åpningsdagen er fysisk AI. Vi ser nå hvordan roboter trenes i simulerte miljøer via Nvidia Isaac før de slippes løs i den virkelige verden. Disney viste blant annet frem hvordan de bruker dette for å gi roboter en naturlighet vi ikke har sett før, med bevegelser og reaksjoner som faktisk føles levende. Samtidig adresserer Nvidia det voksende energibehovet ved å integrere AI tettere i klimaforskning og strømnettoptimalisering. Det er et smart grep å ta eierskap over nettopp den kritikken, at datasentre spiser strøm, ved å posisjonere AI som en del av løsningen. ### Oppsummert Nvidia bekrefter sin posisjon, ikke bare som en brikkeprodusent, men som arkitekten bak hele det digitale økosystemet. Med Vera Rubin i produksjon og en klar dreining mot programvareagenter gjennom NemoClaw, er retningen for de neste to årene satt. Kampen om hvem som eier agentlaget er i full gang, og Nvidia melder seg på med tyngde. --- ## Perplexity lanserte sitt svar på OpenClaw URL: https://aibølgen.no/artikler/perplexity-computer-ai-som-din-digitale-arbeidsflate Dato: 2026-03-15 Kategori: Teknologi Perplexity Computer er et agentsystem som styrer flere AI-modeller på én gang for å fullføre oppgaver du setter. Det er det kommersielle alternativet til OpenClaw. Perplexity er kjent som et alternativ til Google-søk, men nå lanserer de noe langt mer ambisiøst. Perplexity Computer er ikke en fysisk maskin. Det er et system der AI tar imot et mål du setter, og så gjør jobben for å nå det, ved å bruke alt fra nettlesing til regneark og bedriftssystemer underveis. Vi har tidligere skrevet om [OpenClaw](/artikler/openclaw-en-ny-era-for-personlige-ai-agenter), som gjør noe av det samme. Forskjellen er at OpenClaw er åpen kildekode og kjører på din egen maskin. Perplexity Computer er det kommersielle alternativet, bygget for folk som vil ha noe som bare fungerer. ### Tre varianter for ulike behov Perplexity lanserer Computer i tre utgaver. Den første er beregnet på privatpersoner og kan kjøres på en dedikert pc eller enMac mini du har hjemme, koblet til dine egne apper og filer. Den er alltid på og kan styre oppgaver for deg fra hvilken enhet du enn bruker. Sensitive handlinger krever godkjenning fra deg, og du kan skru av alt umiddelbart om noe går galt. Den andre er rettet mot bedrifter og kobler seg til systemer som Salesforce, HubSpot og Snowflake. I praksis betyr det at den kan hente ut salgsdata, lage rapporter og oppdatere CRM-systemer uten at noen manuelt trenger å gjøre det. Den tredje er en nettleser kalt Comet Enterprise. Den er bygget for bedrifter som vil ha AI innebygd direkte i hvordan de surfer på nett og jobber med verktøy. IT-avdelingen kan styre hva AI-en har lov til å gjøre, og alt kan rulles ut sentralt. ### Tall og finans En av de mer konkrete delene av lanseringen er et kraftig oppgradert finansverktøy. Perplexity Finance gir tilgang til over 40 datakilder i sanntid, inkludert SEC-arkiver, S&P Global og Coinbase. Det betyr at du kan be systemet lage en finansiell analyse eller et Excel-ark basert på ferske og sporbare data, i stedet for å gjøre det manuelt. --- ## Google maps endrer seg for alltid URL: https://aibølgen.no/artikler/google-maps-ai-usa-india Dato: 2026-03-13 Kategori: Teknologi Google Maps gjennomgår en betydelig utvikling med integreringen av avansert kunstig intelligens. De første utrullingene startet 12. mars 2026 i USA og India. En av de mest fremtredende nyvinningene er "Ask Maps", en funksjon som lar brukere stille komplekse spørsmål direkte til kartet. Dette skiller seg fra tradisjonelle søk ved å tilby en konversasjonsbasert interaksjon, lik en chatbot. Ask Maps utnytter et omfattende datagrunnlag, som inkluderer informasjon fra over 300 millioner steder og bidrag fra mer enn 500 millioner brukere globalt. Dette gjør det mulig for tjenesten å besvare detaljerte forespørsler som "Foreslå steder med gode vegetarforretter for å se dagens fotballkamp." Svarene er skreddersydd basert på brukerens tidligere søk og lagrede preferanser, noe som sikrer relevante anbefalinger. Etter å ha mottatt anbefalinger, kan brukere enkelt utføre handlinger som å bestille bord, lagre steder eller starte navigasjon. ## Immersive Navigation: En visuell og informativ kjøreopplevelse Parallelt med Ask Maps, introduseres "Immersive Navigation", en omfattende visuell oppgradering av navigasjonsopplevelsen. Denne funksjonen rulles først ut i USA og vil gradvis bli tilgjengelig på tvers av iOS, Android, CarPlay, Android Auto og biler med innebygd Google-funksjonalitet. Den nye navigasjonsmodusen presenterer et levende 3D-kart som gjenspeiler bygninger, broer og terreng i sanntid. Viktige veidetaljer som kjørefelt, fotgjengerfelt, trafikklys og stoppskilt fremheves tydelig, noe som gir sjåfører økt trygghet. Stemmeveiledningen skal også være forbedret for å være mer naturlig og intuitiv. Videre gir Immersive Navigation innsikt i alternative ruter, inkludert avveininger som lengre reisetid med mindre trafikk eller raskere ruter med bompenger. Den varsler også om sanntidsforstyrrelser som veiarbeid eller ulykker. Ved ankomst hjelper funksjonen med å identifisere bygningens inngang og foreslår parkeringsmuligheter, noe som forenkler den siste strekningen av reisen. ## Konklusjon Integreringen av Ask Maps og Immersive Navigation, markerer en betydelig forbedring i karttjenestens evne til å tilby personaliserte og detaljerte veiledninger. Det er ikke sagt noe om når disse funksjonene vil bli tilgjengelige i Norge, men det er sannsynlig at de vil bli rullet ut gradvis til andre land inkludert Norge i løpet av 2026. --- ## GPT-5.4 er ute, men er den like bra som lovet? URL: https://aibølgen.no/artikler/gpt-5-4-offisielt-her Dato: 2026-03-11 Kategori: Teknologi Mindre enn 24 timer etter lekkasjen bekreftet OpenAI lanseringen. Den er imponerende, men ikke på alle punktene folk forventet. Etter at de første referansene til GPT-5.4 dukket opp i OpenAIs kildekode den 4. mars, bekreftet OpenAI raskt spekulasjonene med en offisielt lansering allerede den 5. mars. Det som startet som interne spor, er nå en realitet. ### Kontekstvindu og "Fast mode" OpenAI bekrefter at GPT-5.4 rulles ut med et kontekstvindu på opptil 1,05 millioner tokens, noe som i praksis betyr at du kan mate den med hele biblioteker av dokumentasjon eller massive kodebaser uten at den mister tråden. Det sirkulerte rykter om 2 millioner tokens før lansering, men dette slo ikke til. Den nye "Fast mode" er også en sentral del av lanseringen, designet for å gi lynraske svar på oppgaver som ikke krever den dype resonneringen til "xhigh"-modusen. For profesjonelle brukere er den kanskje største nyheten den piksel-perfekte bildebehandlingen. Ved å fjerne komprimeringen i bildeanalysen kan modellen nå se detaljer som tidligere gikk tapt. Dette bekrefter mistankene om at OpenAI sikter seg direkte inn mot medisinske og tekniske fagfelt der nøyaktighet på pikselnivå er kritisk. ### Knuser benchmarks: GPT-5.4 vs GPT-5.3 Codex De første uavhengige testene viser et tydelig generasjonsskifte. Mens GPT-5.3 Codex har vært en sterk aktør, spesielt innen koding, tar GPT-5.4 ledelsen på nesten alle fronter. Spesielt i komplekse agent-oppgaver, der modellen må bruke verktøy og navigere i digitale miljøer, er hoppene massive. | Metrikk | GPT-5.4 Pro (xhigh) | GPT-5.3 Codex (xhigh) | Forbedring | | :--- | :--- | :--- | :--- | | Intelligensindeks (AA) | 57 | 53 | +7.5% | | Hastighet (tokens/sek) | ~74 | ~46 | +60% | | Feilrate (hallusinasjoner) | 33% lavere enn GPT-5.2 | Ikke direkte sammenlignet | Kraftig reduksjon | | Kontekstvindu | 1.05M tokens | 400k tokens | ~2.6x | *Tallene er basert på de første offisielle målingene fra Artificial Analysis og OpenAIs egne tekniske rapporter.* ### GPT-5.4 i møte med konkurrentene: Gemini 3.1 og Claude Opus 4.6 For å forstå GPT-5.4s posisjon i det raskt utviklende AI-landskapet, er det essensielt å se den i lys av de sterkeste konkurrentene, spesielt Googles Gemini 3.1 Pro og Anthropics Claude Opus 4.6. De første uavhengige analysene viser et tett kappløp, men med klare styrker for hver modell. | Metrikk | GPT-5.4 Pro (xhigh) | Gemini 3.1 Pro Preview | Claude Opus 4.6 (xhigh) | | :--- | :--- | :--- | :--- | | Intelligensindeks (AA) | 57 | 57 | 53 | | ARC-AGI-2 Score | 83.3% | 77,1% | 68.8% | | Hastighet (tokens/sek) | ~74 | ~141 | ~63 | | Pris (USD per 1M tokens) | ~$5.6 | ~$1.6 | ~$10 | | Kontekstvindu | 1.05M tokens | 1M tokens | 1M tokens | *Tallene er basert på de første offisielle målingene fra Artificial Analysis og andre uavhengige tester.* GPT-5.4 utmerker seg med sin balanse mellom intelligens og hastighet, og viser spesielt styrke i "langhorisontale oppgaver" og datamaskinbruk. Den oppnår en imponerende 83.3% på ARC-AGI-2, en test som måler evnen til å lære nye konsepter raskt. Gemini 3.1 Pro leder fortsatt med sin kostnadseffektivitet og høye hastighet. Claude Opus 4.6 er fortsatt en sterk utfordrer, spesielt i oppgaver som krever dypere resonnement, selv om den med 68.8% på ARC-AGI-2 er noe bak konkurrentene i denne spesifikke testen, og er noe dyrere og tregere. OpenAIs nye "Tool Search"-system, som lar modellen søke opp verktøy den trenger underveis, er også en viktig innovasjon som forbedrer integrasjoner og effektivitet betydelig. ### Konklusjon En ARC AGI 2 score på 83,3% plasserer GPT-5.4 i forkant av konkurrentene, men det er viktig å huske at modellen ikke har vært ute lenge nok til å bli testet skikkelig av uavhengige tester. Men en score på 83,3% er alikevel imponerende, og får veien til AGI til å virke kortere. --- ## Kan en detektor avsløre at ChatGPT skrev teksten din? URL: https://aibølgen.no/artikler/ai-detektorer-2026 Dato: 2026-03-10 Kategori: Teknologi AI-tekst og menneskelig tekst er nesten umulig å skille fra hverandre. Detektorene prøver likevel — her er hvilke som faktisk leverer i 2026. Kunstig intelligens har de siste årene revolusjonert måten vi skaper innhold på, fra akademiske tekster til markedsføringsmateriell. Med denne utviklingen følger et økende behov for å skille mellom menneskeskrevet og maskinprodusert tekst. I 2026 er AI detektorer blitt et uunnværlig verktøy, men funksjonene og begrensningene er viktige for å forstå hvordan man kan bruke dem effektivt. ## Hvordan AI detectorer fungerer og deres utfordringer AI detectorer analyserer tekst for å identifisere mønstre som er karakteristiske for maskinlæringsmodeller. Kjernen i denne analysen ligger ofte i begreper som *perplexity* og *burstiness*. **Perplexity** måler hvor forutsigbar en tekst er; en lav perplexity indikerer at ordvalget er svært sannsynlig og typisk for AI generert innhold. **Burstiness** refererer til variasjonen i setningslengde og struktur. Menneskelig skrevet tekst har ofte en mer ujevn og variert rytme, mens AI generert tekst kan fremstå mer monoton og forutsigbar. Enkelte avanserte AI-modeller kan også inkludere usynlige vannmerker i teksten de genererer, noe som i teorien gjør deteksjon enklere. Dette er imidlertid ikke en universell standard, og deteksjonslandskapet er et konstant kappløp mellom stadig mer sofistikerte språkmodeller og de verktøyene som skal avsløre dem. Til tross for teknologiske fremskritt står AI detektorer overfor betydelige utfordringer. Den mest fremtredende er risikoen for **falske positiver**, hvor menneskeskrevet tekst feilaktig identifiseres som AI generert. Dette rammer spesielt forfattere med en formell eller strukturert skrivestil, samt de som ikke har norsk eller engelsk som morsmål. Tekst som er generert av AI og deretter bearbeidet eller "humanized" av et menneske, er også vanskeligere å oppdage. Videre er detektorer generelt mindre pålitelige på korte tekststykker. Det er viktig å huske at en "AI score" indikerer en sannsynlighet, ikke et endelig bevis. ## De beste AI detectorer i 2026 Markedet for AI detectorer er dynamisk, med flere aktører som tilbyr ulike styrker og funksjoner. Her er en oversikt over noen av de mest fremtredende verktøyene i 2026: | AI detector | Nøyaktighet (ca.) | Styrker | Målgruppe | Pris (fra) | | :--- | :--- | :--- | :--- | :--- | | **GPTZero** | 99% | Høy nøyaktighet på rå AI tekst | Lærere, studenter, akademiske institusjoner | Gratis (10k ord/mnd), Premium $12.99/mnd | | **Winston AI** | 95% | Deteksjon av AI-bilder | Innholdsskapere, markedsførere | Gratis prøve (2000 ord), Essential $12/mnd | | **Originality.ai** | 76-94% | Bygget for web-utgivere og SEO-byråer | SEO-byråer, innholdsmarkedsførere, nettredaktører | $9.95/mnd (Lite), $14.95/mnd (Pro) | | **Copyleaks** | Høy | Støtter over 30 språk | Globale bedrifter, utdanningsinstitusjoner | Varierer | | **Proofademic AI** | Svært stabil | Spesielt god på faktiske studentoppgaver | Akademisk sektor | Varierer | Det er verdt å merke seg at mange av disse tallene kommer fra interne rapporter og tester, og kan derfor være påvirket av kommersielle interesser. Det er også viktig å huske at en "AI score" indikerer en sannsynlighet, ikke et endelig bevis. ## Konklusjon AI detektorer i 2026 er kraftige verktøy som kan bidra til å opprettholde integriteten i skriftlig kommunikasjon. Det er imidlertid avgjørende å anerkjenne deres begrensninger og bruke dem som et hjelpemiddel, ikke som en ufeilbarlig dommer. Forståelse av teknologien bak, samt bevissthet rundt etiske implikasjoner som falske positiver, er nøkkelen til ansvarlig bruk. Ved å velge riktig verktøy for formålet og tolke resultatene med kritisk sans, kan vi navigere i et landskap der grensen mellom menneske og maskin blir stadig mer flytende. --- ## OpenAI Symphony: En ny måte å koordinere AI-agenter på URL: https://aibølgen.no/artikler/symphony Dato: 2026-03-09 Kategori: Teknologi OpenAI har lansert Symphony, et eksperimentelt system der AI-agenter kan gjennomføre utviklingsoppgaver fra start til slutt. Målet er å gjøre det enklere å organisere komplekse prosjekter. OpenAI har lansert et nytt eksperimentelt prosjekt kalt **Symphony**, også kjent som **Swarm**. Systemet er laget for å koordinere flere AI-agenter som kan jobbe sammen på et programvareprosjekt. Tanken er at hver agent får en bestemt oppgave og jobber selvstendig frem til den er ferdig. Når oppgaven er fullført, viser agenten hva som er gjort og hvilke tester som er kjørt. Før endringene legges inn i prosjektet kan mennesker kontrollere resultatet. Dette kan gjøre det enklere å håndtere store prosjekter der mange oppgaver må løses samtidig. ## Hvordan systemet fungerer Symphony følger med på oppgaver i et utviklingsprosjekt. Når en ny oppgave dukker opp, kan systemet opprette en agent som prøver å løse den. Agenten arbeider i et eget miljø slik at den ikke påvirker resten av prosjektet mens den jobber. Når arbeidet er ferdig, leverer agenten dokumentasjon som viser hva som er gjort og om koden fungerer som den skal. Utviklere kan deretter godkjenne arbeidet før det legges inn i hovedprosjektet. ## Teknologien bak Symphony er hovedsakelig skrevet i programmeringsspråket **Elixir**, som er kjent for å håndtere mange samtidige prosesser. Prosjektet bruker også **Python** i noen deler, spesielt der AI-modeller er involvert. Kombinasjonen gjør det mulig å koordinere mange agenter samtidig. ## Konklusjon Det kuleste med dette er kanskje at symphony lar deg ha flere agenter som jobber samtidig med forskjellige oppgaver, som gir mer kontroll og sparer mer tid enn hvis man bare har en agent som jobber med alt. Nå som vibe coding har blitt det nye store, altså der man skriver prompts til en agent som skriver koden, er det naturlig at flere systemer for å gjøre dette lettere kommer på banen. Du kan lese mer om prosjektet her: https://github.com/openai/symphony --- ## Nano Banana 2: Slik fungerer Googles nye bildemodell URL: https://aibølgen.no/artikler/nano-banana-2-gemini-3-1-flash-image Dato: 2026-03-05 Kategori: Teknologi Google lanserte 26. februar 2026 Nano Banana 2, offisielt kjent som Gemini 3.1 Flash Image. Dette er deres siste AI modell for bildegenerering. ### Tekst og språk En av de mest praktiske forbedringene er hvordan modellen håndterer tekst. Tidligere AI modeller har slitt med å generere lesbar tekst inne i bilder. Nano Banana 2 gjør dette nå med presisjon som er god nok for markedsføringsmateriale og hilsekort. Modellen støtter også lokalisering og oversettelse av tekst direkte i bildet. Hvis du for eksempel trenger å lage annonser for ulike markeder, kan du generere bildet med tekst på flere språk uten å måtte redigere etterpå. ### Tilgang til googles databaser Nano Banana 2 er koblet til Googles kunnskapsbase og kan bruke sanntidsinformasjon fra nettsøk. Det betyr at modellen forstår spesifikke steder, mennesker, og fenomener på en måte som tidligere modeller ikke gjorde. Hvis du ber den lage et bilde av et kjent landmerke, vil det se ut som det faktisk sted, ikke en generisk versjon. For utviklere som bruker API en, er prisingen blitt mer konkurransedyktig. En 4K bilde koster nå $0,15, ned fra $0,24 for Pro modellen. En 1K bilde koster $0,07, ned fra $0,13. Dette gjør det mer rimelig å bygge bildegenerering i skala. ### Konklusjon Nano Banana 2 representerer et betydelig fremskritt innen AI-drevet bildegenerering. Jeg har testet modellen selv relativt mye, og forskjellen fra tidligere modeller er som natt og dag. Da man før fikk helt håpløse resultater med ulesbar tekst er det nå mulig å generere relativt bra bilder. Ikke helt perfekt enda, men det er nok ikke langt unna. --- ## GPT-5.4 lekket fra OpenAIs egne systemer URL: https://aibølgen.no/artikler/openai-lekker-gpt-5-4-her-er-det-vi-vet Dato: 2026-03-04 Kategori: Teknologi Referanser til GPT-5.4 dukket opp gjemt i OpenAIs kildekode. 2 millioner tokens kontekst, pikselpresis bildebehandling og en ny Fast Mode. Her er hva vi fant. Det ser ut til at OpenAI har skrudd opp tempoet ytterligere. Mens vi fortsatt venter på at støvet skal legge seg etter lanseringen av GPT-5.3-Codex for bare noen uker siden, har referanser til en helt ny modell GPT-5.4 begynt å dukke opp i kildekoden. Dette er ikke bare rykter fra anonyme kilder, men faktiske spor i OpenAIs egne systemer som gir oss et unikt innblikk i hva som kommer. ### Spor i kildekoden og feilmeldinger Lekkasjen startet da en ingeniør hos OpenAI ved en feil publiserte kodeoppdateringer i det offentlige Codex-repositoriet på GitHub. Her ble GPT-5.4 nevnt spesifikt som en påkrevd versjon for nye funksjoner. Kort tid etter ble det observert feilmeldinger hos enkelte brukere som eksponerte interne ID-er som `gpt-5.4-ab-arm1-1020-1p-codexswic-ev3`. Dette bekrefter at modellen allerede er rullet ut på test-servere og gjennomgår aktiv A/B-testing. | Funksjon | Detaljer fra lekkasjen | Betydning | |---|---|---| | Kontekstvindu | 2 millioner tokens | Kan lese 5000 sider tekst i én omgang | | Bildebehandling | "detail": "original" | Ingen komprimering, piksel-perfekt nøyaktighet | | Hastighet | "Fast mode" | Ny modus for lynrask respons | | Arkitektur | "One-pass" inferens | Optimalisert for hurtighet fremfor tung resonnering | ### Enormt minne og krystallklare bilder Det mest imponerende med GPT-5.4 er det ryktede kontekstvinduet på 2 millioner tokens. Dette er en femdobling fra dagens GPT-5 og vil i praksis bety at modellen kan holde hele kildekoden til store programvarer eller tusenvis av sider med dokumentasjon i minnet samtidig. I tillegg avslører koden en ny parameter for bildebehandling som lar modellen se råbildefiler uten komprimering. Dette er et stort skritt for profesjonelle brukere som jobber med medisinske bilder eller komplekse tekniske tegninger hvor hver piksel teller. ### Fra lanseringer til kontinuerlig oppdatering Det som kanskje er mest interessant med disse lekkasjene, er hvordan OpenAI har endret strategi. Vi ser ikke lenger de store, årlige lanseringsfestene. I stedet ser det ut til at de har gått over til en modell for kontinuerlig utvikling, der nye versjoner rulles ut i det stille for testing i verktøy som Codex før de når den brede massen. Referansene til en egen "Fast mode" tyder også på at de jobber hardt med å gjøre de massive modellene mer effektive og brukervennlige i hverdagen. Selv om OpenAI raskt fjernet sporene fra GitHub, er katten ute av sekken. GPT-5.4 ser ut til å bli en modell som prioriterer enormt minne og ekstrem presisjon, og alt tyder på at den er rett rundt hjørnet. --- ## OpenClaw gjør seg selv helt autonom og du kan kjøre det hjemme URL: https://aibølgen.no/artikler/openclaw-en-ny-era-for-personlige-ai-agenter Dato: 2026-03-03 Kategori: Teknologi Peter Steinberger bygde en AI-agent som håndterer e-post, kalender og oppgaver på egenhånd. Det er åpen kildekode og kjører lokalt — ingen sky nødvendig. OpenClaw representerer et betydelig skritt fremover innen personlige AI-agenter. Dette er ikke en tradisjonell chatbot, men en autonom kunstig intelligens som er designet for å utføre konkrete handlinger på vegne av brukeren. Tenk deg en digital assistent som ikke bare svarer på spørsmål, men som aktivt kan administrere din e-post, kalender, og til og med bestille flyreiser. Dette er kjernen i OpenClaws funksjonalitet. Prosjektet, som er åpen kildekode under en MIT-lisens, ble utviklet av den østerrikske utvikleren Peter Steinberger. Det skiller seg ut ved å kjøre lokalt på brukerens egen maskin, enten det er Mac, Windows eller Linux, og sikrer dermed at brukerens data forblir privat. Kommunikasjonen med OpenClaw foregår gjennom velkjente meldingsapper som WhatsApp, Telegram, Signal og Discord, noe som gjør den lett tilgjengelig for mange. ### Fra Clawdbot til OpenClaw: En Rask Utvikling Historien om OpenClaw er preget av rask utvikling og navneendringer. Prosjektet startet i november 2025 under navnet Clawdbot. Etter en varemerkekonflikt med Anthropic, selskapet bak AI-modellen Claude, ble navnet endret til Moltbot i januar 2026. Kort tid etter, for å finne et mer passende navn, ble det omdøpt til OpenClaw. Prosjektet opplevde en eksplosiv vekst i popularitet tidlig i 2026, delvis takket være Moltbook, et sosialt nettverk for AI-agenter. Denne populariteten reflekteres i over 247 000 stjerner på GitHub per mars 2026. En viktig milepæl for OpenClaw inntraff 14. februar 2026, da Peter Steinberger kunngjorde at han ville tiltre en stilling hos OpenAI. Som en del av denne overgangen vil OpenClaw-prosjektet bli overført til en uavhengig stiftelse, OpenClaw Foundation, for å sikre at det forblir åpent og uavhengig. OpenAI har også forpliktet seg til å sponse prosjektet økonomisk. ### Funksjonalitet og Arkitektur OpenClaw er bygget på en hub and spoke-arkitektur, med en sentral gateway som fungerer som kontrollplanet mellom brukerinput og agentens handlinger. Den integrerer med store språkmodeller (LLM-er) som Claude, OpenAI's GPT-modeller og DeepSeek. En av de mest fremtredende egenskapene er dens "Persistent Memory", som gjør at agenten lærer av interaksjoner og tilpasser seg brukerens preferanser over tid, noe som skaper en unik og personlig opplevelse. Agenten har også evnen til å kontrollere nettleseren, fylle ut skjemaer og hente data fra nettsider. Med valgfri full systemtilgang kan den til og med kjøre shell-kommandoer og manipulere filer på brukerens system. OpenClaw er designet for å være utvidbar gjennom "Skills & Plugins", som lar brukere og fellesskapet utvikle og integrere nye funksjoner. ### Praktiske Aspekter: Installasjon og Kostnader Å sette opp OpenClaw er en prosess som krever en viss teknisk forståelse, men det finnes mange veiledninger som gjør det overkommelig. Grunnleggende installasjon innebærer typisk å ha Node.js og Python installert, og deretter kjøre et installasjonsskript. For de som er komfortable med kommandolinjen, kan en grunnleggende oppsett være unnagjort på rundt 20 minutter. OpenClaw selv er gratis, da det er et åpen kildekode-prosjekt. De reelle kostnadene ved å drive OpenClaw kommer fra infrastrukturen og bruken av AI-modeller. En grunnleggende personlig installasjon kan koste så lite som 6 til 13 dollar i måneden. Dette inkluderer utgifter til hosting og API-kall til de store språkmodellene den integrerer med. For mer avanserte oppsett, eller ved intensiv bruk, kan kostnadene stige til over 200 dollar i måneden. Det er viktig å merke seg at standardinnstillinger for modellbruk ofte er dyrere, og optimalisering av konfigurasjonen kan redusere utgiftene betydelig. Mange brukere har funnet måter å redusere sine månedlige API-regninger med opptil 90 prosent gjennom bevisst konfigurasjon og valg av modeller. ### Sikkerhet og Utfordringer Til tross for sin innovative natur, har OpenClaw reist viktige spørsmål rundt sikkerhet og personvern. Den brede tilgangen agenten krever for å fungere effektivt, kan utgjøre en risiko ved feilkonfigurering. Cybersecurity-forskere har pekt på sårbarheter som "prompt injection", der skadelige instruksjoner kan skjules i data for å manipulere agentens atferd. Cisco Research har for eksempel advart om at agenter som OpenClaw kan være et "sikkerhetsmareritt" på grunn av potensiell eksponering av API-nøkler og sårbarheter i tredjeparts ferdigheter. En mye omtalt hendelse, kjent som MoltMatch-incidenten, illustrerte disse bekymringene. En OpenClaw-agent opprettet en datingprofil for en student uten hans eksplisitte samtykke, og brukte også bilder av en modell uten tillatelse. Dette understreker utfordringene med "autonomous exploration" og behovet for klare retningslinjer for agenters handlinger. Som et svar på disse utfordringene har OpenClaw inngått et samarbeid med VirusTotal, som siden februar 2026 har skannet alle ferdigheter publisert på ClawHub, OpenClaws markedsplass for ferdigheter, for skadevare. Dette er et viktig skritt for å styrke sikkerheten i økosystemet. ### Konklusjon OpenClaw representerer et fascinerende, men komplekst, skritt mot mer autonome AI-systemer. Fordelene er tydelige: den tilbyr enestående personalisering og effektivisering av digitale oppgaver, med en åpen kildekode-modell som fremmer innovasjon og brukerkontroll over egne data. Evnen til å integrere med ulike LLM-er og kjøre lokalt gir en fleksibilitet som få andre løsninger kan matche. Samtidig er det viktig å anerkjenne de betydelige utfordringene. Den tekniske terskelen for installasjon og optimalisering er høyere enn for enkle applikasjoner, og de løpende kostnadene for API-bruk kan raskt akkumuleres. Enda viktigere er sikkerhetsaspektet; den brede systemtilgangen og sårbarheten for "prompt injection" krever en dyp forståelse og forsiktighet fra brukeren. Hendelser som MoltMatch-incidenten understreker de etiske dilemmaene og personvernrisikoene som oppstår når autonome agenter handler uten eksplisitt menneskelig samtykke. Med Peter Steinberger nå i OpenAI, og OpenClaw-prosjektet under en uavhengig stiftelse, vil utviklingen sannsynligvis fortsette å akselerere. Spørsmålet er hvordan balansen mellom innovasjon, brukervennlighet, uavhengighet og robust sikkerhet vil ivaretas. --- ## Gemini 3.1: Et gjennombrudd i abstrakt resonnering URL: https://aibølgen.no/artikler/gemini-3-1-gjennombrudd-i-abstrakt-resonnering Dato: 2026-03-02 Kategori: Teknologi Google lanserte Gemini 3.1 den 19. februar 2026, og har med dette flyttet grensene for hva vi kan forvente av kunstig intelligens. Den mest markante endringen er introduksjonen av en tenkemodus som prioriterer logisk presisjon over lynrask respons. Dette skiftet i arkitektur gjør at modellen nå utkonkurrerer både GPT 5.2 og Claude Opus 4.6 på de fleste kritiske tester for logikk og programmering. Mens GPT 5.2 lenge var markedsledende på generell anvendelighet, viser de nyeste målingene at Gemini 3.1 Pro nå leder på 13 av 16 hovedbenchmarks. Claude Opus 4.6 beholder sin posisjon som en favoritt for kreativ tekst og nyansert forståelse, men i rene logiske utfordringer som koding og systemdesign har Google nå tatt ledelsen. Det som virkelig skiller Gemini 3.1 fra konkurrentene, er resultatet på ARC AGI 2. Dette er en forkortelse for Abstraction and Reasoning Corpus, en test utviklet av AI forskeren François Chollet for å måle faktisk intelligens fremfor lagret kunnskap. De fleste vanlige tester måler hva en modell har lest og lært under trening, mens ARC AGI 2 presenterer visuelle gåter og mønstre som modellen aldri har sett før. | Modell | ARC AGI 2 Score | Fokusområde | |:---|:---|:---| | Gemini 3.1 Pro | 77,1 % | Logisk resonnering og koding | | GPT 5.2 | 64,5 % | Generell assistanse og verktøybruk | | Claude Opus 4.6 | 61,2 % | Kreativitet og nyansert språk | En score på 77,1 prosent er en historisk milepæl. Det betyr at Gemini 3.1 Pro begynner å nærme seg menneskelig evne til å forstå abstrakte konsepter og løse helt nye problemer på stående fot. For deg som bruker betyr dette en AI som ikke bare gjetter seg frem til svar basert på sannsynlighet, men som faktisk kan resonnere seg frem til en løsning når den møter utfordringer den ikke er trent på. Denne utviklingen markerer slutten på en tid der vi kun fokuserte på størrelsen på datasett. I 2026 handler det om hvor effektivt en modell kan tenke, og her har Google satt en ny standard som konkurrentene nå må strekke seg etter. --- ## Kontorjobben din kan forsvinne innen to år — ifølge toppsjefene selv URL: https://aibølgen.no/artikler/fremtidens-arbeidsliv-ai-lederes-dristige-spadommer Dato: 2026-03-01 Kategori: Strategi Det er ikke journalister som sier dette. Det er lederne i Microsoft AI, Google og OpenAI. Her er hva de faktisk sa. Mustafa Suleyman, administrerende direktør for Microsoft AI, uttalte i et intervju med Financial Times i februar 2026 at full automatisering av de fleste kontorjobber kan skje innen 12 til 18 måneder. Han peker på at AI vil oppnå "menneskelig ytelse i de fleste, om ikke alle, profesjonelle oppgaver." Spesifikke områder som regnskap, jus, markedsføring og prosjektledelse, altsså alle oppgaver som involverer arbeid ved en datamaskin, er ifølge Suleyman særlig utsatt. Han begrunner dette med den eksponentielle veksten i regnekraft, som snart vil gjøre AI-modeller i stand til å kode bedre enn de fleste mennesker. Suleymans visjon for Microsoft AI inkluderer å oppnå "superintelligens" og "selvforsyning", noe som innebærer å redusere avhengigheten av eksterne partnere som OpenAI til fordel for interne modeller. ## Andre Ledende Stemmer Flere andre fremtredende skikkelser i teknologiverdenen deler lignende, om ikke mer dramatiske, perspektiver: - **Dario Amodei**, administrerende direktør i Anthropic, advarte allerede i mai 2025 om at AI kunne eliminere halvparten av alle entry-level kontorjobber innen fem år. Han har senere antydet at arbeidsledigheten kan stige til 10-20 prosent raskere enn tidligere antatt. - **Jim Farley**, administrerende direktør i Ford, uttalte sommeren 2025 at AI vil erstatte halvparten av alle kontorarbeidere i USA. - **Elon Musk**, leder for SpaceX og Tesla, forutså i Davos i januar 2026 at kunstig generell intelligens (AGI), definert som AI som matcher eller overgår menneskelig intelligens, kan ankomme allerede i 2026. ## Kontrasterende Realiteter og Utfordringer Til tross for disse dystre spådommene, viser den nåværende virkeligheten et mer nyansert bilde. En rapport fra Thomson Reuters fra 2025 indikerte at advokater og revisorer riktignok eksperimenterer med AI for spesifikke oppgaver, men at dette foreløpig kun har ført til marginale produktivitetsforbedringer, ikke massiv jobbforskyvning. Videre har en studie fra Model Evaluation and Threat Research (METR) vist at AI-verktøy i noen tilfeller faktisk gjorde at programvareutviklere brukte 20 prosent lengre tid på oppgavene sine. Økonomiske gevinster fra AI ser foreløpig ut til å være konsentrert i teknologisektoren. Torsten Slok, sjeføkonom ved Apollo Global Management, fant at mens fortjenestemarginene i Big Tech økte med over 20 prosent i fjerde kvartal 2025, var det nesten ingen endring i den bredere Bloomberg 500-indeksen. Dette antyder at investorer ikke forventer at AI vil føre til høyere inntjening utenfor teknologisektoren. Likevel er det tegn på jobbkutt relatert til AI. Rundt 55 000 AI-relaterte jobbkutt ble registrert i 2025, og Microsoft alene kuttet 15 000 stillinger samme år. Markedet har også reagert kraftig; i februar 2026 opplevde programvareaksjer et betydelig fall, kalt "SaaSpocalypse", drevet av frykt for at AI-agenter vil overta funksjonene til tradisjonelle SaaS-selskaper etter lanseringen av nye agentiske AI-systemer fra Anthropic og OpenAI. ## Konklusjon AI-ledernes spådommer om en rask og omfattende automatisering av kontorarbeid er både tankevekkende og potensielt forstyrrende. Mens den umiddelbare effekten på arbeidsmarkedet fortsatt er gjenstand for debatt og varierer på tvers av sektorer, er det tydelig at AI vil fortsette å forme fremtidens arbeidsliv. Spørsmålet er ikke lenger om AI vil endre måten vi jobber på, men hvor raskt og hvor dyptgående disse endringene vil være.