Et år kan måles i produktlanseringer, men også i de store øyeblikkene som endrer hvordan vi ser på kunstig intelligens. AI-bransjen produserer kontinuerlig nyheter: store oppkjøp, suksesshistorier fra uavhengige utviklere, offentlig motstand mot tvilsomme produkter og potensielt farlige kontraktsforhandlinger.
Det er mye å holde oversikt over, så her er et blikk på hvor vi står nå, og hva som har skjedd så langt i år.
Anthropic mot Pentagon
Anthropic-sjef Dario Amodei og forsvarsminister Pete Hegseth, som tidligere var forretningspartnere, havnet i februar i en hard konflikt under reforhandlingene av kontraktene som regulerer hvordan det amerikanske forsvaret kan bruke Anthropics AI-verktøy.
Anthropic har trukket en tydelig grense mot at selskapets AI skal brukes til masseovervåking av amerikanere eller til autonome våpen som kan angripe uten menneskelig kontroll. Pentagon på sin side har argumentert for at Forsvarsdepartementet – som Donald Trumps administrasjon omtaler som «Department of War» – bør ha tilgang til Anthropics modeller til enhver «lovlig bruk». Regjeringsrepresentanter reagerte kraftig på tanken om at militæret skulle underlegges reglene til et privat selskap, men Amodei nektet å gi etter.
«Anthropic forstår at det er Department of War, ikke private selskaper, som fatter militære beslutninger. Vi har aldri protestert mot bestemte militæroperasjoner eller forsøkt å begrense bruken av teknologien vår på en ad hoc-måte,» skrev Amodei i en offentlig uttalelse om konflikten. «Men i et snevert sett av tilfeller mener vi at AI kan undergrave, snarere enn forsvare, demokratiske verdier.»
Pentagon ga Anthropic en frist til å akseptere kontraktsvilkårene. Hundrevis av ansatte i Google og OpenAI signerte et åpent brev der de ba sine ledere støtte Amodeis begrensninger og nekte å gi etter når det gjelder autonome våpen og innenlandsk overvåking.
Fristen utløp uten at Anthropic hadde innfridd Pentagons krav. Trump instruerte føderale etater om å fase ut bruken av Anthropics verktøy over en periode på seks måneder, og kalte det 380 milliarder dollar verdsatte selskapet for et «radikalt venstrevridd, woke-selskap» i et innlegg på sosiale medier. Pentagon gikk deretter videre med å erklære Anthropic som en «supply-chain risk» – en betegnelse som vanligvis er forbeholdt utenlandske motstandere, og som gjør at selskaper som samarbeider med Anthropic, stenges ute fra å gjøre forretninger med det amerikanske militæret. Anthropic har i etterkant gått til sak for å få denne klassifiseringen omgjort.
Rivalen OpenAI utnyttet situasjonen og kunngjorde at selskapet hadde inngått en avtale som gjør at dets egne modeller kan brukes i graderte, hemmeligstemplede sammenhenger. Nyheten sjokkerte teknologimiljøet, ettersom tidligere rapporter tydet på at OpenAI ville holde seg til de samme røde linjene som Anthropic hadde trukket opp for militær bruk av AI.
Reaksjonen i offentligheten tydet på at mange oppfattet OpenAIs trekk som tvilsomt. Dagen etter at avtalen ble annonsert, økte avinstalleringene av ChatGPT med 295 % fra dagen før, mens Anthropics Claude skjøt opp til førsteplass på App Store. OpenAIs leder for maskinvare, Caitlin Kalinowski, trakk seg i protest og uttalte at avtalen ble «presset gjennom uten at nødvendige sikkerhetsmekanismer var på plass».
OpenAI uttalte at selskapet mener avtalen tydelig slår fast dets egne grenseoppganger: ingen autonome våpen og ingen autonom overvåking.
Etter hvert som denne konflikten utvikler seg, vil den få stor betydning for hvordan AI brukes i krig, og kan potensielt påvirke historiens gang.
Den «vibe-kodede» appen OpenClaw og overgangen til agentisk AI
Februar ble måneden da OpenClaw tok av, og ringvirkningene merkes fortsatt. I løpet av kort tid gikk denne «vibe-kodede» AI-assistentappen viralt, skapte en rekke spin-off-selskaper, havnet i trøbbel på grunn av personvernproblemer og ble deretter kjøpt opp av OpenAI. Til og med et av selskapene bygget på OpenClaw, en Reddit-lignende plattform for AI-agenter kalt Moltbook, har nylig blitt kjøpt opp av Meta. Dette økosystemet med krepsdyr-tema sendte Silicon Valley inn i fullstendig AI-feber.
OpenClaw, utviklet av Peter Steinberger – som nå har sluttet seg til OpenAI – er et grensesnitt rundt AI-modeller som Claude, ChatGPT, Googles Gemini og xAI sin Grok. Det spesielle med OpenClaw er at brukerne kan kommunisere med AI-agenter i naturlig språk via populære chatteapper som iMessage, Discord, Slack og WhatsApp. I tillegg finnes det en åpen markedsplass der utviklere kan kode og laste opp «skills» som andre kan legge til sine AI-agenter, noe som i praksis gjør det mulig å automatisere nesten alt som kan gjøres på en datamaskin.
Om dette høres for godt ut til å være sant, er det fordi det til en viss grad er det. For at en AI-agent skal fungere som en effektiv personlig assistent, må den ha tilgang til e-posten din, kredittkortnumre, tekstmeldinger, filer og annet. Hvis agenten blir hacket, kan konsekvensene bli store, og det finnes foreløpig ingen måte å beskytte slike systemer fullstendig mot prompt-injeksjonsangrep.
«Det er egentlig bare en agent som sitter med en haug med tilgangsdata på en boks koblet til alt – e-posten din, meldingsplattformene dine, alt du bruker,» forklarte Ian Ahl, CTO i Permiso Security. «Det betyr at når du får en e-post, og noen klarer å legge inn en liten prompt-injeksjon der som ber om en handling, så kan agenten på boksen din – med tilgang til alt du har gitt den – nå utføre denne handlingen.»
En AI-sikkerhetsforsker i Meta fortalte at OpenClaw gikk amok i innboksen hennes og slettet alle e-postene, til tross for gjentatte beskjeder om å stoppe. Hun beskrev at hun måtte «løpe til Mac mini-maskinen min som om jeg skulle desarmere en bombe» for fysisk å trekke ut strømmen, og delte skjermbilder som viste hvordan agenten ignorerte stoppsignalene.
Til tross for sikkerhetsrisikoene var teknologien likevel interessant nok til at OpenAI gjennomførte et såkalt «acqui-hire» og hentet inn både produktet og utvikleren.
Andre verktøy bygget oppå OpenClaw, som Moltbook – et Reddit-lignende «sosialt nettverk» der AI-agenter kan kommunisere med hverandre – endte faktisk opp med å bli mer virale enn OpenClaw selv.
I ett tilfelle gikk et innlegg viralt der en AI-agent tilsynelatende oppfordret andre agenter til å utvikle sitt eget hemmelige, ende-til-ende-krypterte språk, slik at de kunne organisere seg uten at mennesker fulgte med.
Forskere avslørte imidlertid raskt at den «vibe-kodede» Moltbook-plattformen ikke var spesielt sikker. Det var svært lett for mennesker å utgi seg for å være AI-agenter og legge ut innlegg som trigget hysteriske reaksjoner i sosiale medier.
Selv om diskusjonen rundt Moltbook i stor grad var drevet av panikk mer enn realiteter, så Meta likevel potensial i appen, og kunngjorde at Moltbook og skaperne, Matt Schlicht og Ben Parr, blir en del av Meta Superintelligence Labs.
Det kan virke underlig at Meta kjøper et sosialt nettverk der alle brukerne er roboter. Selskapet har ikke sagt mye om oppkjøpet, men mye tyder på at det i større grad handler om å få tilgang til kompetansen bak, mennesker som brenner for å eksperimentere med økosystemer av AI-agenter. Mark Zuckerberg har selv sagt at han tror hver bedrift en dag vil ha sin egen «business AI».
Når vi følger utviklingen rundt OpenClaw, Moltbook og verktøy som NanoClaw, virker det som om de som spådde en fremtid dominert av agentisk AI, kan ha vært inne på noe – i hvert fall foreløpig.
Mangelen på brikker, maskinvaredrama og eksploderende datakraftbehov
De ekstreme kravene AI-industrien stiller til regnekraft og datasentre er nå i ferd med å bli så omfattende at vanlige forbrukere merker det direkte. Etterspørselen etter minnebrikker er så enorm at det kan bli umulig for industrien å holde tritt. Samtidig ser forbrukere at prisene på telefoner, bærbare PC-er, biler og annen maskinvare stiger.
Analytikere i IDC og Counterpoint anslår at leveransene av smarttelefoner vil falle med rundt 12–13 % i år. Apple har allerede økt prisene på MacBook Pro med opptil 400 dollar.
Google, Amazon, Meta og Microsoft planlegger til sammen å bruke opptil 650 milliarder dollar på datasentre bare i år, en økning på anslagsvis 60 % fra året før.
Hvis mangelen på brikker ikke merkes direkte i lommeboken, vil den kunne merkes lokalt. Bare i USA er nærmere 3 000 nye datasentre under bygging, i tillegg til de omtrent 4 000 som allerede er i drift. Behovet for arbeidskraft til å bygge disse anleggene er så stort at det har oppstått såkalte «man camps» i delstater som Nevada og Texas, der arbeidere lokkes med fasiliteter som golfsimulatorer og biffer grillet på bestilling.
Utbyggingen av datasentre har ikke bare langsiktige miljøkonsekvenser, men skaper også helserisiko for nærliggende lokalsamfunn. Anleggene kan forurense lufta og påvirke sikkerheten til lokale vannkilder.
Samtidig er Nvidia, en av de mest verdifulle produsentene av maskinvare og brikker, i ferd med å endre forholdet sitt til ledende AI-selskaper som OpenAI og Anthropic. Nvidia har vært en viktig støttespiller for disse aktørene, noe som har skapt bekymring for sirkulære avhengigheter i AI-økonomien – og for hvor mye av de enorme verdivurderingene som egentlig bygger på gjensidige avtaler mellom selskapene. I fjor investerte Nvidia for eksempel 100 milliarder dollar i OpenAI-aksjer, og OpenAI forpliktet seg samtidig til å kjøpe Nvidia-brikker for samme beløp.
Det vakte derfor oppsikt da Nvidia-sjef Jensen Huang nylig erklærte at selskapet vil slutte å investere i OpenAI og Anthropic. Han begrunnet dette med at selskapene planlegger børsnotering senere i år, men logikken skurrer for mange – tradisjonelt pøser investorer inn ekstra kapital før en børsnotering for å hente ut mest mulig verdi.
Hvor dette ender, vil ha mye å si for balansen mellom de store aktørene i AI-økosystemet – og for hvem som egentlig tjener mest på AI-boomen.