AI-agenter knuste børsen. Washington løftet ikke en finger.

Nøkkelinnsikt
- AI-agenter passerte en kapabilitetsterskel tidlig i 2026 og gikk fra chatbots til autonome arbeidere som bygger programvare og erstatter hele arbeidsprosesser
- Selskapene som lovet å regulere seg selv dropper nå sine egne sikkerhetsløfter, og peker på konkurrenter som grunnen til at de ikke kan holde linjen
- En super-PAC på 125 millioner dollar støttet av OpenAIs medgründer retter seg mot lovgiveren som skrev USAs første store AI-sikkerhetslov
Denne artikkelen oppsummerer AI Just Took Over. No One's In Charge.. Se videoen →
Les denne artikkelen på English
Kort fortalt
I løpet av de to første månedene av 2026 gikk AI fra å være en chatbot som hjelper med skriving, til en autonom agent som tar over datamaskinen din, bygger programvare og fullfører timevis med oppgaver på egen hånd. Wall Street reagerte med panikk: IGV-fondet (et børsfond som følger amerikanske programvareselskaper) falt nesten 30 %. Samtidig dropper selskapene som lovet å regulere seg selv sine egne sikkerhetsløfter. CNBCs Deirdre Bosa går inn i markedskaoset, sikkerhetskollapsen, og en politisk kamp der en super-PAC (politisk fond) på 125 millioner dollar prøver å stoppe lovgiveren som skrev USAs første store AI-sikkerhetslov.
Det tredje vendepunktet: agenter som faktisk jobber
Bosa beskriver det hun kaller AIs tredje vendepunkt (1:26). Det første var ChatGPT for to år siden. Det andre var resonneringsmodeller (reasoning models) for omtrent et år siden. Det tredje skjer nå: AI-agenter (autonome systemer som kan ta imot oppgaver, ta beslutninger og gjøre ekte arbeid uten konstant menneskelig veiledning).
For å demonstrere ga Bosa en AI-agent én eneste instruksjon: lag en ti-sliders presentasjon på executive-nivå om AI-agenter i 2026 (2:00). Agenten tok over datamaskinen hennes, forsket, skrev overskrifter og kulepunkter, bygde layout, og leverte et ferdig resultat. En ny instruksjon endret hele stilen. To instruksjoner, null manuelt arbeid.
Dette er ikke en labo-demo. Advokater bruker agenter til å bygge hele saker. Markedsførere lanserer fulle kampanjer. Folk som aldri har skrevet en linje kode bygger programvare, nettsider og apper på en ettermiddag (2:51). Én person Bosa snakket med bygde på fire dager det som ville tatt et team av utviklere flere uker.
En undersøkelse fra Pew Research viser at amerikanere nå er mer bekymret enn begeistret for AI i hverdagen, men de bruker det likevel (3:20). ChatGPT har over 800 millioner ukentlige brukere, og tallet vokser.
Markedet priser inn frykt
Spenningen er ikke bare kulturell. Wall Street er i salgspanikk, og blodbadet rammer bredt (3:56).
| Sektor | Hva skjedde |
|---|---|
| SaaS (Software as a Service, skybasert abonnementsprogramvare) | Fortsatt nedsalg over hele sektoren |
| Spillbransjen | Unity, Roblox, Take-Two stupte etter at Alphabet rullet ut nye verktøy |
| Juridiske tjenester | Aksjene ble knust |
| Meglerhus | Siste ofre |
| Lastebilbransjen | Selg først, still spørsmål etterpå |
| Cybersikkerhet | For det meste lavere etter et stort fall |
IGV-fondet falt nesten 30 % i løpet av de to første månedene av 2026 (4:22). Bosa sier det rett ut: den samme teknologien som skulle redde programvareselskapene truer nå med å ta livet av dem.
Årsaken ifølge Bosa: AI-agenter kobles nå direkte til bedriftsprogramvare via åpne integrasjoner, uten noen standard for hva AI-en kan få tilgang til eller gjøre (4:40). Agentene som lager presentasjoner i en demo er nå inne i systemene de selskapene pleide å ta betalt for.
Ingen har kontroll
Per nå finnes det ingen føderal lov som regulerer AI i USA. Ingen nasjonal standard. Ingen dedikert tilsynsmyndighet (6:10). Den eneste reelle AI-reguleringen kommer fra to delstatslover: SB-53 i California og Raise Act i New York.
Her kommer Alex Bores inn. Han har en mastergrad i informatikk, jobbet hos Palantir (et dataanalyseselskap brukt av myndigheter og store selskaper), ble valgt inn i New York State Assembly, og skrev Raise Act (5:37). Han stiller nå til valg til den amerikanske Kongressen, og valgkampen hans har blitt episenteret for det største spørsmålet i teknologibransjen: hvem skal bestemme hva AI kan og ikke kan gjøre?
For dette møter han en super-PAC (et politisk fond som kan samle inn ubegrensede midler for å støtte eller motarbeide kandidater) på 125 millioner dollar kalt Leading the Future. Fondet støttes av OpenAI-medgründer Greg Brockman, venturekapitalselskapet Andreessen Horowitz og Palantirs Joe Lonsdale (6:21). Argumentet deres: regulering vil gi ledelsen til Kina.
Bores ser det annerledes. Han peker på at de fleste av disse menneskene er mot eksportkontroll på AI-brikker til Kina (6:35). Han bemerker også at Kina regulerer AI langt strengere enn noe som er foreslått i Vesten, fordi det kinesiske kommunistpartiet er livredd for hva en stor språkmodell (LLM, Large Language Model, AI-systemet bak ChatGPT og Claude) kan si eller hvordan den kan styrke befolkningen (17:50).
Sikkerhetskollapsen
Menneskene som bygger denne teknologien slår alarm selv (7:36).
I år sa lederen for Anthropics sikkerhetsteam opp. I oppsigelsen skrev han at verden er i fare. Han beskrev presset ved å se selskapet sitt veie sikkerhetsverdier mot kappløpet om å konkurrere (7:40).
Noen dager senere sa en OpenAI-forsker opp og skrev et innlegg i New York Times med tittelen «OpenAI gjør de samme feilene som Facebook», der han advarte om at ChatGPTs brukerdata nå tjenes penger på gjennom reklame (7:51). En annen OpenAI-ansatt skrev kort og godt: «Jeg kjenner endelig den eksistensielle trusselen som AI utgjør» (8:15).
Og så er det Anthropic, selskapet som skulle være motvekten. Toppsjef Dario Amodei grunnla selskapet fordi han mente OpenAI gikk for fort frem (8:29). Anthropic bygde omdømmet sitt og verdsettelsen på løftet om at de skulle utvikle AI på en ansvarlig måte.
Hva skjedde? Anthropic publiserte forskning som viser at deres egen AI kan hjelpe med å lage kjemiske våpen. OpenAI fant at deres nyeste modell kan hjelpe med å planlegge biologiske trusler (9:02). Og Anthropic har skrotet kjerneløftet om sikkerhet de ble grunnlagt på, og erstattet bindende forpliktelser med det de kaller «ikke-bindende, offentlig erklærte mål», fordi konkurrentene ellers kunne løpe fra dem (9:14).
Samtidig er Anthropic i en offentlig konfrontasjon med Pentagon. Militæret vil at Anthropic skal fjerne sikkerhetsbarrierer etter at selskapet nektet å la teknologien brukes til helautonome våpen eller masseovervåking av amerikanere. Pentagon truer med å svarteliste dem (9:30).
Som Bosa oppsummerer: Anthropic presses av militæret til å droppe prinsippene sine, og velger samtidig på egen hånd å droppe andre (9:44).
Alex Bores: lovgiveren med 125 millioner dollar mot seg
Andre halvdel av episoden er et fullstendig intervju med Bores. Flere poenger skiller seg ut.
Raise Act retter seg mot fem selskaper
Raise Act ville gjelde de fem største AI-utviklerne: OpenAI, Anthropic, xAI, Google og Meta (26:30). Loven krever at de publiserer sikkerhetsplaner, følger dem, og rapporterer kritiske sikkerhetshendelser (definert som hendelser som innebærer overhengende eller faktisk skade eller død). Bores kaller det en svært høy terskel og en svært lav standard for hva som kreves (26:54).
Kina-argumentet er ikke i god tro
Bores hevder at påstanden «regulering gir ledelsen til Kina» sjelden tåler gransking. De som bruker dette argumentet er stort sett mot eksportkontroll på brikker til Kina, som ville vært den mest direkte måten å bremse kinesisk AI på hvis det var den reelle bekymringen (17:36). Kina regulerer AI langt strengere enn noe foreslått i Vesten. Og Raise Act inneholdt opprinnelig en bestemmelse om kunnskapsdestillasjon (knowledge distillation, en teknikk der en mindre AI-modell lærer å kopiere oppførselen til en større), den eksakte teknikken DeepSeek brukte for å ta igjen ChatGPT. Akselerasjonistene lobbet for å fjerne den bestemmelsen (18:06).
Vinduet kan allerede være i ferd med å lukke seg
Bores erkjenner at regulering kanskje allerede er for sent (29:07). Men han mener det er nettopp derfor super-PAC-en bruker så mye i denne valgkampen: de trenger bare å utsette regulering noen få år til før selskapene blir for mektige til å regulere i det hele tatt. Han rammer det inn som et kappløp mot et vindu som lukkes, ikke en debatt om man skal regulere.
Sikkerhetsforskning fremskynder faktisk kapabiliteter
Bores kommer med et overraskende poeng: noen av de største gjennombruddene i AI-kapabiliteter kom fra sikkerhetsmiljøet (22:06). Forsterket læring fra menneskelige tilbakemeldinger (RLHF, en treningsteknikk som lærer AI å følge instruksjoner basert på hva mennesker foretrekker) kom fra sikkerhetsforskere. Trinnvis resonnering (chain-of-thought, der AI-modeller viser tankeprosessen sin steg for steg) kom fra sikkerhetsforskere. Han hevder at markedet overvurderer kortsiktige gevinster og undervurderer den grunnleggende forskningen som gjør AI pålitelig på lang sikt.
Super-PAC-en vil statuere et eksempel
Leading the Future har gjort det klart at hvis de vinner dette valget, planlegger de å oppsøke hvert eneste kongressmedlem og si: «Ikke våg å regulere AI, ellers bruker vi 10 millioner dollar mot deg» (26:05). Bores sier han tror de vil gjøre det uansett, men det er langt mindre slagkraftig hvis de har tapt sitt første valg.
Bores bruker Claude Code
I et overraskende øyeblikk forteller Bores at han ikke bare bruker AI-verktøy daglig, men at han har sendt en kodeendring (pull request) til Claude Codes GitHub-repo der han fikset et ytelsesproblem i iMessage-koblingen (23:37). Bosa påpeker at daglige kursfall i bransje etter bransje føles direkte knyttet til Claude Codes kapabiliteter (24:16).
Datasentre og energispørsmålet
Bores ser datasentre som en potensiell vinn-vinn-vinn-situasjon hvis insentivene er riktig utformet (32:55). Det amerikanske strømnettet er gammelt og trenger oppgradering. AI-bransjen har nesten ubegrenset kapital og er villig til å betale ekstra for rask tilgang. Hvis datasentre pålegges å bringe ny fornybar energi inn på nettet og betale for oppgraderinger, kan resultatet bli et renere og mer pålitelig strømnett som gagner alle.
Uten disse insentivene advarer han om at datasentre enten belaster nettet og driver opp strømregningen, eller går helt utenfor nettet slik Elon Musk gjorde i Tennessee, noe som kan føre til direkte forurensning (31:40).
Hvordan tolke styringsvakuumet
Denne rapporten kommer i et øyeblikk der tre trender møtes samtidig, og samspillet mellom dem betyr mer enn hver enkelt.
Kapabilitetshoppet er reelt, men spredningen er ujevn
AI-agenter som bygger programvare fra to instruksjoner er imponerende. Men Bosas demonstrasjon og markedsreaksjonen avslører et gap mellom det tidlige brukere opplever og det folk flest forstår. ChatGPT har 800 millioner ukentlige brukere, men de fleste bruker det fortsatt som en chatbot, ikke som en autonom agent. Markedet priser inn en fremtid de fleste brukere ennå ikke har møtt.
Selvregulering har offisielt feilet
Episoden gjør dette poenget direkte. Alle store AI-selskaper forpliktet seg til frivillige sikkerhetsløfter i 2023 og 2024. Hvert løfte inneholdt en fluktklausul: hvis konkurrentene dropper sine løfter, gjør vi det også. Det er nøyaktig det som skjedde. Anthropic, selskapet bygget på løftet om sikkerhet-først-utvikling, erstatter nå bindende forpliktelser med ikke-bindende mål. Når selskapet som eksisterer spesifikt for å være det ansvarlige alternativet svekker sine egne standarder, er den frivillige modellen over.
Den politiske kampen er asymmetrisk
Bores, en delstats-lovgiver, stiller til Kongressen mot en krigskasse på 125 millioner dollar finansiert av bransjen han vil regulere. Super-PAC-ens uttrykte strategi er å statuere et eksempel: slå én regulator så hardt at ingen annen lovgiver prøver. Om Bores vinner eller taper, er selve asymmetrien historien. Den viser hvor mye bransjen er villig til å bruke for å holde reguleringsvinduet åpent.
Ordliste
| Begrep | Forklaring |
|---|---|
| AGI (Artificial General Intelligence) | Et hypotetisk AI-system som kan matche eller overgå menneskelig ytelse på tvers av alle kognitive oppgaver. Eksisterer ikke ennå. |
| AI-agent | Et AI-system som kan ta imot oppgaver, ta beslutninger og fullføre arbeid med flere steg på egen hånd, uten konstant menneskelig veiledning. |
| Eksportkontroll | Statlige restriksjoner på salg av visse teknologier (som avanserte AI-brikker) til andre land. |
| IGV | iShares Expanded Tech-Software Sector ETF, et børsfond som følger amerikanske programvareselskaper. |
| Kunnskapsdestillasjon (Knowledge Distillation) | En teknikk der en mindre AI-modell lærer å etterligne oppførselen til en større, mer kapabel modell. DeepSeek brukte dette for å ta igjen ChatGPT. |
| LLM (Large Language Model, stor språkmodell) | AI-systemet bak ChatGPT, Claude og lignende verktøy. Trent på enorme mengder tekst for å forstå og generere språk. |
| Raise Act | Lov fra New York State skrevet av Alex Bores som krever at de største AI-utviklerne publiserer og følger sikkerhetsplaner og rapporterer kritiske sikkerhetshendelser. |
| RLHF (forsterket læring fra menneskelige tilbakemeldinger) | En treningsteknikk som lærer AI-modeller å følge instruksjoner ved å lære av menneskelige tilbakemeldinger om hva et godt resultat ser ut som. |
| SaaS (Software as a Service) | Programvare levert over internett på abonnementsbasis (som Salesforce, Slack eller Zoom) i stedet for installert lokalt. |
| SB-53 | Lov fra California som regulerer AI-utvikling, en av de første i USA. |
| Super-PAC | Et politisk fond som kan samle inn ubegrensede midler for å støtte eller motarbeide kandidater, men som ikke kan samarbeide direkte med valgkampanjer. |
| Trinnvis resonnering (Chain-of-Thought Reasoning) | En teknikk der AI-modeller viser tankeprosessen sin steg for steg, noe som forbedrer nøyaktigheten på vanskelige oppgaver. |
Kilder og ressurser
Vil du vite mer? Se hele videoen på YouTube →