Fire investorer om hvorfor AI nettopp endret alt

Nøkkelinnsikt
- Anthropic vokser 10 ganger raskere enn OpenAI i inntekt, og bedriftsmarkedet er nøkkelen
- AI-modeller kan nå lage nyere versjoner av seg selv, og hastigheten på forbedringer har gått fra år til uker
- Andrew Yang spår at 20-50 % av 70 millioner amerikanske kontorarbeidere kan miste jobben innen 1-2 år
Denne artikkelen oppsummerer Anthropic vs. The Pentagon, Claude Outpaces ChatGPT, and Consulting Gets Replaced | #234. Se videoen →
Les denne artikkelen på English
Kort fortalt
For 66 millioner år siden utslettet en asteroide dinosaurene. De trege, tunge beistene klarte ikke å tilpasse seg. De små, smidige pattedyrene overlevde og utviklet seg til oss. I denne paneldiskusjonen bruker Peter Diamandis denne metaforen som ramme for alt fra Indias AI-satsing og Anthropics eksplosive vekst, til rådgivningsbransjens krise og millioner av kontorjobber som kan forsvinne. Budskapet er enkelt: tilpass deg eller forsvinn. Panelet med Salim Ismail, Dave Blundin og Alexander Wissner-Gross dekker et bredt spekter av temaer, men de viktigste trendene peker alle i samme retning: AI omformer hele bransjer raskere enn institusjonene klarer å følge med.
India posisjonerer seg som AI-nøytralt knutepunkt
Episoden åpner med det indiske AI-toppmøtet, der verdens ledende AI-selskaper og statsoverhoder møttes i New Delhi. Ismail beskriver det som en hendelse der nasjonalstater og teknologiselskaper fletter seg inn i hverandre på en måte vi aldri har sett før (3:26).
Tallene som ble annonsert er store. Totalt 250 milliarder dollar i AI-investeringer ble lovet under toppmøtet (5:19). Reliance og Adani stod alene for 210 milliarder dollar (5:25), mens Google forpliktet seg til 15 milliarder dollar i infrastruktur (5:31) og Microsoft bidro som del av sin 50 milliarder dollar-satsing (5:34).
Det kanskje mest bemerkelsesverdige var at 88 nasjoner signerte New Delhi-erklæringen, den første globale AI-avtalen som inkluderer både USA, Kina og Russland (5:44). Erklæringen bygger på tre søyler: demokratisk spredning av AI-verktøy, åpenhet rundt frontlinje-AI-modeller, og AI målt etter nytte for helse, utdanning og velferd (5:58).
Wissner-Gross peker på en skjult spenning: verdens ledende åpne vektmodeller (open-weight models, AI-modeller der de trente parametrene er offentlig tilgjengelige) kommer alle fra Kina. Hvis erklæringen fremmer spredning gjennom slike modeller, fungerer de i praksis som en digital variant av Kinas «Belt and Road»-strategi (11:43).
Blundin understreker Indias demografiske fortrinn: i aldersgruppen 20-45 år er befolkningen åtte til ni ganger større enn USAs, og den er ung, teknisk kompetent og engelskspråklig (6:42). India er allerede det nest største markedet for ChatGPT etter USA (19:16).
Anthropic og Pentagon: konflikten fortsetter
Konflikten mellom Anthropic og det amerikanske forsvarsdepartementet har allerede blitt grundig dekket i tre tidligere artikler (se den opprinnelige konflikten, Dario Amodeis svar og det føderale forbudet).
Kort oppsummert: Pentagon krever at Anthropic fjerner AI-sikkerhetsmekanismer for bruk i overvåking og autonome våpensystemer (23:07). Dario Amodei nekter, og risikerer 200 millioner dollar i statlige kontrakter (23:21).
Wissner-Gross beskriver dette som et typisk vestlig problem (26:17). I Kina er det ingen debatt, fordi sivile og militære systemer allerede er fullstendig sammenvevd. Han påpeker samtidig at Anthropic var det eneste frontlinjeselskapet med modeller godkjent for SIPRNet (det amerikanske forsvarets hemmeligstemplede nettverk) (26:32).
Sam Altman tok et uventet steg ved å offentlig forsvare konkurrenten Anthropic, og sa at Pentagon ikke burde true med forsvarsproduksjonsloven (Defense Production Act, en amerikansk lov som gir staten rett til å tvinge selskaper til å produsere varer for nasjonalt forsvar) (24:14).
Anthropic vokser ti ganger raskere enn OpenAI
Panelet bruker betydelig tid på inntektstallene til de to største AI-selskapene. Ifølge data presentert i episoden vokser Anthropic med 10 ganger per år i inntekt, mot OpenAIs 3,4 ganger (35:45). Krysningspunktet der Anthropic passerer OpenAI i inntekt er ifølge panelet ventet rundt midten av 2026 (35:56).
Blundin trekker vekstkurven videre og hevder at hvis Anthropics tempo holder seg, kan selskapet nå én billion dollar i årlig omsetning rundt 2029 (37:42). Den impliserte selskapsverdien ville da vært 20-30 billioner dollar. Diamandis går enda lenger og spår at vi vil se selskaper verdt 100 billioner dollar i løpet av de neste fem årene (38:05).
Wissner-Gross mener vekstforskjellen handler mindre om chatboter mot agenter, og mer om forbrukermarkedet mot bedriftsmarkedet (38:50). OpenAI satset historisk på å bli forbrukernes foretrukne AI-abonnement. Anthropic, delvis på grunn av begrenset datakraft, satset på kodegenerering og bedriftsbruk. Resultatene taler for seg: bedrifter har dypere lommer enn privatpersoner og bruker langt flere AI-ressurser.
Ifølge Wissner-Gross har OpenAI nå innsett dette, og satser tungt på Codex for å konkurrere med Claude Code (39:35). Han legger til et interessant poeng: forbrukere foretrekker rask smiger fremfor grundig resonnering (40:25). Da OpenAI prøvde å tvangsfôre millioner av brukere med resonneringstokener (reasoning tokens, ekstra beregningskapasitet der modellen «tenker» steg for steg), likte ikke forbrukerne det, mens bedriftskunder spiste så mye som de kunne få.
Rekursiv selvforbedring: AI som forbedrer seg selv
Et av episodens mest slående temaer handler om hvor raskt AI-modellene nå utvikler seg. Wissner-Gross hevder at vi har beveget oss inn i æraen for rekursiv selvforbedring (recursive self-improvement, der AI-modeller lager eller forbedrer nyere versjoner av seg selv uten menneskelig innblanding) (41:31).
Han beskriver tre epoker. Først kom forhåndstrening (pre-training), der det tok måneder eller år å trene en modell på internett. Deretter kom resonneringsæraen, med forbedringer hvert kvartal. Nå er vi ifølge Wissner-Gross i en fase der modeller bokstavelig talt lager vektene for neste versjon av seg selv (41:49). Forbedringene kommer ukentlig, kanskje daglig.
OpenAIs Codex-leder spådde at den nåværende tilstanden for kodeagenter vil virke «så primitiv at det blir morsomt» om bare 10 uker (40:49). Blundin forteller at han i samtale med OpenAIs Noam Brown fikk høre at første kvartal 2026 ville bli «kvartalet for stillasbygging» (scaffolding, eksterne verktøy og kode som hjelper AI-agenter med flertrinnsoppgaver) (43:09). Overgangen handler om å gå fra slike eksterne hjelpeverktøy til ren resonnering: gi AI-en en oppgave, og den jobber selvstendig i dager for å levere et komplett system (43:28).
Rådgivningsbransjen: tilpass deg eller bli overflødig
Diamandis beskriver stemningen han har møtt hos ledelsen i de store konsulentselskapene med ett ord: «livredde» (59:43). Bakgrunnen er at Accenture-sjef Julie Sweet offentlig knytter forfremmelser til ansattes bruk av AI-verktøy (59:28).
Ismail har et mer nyansert syn. Han argumenterer for at rådgivning faktisk har en lys fremtid, fordi klientene er enda lenger bak enn konsulentene selv. Hans formulering er ambisiøs: «Vi må gjenoppbygge og omstrukturere alle institusjoner vi styrer verden med. Det er den største rådgivningsmuligheten i menneskehetens historie» (1:00:50).
Blundin gir et mer konkret bilde. Et av de fire store revisjonsselskapene (Big Four) besøkte Link Ventures, og teknologiteamet deres vurderte at 80 % av revisjonsbemanningen kan erstattes (1:01:13). Ismail supplerer med at finanssystemer drevet av AI og blokkjede allerede kan utføre løpende revisjon i sanntid, noe som undergraver hele modellen med periodiske revisjonsstempler (1:01:37).
Wissner-Gross avslutter temaet med en advarsel: å måle AI-bruk i stedet for kvaliteten på resultatet er et skoleeksempel på Goodharts lov (Goodhart's Law: «Når et mål blir et styringsmål, slutter det å være et godt mål») (1:03:56). Hvis Accenture belønner dem som bruker AI mest, risikerer de å optimalisere for verktøybruk fremfor verdiskaping.
Jobbkrisen: Yang spår massiv uro
Andrew Yang, tidligere presidentkandidat i USA, spår at 20-50 % av de 70 millioner amerikanske kontorarbeiderne kan miste jobben innen ett til to år (1:42:25). Diamandis kaller det en kommende «pandemi av frykt» (1:42:37).
Blundin, som er investor og ser utviklingen på nært hold i egne selskaper, bekrefter at tallene stemmer. Men han legger til et viktig forbehold: nye muligheter vil dukke opp, men de kommer med forsinkelse (1:43:31). I mellomtiden spår han massiv sosial uro, og mener det vil skje før neste presidentvalg (1:43:42).
Ismail peker på at myndigheter verden over «overhodet ikke er forberedt» på det som kommer (1:43:55). Verken politikk eller velferdssystemer er bygget for en verden der AI-agenter kan gjøre arbeidet til millioner av kunnskapsarbeidere.
Bonustemaer i episoden
Panelet dekker også flere andre temaer kort:
- Cybersikkerhet: Aksjekurser i cybersikkerhetsselskaper falt etter at Anthropic lanserte et nytt sikkerhetsverktøy i Claude Code (46:06).
- Rent-a-Human.ai: En ny plattform med 500 000 registrerte mennesker som utfører fysiske oppgaver på vegne av AI-agenter (51:19).
- Midjourney-grunnleggeren hevder at 5 millioner humanoide roboter som jobber døgnet rundt kan bygge Manhattan på seks måneder (1:39:32).
- Tesla FSD: 8 millioner miles kjørt, med 5,3 millioner miles mellom ulykker, som er ni ganger sikrere enn det amerikanske gjennomsnittet (1:38:20).
Hvordan tolke disse påstandene
Panelet presenterer et bredt spekter av påstander, fra konkrete inntektstall til spådommer om samfunnsomveltninger. Flere av disse påstandene fortjener kritisk vurdering før man godtar dem.
Veksttall uten sammenheng
Anthropics 10x inntektsvekst per år er imponerende, men det er viktig å huske at selskapet startet fra en langt lavere base enn OpenAI. Prosentvis vekst er alltid enklere når tallene er små. Å ekstrapolere dette til én billion dollar i 2029 krever at vekstraten holder seg konstant i flere år, noe som historisk er sjeldent for teknologiselskaper.
Investering er ikke det samme som gjennomføring
De 250 milliardene i annonserte AI-investeringer i India er nettopp det: annonsert. Hvor mye som faktisk blir investert, og over hvilken tidsperiode, gjenstår å se. Løfter på toppmøter har en tendens til å krympe når detaljene skal på plass.
Jobbspådommer med vidt spenn
Yangs anslag på 20-50 % er et svært vidt intervall. Forskjellen mellom 14 millioner og 35 millioner tapte jobber er enorm. Panelet diskuterer heller ikke hvilke jobber som er mest utsatt, eller i hvilken grad nye roller kan oppstå parallelt.
Selvforbedring er ikke testet i skala
Påstanden om at AI-modeller nå lager vekter for sine egne etterfølgere er teknisk fascinerende, men det er begrenset uavhengig bekreftelse på at dette fungerer pålitelig i stor skala. Wissner-Gross er selv forsker og har egeninteresse i å fremstille utviklingen som revolusjonerende.
Hva sterke bevis ville sett ut som
For inntektsprognosene: uavhengig verifiserte regnskapstall, ikke bare grafer presentert i en podcast. For jobbtapene: fagfellevurderte studier med spesifikke bransjeanalyser, ikke brede prosentintervaller. For selvforbedring: publiserte benchmarks og reproduserbare resultater, ikke enkeltutsagn fra involverte parter.
Praktiske implikasjoner
For bedriftsledere
Skiftet fra forbruker til bedrift som den viktigste AI-inntektskilden betyr at prisene for AI-tjenester rettet mot bedrifter vil stige. Bedrifter som ikke allerede evaluerer kodeagenter og AI-drevne arbeidsflyter risikerer å falle bak konkurrenter som gjør det.
For arbeidstakere i kunnskapsbransjen
Panelet er enige om at endringene kommer raskt, men uenige om konsekvensene. Ismails poeng om at rådgivning har en fremtid fordi klientene trenger hjelp til omstilling, antyder at evnen til å forstå og ta i bruk AI-verktøy kan bli viktigere enn tradisjonell fagkompetanse.
For myndigheter og politikere
Blundins advarsel om sosial uro før neste presidentvalg peker på et sprik mellom teknologisk utvikling og politisk respons. Diskusjonen om universell høy inntekt (UHI, et konsept der alle mottar nok til en høy levestandard, foreslått som alternativ til borgerlønn) viser at selv teknologioptimister innser at overgangen kan bli smertefull.
Ordliste
| Begrep | Forklaring |
|---|---|
| Åpne vektmodeller | AI-modeller der de trente parametrene er offentlig tilgjengelige. Ofte forvekslet med åpen kildekode, men det er ikke det samme. |
| Rekursiv selvforbedring | Når en AI-modell lager eller forbedrer sin egen etterfølger uten menneskelig hjelp. |
| SIPRNet | Det amerikanske forsvarets hemmeligstemplede datanettverk for sensitiv informasjon. |
| Forsvarsproduksjonsloven (DPA) | Amerikansk lov som gir staten rett til å tvinge selskaper til å produsere varer for nasjonalt forsvar. |
| Stillasbygging (scaffolding) | Eksterne verktøy og kode som hjelper AI-agenter med å utføre flertrinnsoppgaver. |
| Resonneringstokener | Ekstra beregningskapasitet der AI-modellen «tenker» steg for steg før den svarer. Bruker mer datakraft, men gir bedre svar på vanskelige oppgaver. |
| Kapitalutgifter (capex) | Store investeringer i fysisk infrastruktur, som datasentre og servere. |
| Goodharts lov | Prinsippet om at «når et mål blir et styringsmål, slutter det å være et godt mål». Brukt om faren ved å måle AI-bruk i stedet for resultatkvalitet. |
| Inferens (AI-generering) | Når en AI-modell genererer et svar eller en prediksjon basert på inndata. I motsetning til trening, der modellen lærer. |
| UHI (universell høy inntekt) | Konsept der alle mottar nok inntekt til en høy levestandard. Foreslått av Elon Musk som alternativ til tradisjonell borgerlønn (UBI). |
| New Delhi-erklæringen | Den første globale AI-avtalen signert av 88 nasjoner, inkludert USA, Kina og Russland, med fokus på demokratisk AI-spredning. |
| Big Four | De fire største revisjonsselskapene i verden: Deloitte, PwC, EY og KPMG. |
Kilder og ressurser
Vil du vite mer? Se hele videoen på YouTube →