Hopp til innhold
Tilbake til artikler

Pentagon vs. Anthropic: Hva konflikten handler om

26. februar 2026·5 min lesing·973 ord
AIAnthropicForsvarReguleringArbeidsliv
Gregory Allen i Bloomberg-studio med Joe Mathieu og Kailey Leinz under samtalen om Pentagon og Anthropic
Bilde: Skjermbilde fra YouTube.

Nøkkelinnsikt

  • Konflikten handler ikke bare om en kontrakt, men om hvem som definerer grensene for lovlig og etisk AI-bruk i forsvarssektoren
  • Anthropic argumenterer for smale røde linjer, mens DOD vil ha full fleksibilitet for alle lovlige brukstilfeller
  • Trusselen om 'supply chain risk'-stempel kan ramme hele den kommersielle delen av Anthropics virksomhet, ikke bare DOD-avtalen
KildeYouTube
Publisert 24. februar 2026
Bloomberg Podcasts
Bloomberg Podcasts Episode: Pentagon Threatens to End Anthropic Work in Feud Over AI Terms
Vertskap:Joe Mathieu og Kailey Leinz (Bloomberg Washington-korrespondenter)
Wadhwani AI Center, CSIS
Gjest:Gregory Allen (Senior Advisor)Wadhwani AI Center, CSIS

Les denne artikkelen på English


Kort fortalt

I denne samtalen med Bloomberg-korrespondentene Joe Mathieu og Kailey Leinz forklarer Gregory Allen en eskalerende konflikt mellom Pentagon og Anthropic om hvilke bruksgrenser som skal gjelde for AI i forsvarssektoren. Det mest alvorlige elementet er ikke selve kontrakten, men trusselen om å merke Anthropic som en leverandørrisiko (supply chain risk, en offisiell advarsel om at en leverandør utgjør fare for kritiske systemer), noe som i verste fall kan skade selskapets kommersielle virksomhet bredt. Samtidig brukes konflikten som et eksempel på en større maktkamp: skal statlige kunder eller AI-leverandører sette de praktiske grensene for hvordan kraftige modeller brukes?

$200M
omtrentlig kontrakt omtalt i segmentet
Alt som er lovlig
Pentagon krevde full tilgang uten unntak
Leverandørrisiko
mulig stempel med størst ringvirkning

Hva er kjernen i konflikten?

Kommentatoren i videoen beskriver konflikten som en dragkamp mellom fleksibilitet og begrensninger: Pentagon vil ha kontraktsvilkår som sikrer tilgang for alle lovlige brukstilfeller, mens Anthropic vil beholde noen tydelige røde linjer (2:03).

Samtidig hevdes det at Anthropic allerede har en sentral rolle i ubemannet eller cybernær bruk (militære operasjoner med droner, cybersikkerhet og tilgrensende digitale systemer) av avansert AI i amerikansk forsvar, og at selskapet etter en stor kontrakt i 2025 har lent seg langt frem i nasjonalsikkerhetssamarbeid (0:49).


Hvorfor reaksjonen anses som en eskalering

Videoens tydeligste standpunkt er at det oppleves uforholdsmessig å true med en leverandørkjederisiko-betegnelse ("supply chain risk") i denne typen kontraktsuenighet (1:48). Kommentatoren argumenterer for at slike signaler normalt forbindes med dypere tillits- eller sikkerhetsbrudd, ikke forhandling om retningslinjer.

Et sentralt argument er at dette skjer i en fase der USA selv beskriver AI-kapplopet som strategisk avgjørende. Da blir spørsmålet om man har råd til å svekke egne "kronjuveler" i hjemlig industri over prinsippstrid om vilkår (3:02).

I rapporteringen rundt saken trekkes også et konkret møte frem mellom Anthropics CEO Dario Amodei og forsvarsminister Pete Hegseth. Der skal amerikanske myndighetspersoner ha varslet mulig terminering av kontrakter, samt vurdert både "supply chain risk"-stempel og bruk av Defense Production Act (en amerikansk lov som gir myndighetene krisefullmakter til å kreve tilgang til strategisk viktig teknologi) for å sikre tilgang. Samme rapportering beskriver at Anthropic la frem to tydelige grenser: ingen autonom målutvelgelse (autonomous targeting, at AI selv velger hvem som skal angripes uten menneskelig godkjenning) mot stridende og ingen masseovervåking av amerikanske borgere.

Forretningsrisikoen kan være større enn kontrakten

Videoen peker på at den direkte verdien av avtalen med det amerikanske forsvarsdepartementet (DOD — Department of Defense) er betydelig, men at den virkelige faren for Anthropic ligger i mulige sekundæreffekter: at andre leverandører og samarbeidspartnere i forsvarssektoren (selskaper som jobber med eller leverer til militæret) unngår å samarbeide (5:15). Det er den typen mekanisme som kan spre seg utover ett enkelt offentlig anbud.


Subtekst: dette er også en debatt om militær AI-styring

I intervjuet løftes et vanskelig punkt: hvis rivaler allerede bruker autonome, AI-drevne systemer (systemer som handler på egen hånd med lite eller ingen menneskelig styring), vil forsvarsledelse naturlig argumentere for maksimal handlingsfrihet (4:28). Fra det perspektivet kan private leverandørgrenser oppleves som operativ risiko.

Men motsatsen er at leverandører også bærer etisk og juridisk risiko når modellene deres brukes i høykonsekvensdomener (high-stakes domains, områder der feil kan ha alvorlige følger, som forsvar og helsevesen). Anthropics sikkerhetskultur former selskapets posisjon i denne konflikten. Konflikten blir dermed ikke teknisk, men styringsmessig: hvem eier den siste beslutningen om akseptabel bruk?

Denne typen spenning ser ut til å bli normen, ikke unntaket. Jo sterkere modellene blir, desto mindre sannsynlig er det at offentlige kunder og leverandører deler identisk risikobilde.


Hvorfor arbeidsmarked-delen i videoen fortsatt er relevant

Mot slutten brukes konflikten som inngang til et bredere resonnement om produktivitet, automatisering og arbeidsmarked (8:22). Analogien til traktoren er klassisk: teknologisk sprang kan gi høyere total verdiskaping, men samtidig flytte eller fjerne bestemte jobber.

Poenget om "hester vs. mennesker" er retorisk, men peker på en reell forskjell: mennesker kan omskoleres, men ikke alle roller har lik omstillingshastighet (9:06). I debatten er dette viktig fordi forsvars- og sikkerhetsspørsmål ofte presser frem raskere innføring enn resten av markedet ellers ville valgt.


Konklusjon

Konklusjonen er at denne saken bør leses som et tidlig signal om en ny kontraktsvirkelighet mellom stat og ledende AI-selskaper. Konflikten handler ikke bare om "kan vi bruke modellen til X", men om hvordan makt over modellbruk, ansvar og risiko skal fordeles.

Tre indikatorer det er verdt å følge videre:

  1. Om myndigheter standardiserer AI-vilkår på tvers av leverandører.
  2. Om leverandører samler seg om felles minimumsgrenser i forsvarsbruk.
  3. Om markedet begynner å prise "regulatorisk kompatibilitet" like høyt som ren modellkvalitet.

Ordliste

BegrepForklaring
Supply Chain RiskEn vurdering av om en leverandør kan utgjøre risiko i kritiske systemer. I praksis kan en slik merkelapp gjøre leverandøren vanskelig å bruke i sensitive kontrakter.
Lawful UsesFormulering brukt i kontrakter for å beskrive at teknologien skal kunne brukes til alle juridisk tillatte formål, uten leverandørspesifikke unntak.
DOD (U.S. Department of Defense)Det amerikanske forsvarsdepartementet. I denne saken er DOD motparten som forhandler vilkår for hvordan Anthropics modeller kan brukes i forsvarsrelaterte oppdrag.
Autonome dødelige våpenSystemer som kan velge og angripe mål med svært begrenset menneskelig kontroll. Dette er en av de mest omstridte AI-debattene i sikkerhetspolitikken.
Frontier AIDe mest kapable AI-modellene i markedet, ofte eid av noen få ledende selskaper. De brukes i stadig flere høy-risiko domener.
Defense Production Act (DPA)Amerikansk lovverk som gir myndighetene særskilte fullmakter i nasjonale kriser. I AI-kontekst omtales den som et mulig verktøy for å presse frem tilgang til kritisk teknologi.
CSISCenter for Strategic and International Studies, en Washington-basert tenketank innen sikkerhet og geopolitikk. Gregory Allen er tilknyttet institusjonens Wadhwani AI Center.
JAIC (Joint Artificial Intelligence Center)Tidligere strategisk AI-enhet i det amerikanske forsvarsapparatet. Den omtales ofte som tidlig forsøk på å samle militær AI-strategi og gjennomføring under DOD.

Kilder og ressurser