Anthropic-sjefen svarer Pentagon: «Vi tar saken til retten»

Nøkkelinnsikt
- Anthropic holder fast på to røde linjer — ingen masseovervåking av amerikanere og ingen helautonome våpen — men støtter 99 % av Pentagons bruksområder
- Leverandørbetegnelsen har aldri blitt brukt mot et amerikansk selskap — bare mot utenlandske aktører som Kaspersky Labs
- Anthropic har ikke mottatt noen formelle dokumenter — bare innlegg på sosiale medier — og vil utfordre enhver formell betegnelse i retten
Les denne artikkelen på English
Kort fortalt
Anthropic-sjef Dario Amodei satte seg ned med CBS News bare timer etter at forsvarsminister Pete Hegseth stempled selskapet som en sikkerhetsrisiko i forsyningskjeden (supply chain risk, en formell betegnelse som betyr at myndighetene anser leverandøren som en trussel mot kritisk forsvarsinfrastruktur). I et 27 minutter langt eksklusivt intervju forklarer Amodei hvorfor Anthropic nekter å vike på to konkrete begrensninger (ingen masseovervåking av amerikanere og ingen helautonome våpen) samtidig som selskapet tilbyr teknologien sin for det han beskriver som 99 % av Pentagons bruksområder. Han kaller betegnelsen «gjengjeldende og straffende», avslører at ingen formelle juridiske dokumenter er mottatt utover innlegg på sosiale medier, og sier at Anthropic vil ta saken til retten dersom vedtaket formaliseres.
Bakgrunn
Dette intervjuet er siste utvikling i en raskt eskalerende konflikt mellom Anthropic og Pentagon. Konflikten startet da forsvarsdepartementet (omdøpt til «Department of War» under minister Hegseth) krevde uinnskrenket tilgang til Anthropics AI-modell Claude for «all lovlig bruk». Anthropic nektet og trakk to røde linjer.
Tidligere dekning:
De to røde linjene
Amodei innleder med å understreke at Anthropic har vært, med hans egne ord, det mest fremoverlente AI-selskapet i samarbeid med det amerikanske militæret. Selskapet var først ute med å plassere modellene sine på den klassifiserte skyen (classified cloud, et sikkert databehandlingsmiljø som oppfyller militære sikkerhetskrav) og først med å bygge tilpassede modeller for nasjonal sikkerhet. Claude brukes i dag på tvers av etterretningssamfunnet og militæret til digitalt forsvar og kampstøtte.
Men Amodei setter grensen ved to konkrete bruksområder (1:18):
1. Masseovervåking av egne borgere. AI har gjort noe nytt mulig: å kjøpe store mengder persondata om amerikanere (posisjoner, personlig informasjon, politisk tilhørighet) fra private selskaper, og deretter analysere alt i stor skala (1:31). Amodei påpeker at dette aldri var nyttig før AI kom, og derfor aldri ble regulert. Den fjerde grunnlovsendringen, USAs beskyttelse mot urimelig overvåking fra staten, har ikke holdt tritt med hva AI kan gjøre (9:53).
2. Helautonome våpen. Det vil si våpen som velger og skyter mot mål helt uten menneskelig involvering, ikke de delvis autonome systemene som allerede brukes i Ukraina (2:08). Amodei har to argumenter mot dem. For det første er AI rett og slett ikke pålitelig nok. Alle som jobber med AI-modeller vet at det finnes en grunnleggende uforutsigbarhet som ikke er teknisk løst (2:38). For det andre oppstår et tilsynsproblem: hvis én person styrer en hær på 10 millioner droner uten at noen soldater tar beslutninger om hvem som angripes, konsentreres makten på en måte som reiser alvorlige spørsmål om ansvar (20:29).
Amodei legger til at Anthropic ikke er kategorisk mot autonome våpen i fremtiden. Hvis motstandere utvikler dem, kan USA trenge dem. Men teknologien er ikke klar, og samtalen om tilsyn har ikke funnet sted ennå (17:34). Han sier Anthropic tilbød seg å teste slike systemer i et sandkassemiljø (sandbox, et avskjermet testmiljø der man kan prøve teknologien uten å ta den i bruk på ordentlig) med Pentagon, men departementet var ikke interessert med mindre de kunne gjøre hva de ville fra dag én (18:04).
Hvordan forhandlingene kollapset
Pentagon ga Anthropic et tre dagers ultimatum: godta vilkårene våre, eller bli stemplet som en sikkerhetsrisiko i forsyningskjeden (3:22).
I løpet av den perioden var det flere runder med forhandlinger. På ett tidspunkt sendte Pentagon et forslag som tilsynelatende imøtekom Anthropics krav. Men Amodei sier det var fullt av formuleringer som «dersom Pentagon anser det hensiktsmessig», språk som i praksis ikke ga noe (4:04).
Pentagon-talsmann Sean Parnell gjentok regjeringens posisjon dagen før: «Vi tillater kun all lovlig bruk» (4:37). Den posisjonen endret seg aldri.
Amodei sier han tilbød seg å fortsette å levere tjenester under en eventuell overgangsperiode, selv om myndighetene gikk til handling mot Anthropic, fordi han er bekymret for konsekvensene for soldatene. Uniformerte offiserer fortalte ham at å miste Claude ville sette dem tilbake seks til tolv måneder, kanskje lenger (6:11).
«Gjengjeldende og straffende»
Amodeis sterkeste språk er rettet mot selve leverandørbetegnelsen.
Han påpeker at denne betegnelsen, etter det Anthropic kjenner til, aldri har blitt brukt mot et amerikansk selskap (12:40). Tidligere mål inkluderer Kaspersky Labs (et russisk cybersikkerhetsselskap med mistanke om bånd til russiske myndigheter) og kinesiske brikkeprodusenter. Å bli plassert i samme kategori som utenlandske motstandere oppleves som straffende, sier Amodei, gitt hvor mye Anthropic har gjort for USAs nasjonale sikkerhet (12:59).
Han argumenterer også for at Pentagon overreagerte på det som i bunn og grunn er en kontraktsuenighet. Den normale reaksjonen ville vært å velge en annen leverandør. I stedet utvidet myndighetene tiltakene sine ut over forsvarsdepartementet til andre etater, forsøkte å oppheve kontrakter utenfor forsvarssektoren, og brukte betegnelsen til å hindre andre private selskaper fra å bruke Anthropic i sitt militære arbeid (12:04).
«Vi klarer oss fint» — og vi tar saken til retten
På spørsmål om Anthropic kan overleve dette, er Amodei kontant: «Ikke bare overleve — vi kommer til å klare oss fint» (25:14).
Han sier det faktiske juridiske omfanget av betegnelsen er langt snevrere enn det forsvarsminister Hegseths tweet antydet. Loven hindrer bare selskaper fra å bruke Anthropic som del av sine militære kontrakter — den forbyr ikke all forretningsvirksomhet med Anthropic (24:51). Amodei beskriver tweeten som bevisst utformet for å skape «frykt, usikkerhet og tvil» (25:30).
Den viktigste juridiske detaljen: Anthropic har ikke mottatt noen formelle dokumenter overhodet (26:33). Alt som har skjedd så langt har kommet gjennom tweets fra presidenten og minister Hegseth. Amodei sier klart og tydelig at når formelle tiltak kommer, vil Anthropic utfordre dem i retten (26:45).
Hvorfor AI ikke er som å bygge fly
Intervjueren utfordrer Amodei med en sammenligning med Boeing: flyselskapet bygger fly til militæret, men forteller ikke Pentagon hvordan de skal brukes. Hvorfor skal Anthropic være annerledes?
Amodeis svar handler om endringstakten. AI-modellenes kapasitet dobles omtrent hver fjerde måned, et utviklingstempo forsvarssektoren aldri har opplevd (15:28). En general forstår hvordan et fly fungerer fordi teknologien har vært stabil i tiår. AI har ikke den stabiliteten.
Han argumenterer også for at dette er et midlertidig problem. Kongressen trenger bare å innhente seg én gang på disse to konkrete sakene. Begrensningene er smale nok til at lovgivning kan løse dem uten å bremse militær AI-bruk (16:12).
Amodei innrømmer begrensningene i sin egen posisjon. Den riktige langsiktige løsningen, sier han, er ikke at et privat selskap og Pentagon krangler om dette. Kongressen må handle (14:08).
«Å være uenig med myndighetene er det mest amerikanske som finnes»
På spørsmål om hva han ville sagt til president Trump ansikt til ansikt, beskriver Amodei Anthropics posisjon som grunnleggende patriotisk (23:22). Selskapet gikk langt i militært samarbeid fordi det tror på å forsvare Amerika. De røde linjene ble trukket for å beskytte amerikanske verdier. Og da selskapet ble truet med enestående myndighetstiltak, brukte det sin grunnlovsfestede rett til å si fra.
Han avviser også stempelet om at Anthropic er partipolitisk. Han viser til at han deltok på et energiarrangement med Trump i Pennsylvania, støttet deler av administrasjonens AI-handlingsplan, og deltok i et helse-AI-løfte (21:34). Amodei beskriver Anthropic som «nøye nøytralt» i politiske spørsmål (22:17).
Bedt om å vurdere sjansen for en avtale på en skala fra 1 til 10, avslår han: «Jeg har ingen krystallkule.» Men Anthropics posisjon har ikke endret seg siden dag én, og selskapet er fortsatt villig til å inngå en avtale, på sine premisser (22:43).
Ordliste
| Begrep | Forklaring |
|---|---|
| Klassifisert sky | Et sikkert skybasert databehandlingsmiljø som oppfyller militære sikkerhetskrav. Bare AI-leverandører med tilgang til den klassifiserte skyen kan brukes i sensitive forsvarsoperasjoner. |
| Defense Production Act | En amerikansk lov som gir myndighetene nødrettigheter til å tvinge selskaper til å prioritere nasjonalt forsvar. Nevnt som et potensielt verktøy for å tvinge Anthropics etterlevelse. |
| Den fjerde grunnlovsendringen | Del av den amerikanske grunnloven som beskytter borgere mot urimelig overvåking og ransaking fra staten. Amodei mener AI-drevet massedataanalyse har løpt fra det juridiske vernet. |
| Helautonome våpen | Våpensystemer som velger ut og angriper mål uten menneskelig involvering. Ikke det samme som delvis autonome systemer som allerede brukes i konflikter som Ukraina. |
| Leverandørbetegnelse (supply chain risk) | En formell vurdering av at en leverandør utgjør en risiko for kritiske forsvarssystemer. Tidligere bare brukt mot utenlandske aktører som Kaspersky Labs og kinesiske brikkeprodusenter. |
Kilder og ressurser
Vil du vite mer? Se hele videoen på YouTube →

