Hopp til innhold
Tilbake til artikler

OpenAIs Pentagon-avtale: «Beregnende og slurvete»

3. mars 2026·7 min lesing·1,427 ord
AIOpenAIAnthropicForsvarMeningerVideo Summary
CBS News-segment om OpenAIs Pentagon-avtale med Bloomberg-reporter Katrina Manson
Bilde: Skjermbilde fra YouTube.

Nøkkelinnsikt

  • Sam Altman innrømte at OpenAIs Pentagon-avtale «så beregnende og slurvete ut» og legger nå til sikkerhetstiltak som utelukker etterretningsbyråer
  • Anthropic la inn et tilbud i Pentagons konkurranse om autonom dronesverming til 100 millioner dollar, til tross for sin motstand mot ubegrenset militær AI
  • Alle store AI-selskaper har militære bånd, fra OpenAI og xAI på hemmelige nettverk til Meta som samarbeider med Anduril om slagmarksteknologi
KildeYouTube
Publisert 3. mars 2026
CBS News
CBS News
Vertskap:CBS News-korrespondent
Bloomberg News
Gjest:Katrina MansonBloomberg News

Denne artikkelen oppsummerer OpenAI changing deal with U.S. military after backlash. Se videoen

Les denne artikkelen på English


Kort fortalt

Timer etter at Trump-administrasjonen vraket Anthropic fordi selskapet nektet å gi det amerikanske militæret ubegrenset tilgang til sin AI, slo OpenAI til med sin egen Pentagon-avtale. Motreaksjonen kom umiddelbart. Toppsjef Sam Altman har siden innrømmet at grepet «så beregnende og slurvete ut» og jobber nå med å legge til sikkerhetstiltak. Samtidig har Bloomberg avslørt at Anthropic selv la inn et tilbud i Pentagons konkurranse om autonom dronesverming (drone swarming, koordinering av flere droner styrt av AI) til 100 millioner dollar, noe som gjør historien om et selskap med klare etiske grenser mer sammensatt. Katrina Manson fra Bloomberg News, forfatter av den kommende boken Project Maven (om Pentagons første store AI-initiativ fra 2017), hevder at grensene mellom AI-selskapenes uttalte prinsipper og deres faktiske militære engasjement blir mer uklare for hver dag.

$100M
Pentagons dronesverming-premie
5 selskaper
store AI-aktører med militære bånd
3 tiltak
nye sikkerhetsgrenser fra OpenAI

Bakgrunn

Denne artikkelen fortsetter den løpende dekningen av konflikten mellom AI-selskapene og Pentagon. For hele bakgrunnen, se artiklene om den første konfrontasjonen, Dario Amodeis svar og det føderale forbudet.

Nye hendelser siden forrige dekning: Kilder opplyser til CBS News at det amerikanske militæret brukte Claude, Anthropics AI-modell, under angrepet mot Iran i helgen (0:00). Dette skjedde til tross for det pågående bruddet med selskapet. OpenAI handlet raskt for å fylle tomrommet.


OpenAI kaster seg inn, trekker seg tilbake

Fredagskveld-avtalen

Timer etter at Trump-administrasjonen offentlig tok avstand fra Anthropic, kunngjorde OpenAI sin egen avtale med Pentagon (0:24). Selskapet sa at det ville jobbe på den hemmeligstemplede skyen (classified cloud, et sikkert nettverk for gradert informasjon) og hevdet at avtalen også ville være «komfortabel for Anthropic» (3:25). Anthropic har ikke offentlig bekreftet at de er enige.

Tilbaketrekningen

Motreaksjonene kom raskt. Altman la ut på X: «Vi burde ikke ha hastet med å få dette ut på fredag. Problemstillingene er svært komplekse og krever tydelig kommunikasjon.» Han la til at OpenAI «oppriktig prøvde å dempe ting og unngå et mye verre utfall», men erkjente at grepet «bare så beregnende og slurvete ut» (2:41).

Ifølge Wall Street Journal beskrev Altman situasjonen som «virkelig smertefull» på et allmøte (3:05). OpenAI legger nå til tre nye sikkerhetstiltak i avtalen:

  1. Kun hemmeligstemplet sky. Arbeidet skal foregå på den graderte skyen, ikke på utstyr ute i felt (edge computing) (3:47).
  2. Ingen etterretningsbyråer. OpenAI vil ikke inngå avtaler med National Security Agency (NSA) eller Defense Intelligence Agency (DIA) (3:51).
  3. Ingen masseovervåking. Sikkerhetstiltakene skal forhindre enhver risiko for storstilt overvåking av egne innbyggere. Manson påpeker at Pentagon allerede sier de ikke har lov til dette under amerikansk lov (4:08).

Manson beskriver dette som «et veldig hektisk stadium» og sier at det er uklart om OpenAI har gjort nok for å tilfredsstille sine egne interne kritikere, for ikke å snakke om de eksterne (4:14).


Anthropics egne militære ambisjoner

Den største avsløringen handler kanskje om Anthropic selv. Manson har avslørt at Anthropic la inn et tilbud i Pentagons Autonomous Vehicle Orchestrator Prize Challenge til 100 millioner dollar (1:10), en konkurranse om å bygge stemmestyrt svermteknologi for droner. Konkurransen ledes av Defense Autonomous Warfare Group (DAWG), en enhet under USAs spesialstyrkekommando, og Defense Innovation Unit (DIU), Pentagons teknologiakselerator i Silicon Valley (1:21).

Anthropics tilbud ble ikke valgt (2:00). Men ifølge en person med kjennskap til saken mente selskapet at tilbudet ikke krysset deres egne røde linjer (2:07).

Dette henger sammen med en nyanse Manson trekker frem fra Anthropic-sjef Dario Amodeis offentlige uttalelser. Amodei har sagt at han er mot helt autonome våpen, men kun fordi AI-en ennå ikke er pålitelig nok. Han er «ikke mot ideen i teorien» (2:19).


Hele landskapet: ingen står på sidelinjen

Mansons rapportering tegner et bilde der alle store AI-selskaper har en eller annen form for militært engasjement (4:37):

SelskapMilitært engasjement
OpenAINavngitt på to tilbud i svermkonkurransen som underleverandør. Ny Pentagon-skyavtale under revisjon.
AnthropicClaude ble brukt av militæret i Iran-operasjonen. La inn tilbud i svermkonkurransen.
xAIInngikk nylig avtale om tilgang til Pentagons graderte nettverk. Del av svermtilbudene.
GoogleLangsiktig forsvarspartner. Droppet sin AI-kontrakt med Project Maven i 2018, men gjenopptok senere samarbeid med skytjenester og andre løsninger.
MetaSamarbeider med Anduril Industries (forsvarsteknologiselskap grunnlagt av Palmer Luckey) om militære XR-visirer som bringer data til slagmarken. Åpen kildekode-modeller brukes av forsvarsunderleverandører.

SpaceX og xAI ble også navngitt på tilbud i svermkonkurransen (1:47). Spørsmålet, slik Manson formulerer det, er ikke om AI-selskaper vil samarbeide med militæret, men nøyaktig hvor hvert enkelt selskap trekker grensen.


Motstridende perspektiver

Argumentet for nasjonal sikkerhet

Tilhengerne hevder at det amerikanske militæret trenger tilgang til den beste tilgjengelige AI-teknologien for å opprettholde sitt strategiske fortrinn. Hvis amerikanske selskaper nekter å levere, vil ikke motstandere vise den samme tilbakeholdenheten. Pentagons interesse for AI til kommando og kontroll, dronekoordinering og etterretningsanalyse gjenspeiler et reelt sikkerhetsbehov som er eldre enn den nåværende kontroversen.

Argumentet for etiske begrensninger

Kritikere svarer at å haste AI inn i militære formål uten solide sikkerhetsmekanismer risikerer å muliggjøre storstilt overvåking, selvstyrte målvalg eller annen bruk som krysser etiske grenser. Hastigheten avtalene inngås med, og deretter revideres, tyder på at bransjen beveger seg raskere enn egne etiske rammeverk klarer å holde følge.

Virkeligheten med «uklare grenser»

Manson beskriver situasjonen som en der «grensene virkelig er veldig uklare» (1:10). Et selskap kan motsette seg selvstyrte våpen i prinsippet mens det byr på autonom svermteknologi i praksis. En toppsjef kan kalle sin egen avtale «slurvete» mens han forhandler om å beholde den. Avstanden mellom uttalte prinsipper og faktisk atferd ser ut til å øke, ikke krympe.


Hvordan tolke disse påstandene

Denne reportasjen reiser viktige spørsmål, men flere faktorer fortjener grundig vurdering.

Tidslinja betyr mye

Hendelsene beveger seg ekstremt raskt. Anthropic-bruddet, OpenAIs avtale, motreaksjonene og revisjonene skjedde alt sammen i løpet av dager. Standpunkter som tas i dag kan se helt annerledes ut neste uke. Manson selv påpeker at dette er «et veldig hektisk stadium» med mye «frem og tilbake om ordlyden».

Uttalte sikkerhetstiltak vs. håndhevelse

OpenAIs tre nye sikkerhetstiltak høres betydningsfulle ut, men den praktiske håndhevelsen er fortsatt uklar. Å kun jobbe på den graderte skyen sier for eksempel ingenting om hva AI-en faktisk brukes til. Å utelukke NSA og DIA etterlater fremdeles titalls andre forsvars- og etterretningsenheter. Sikkerhetstiltakene beskriver hvor teknologien befinner seg, ikke hva den gjør.

Alles røde linjer flytter seg

Anthropic trakk klare grenser mot ubegrenset militær tilgang, men la inn tilbud på autonom svermteknologi for droner. OpenAI sa først at avtalen ville passe for alle, og innrømmet deretter at den var forhastet. Google droppet Project Maven, for så stille å gjenoppbygge sine forsvarsrelasjoner. Det etiske landskapet for AI i militær bruk forhandles fortsatt i sanntid, og ingen selskaper har funnet en stabil posisjon.

Hva man bør følge med på

Det tydeligste signalet vil komme fra de faktiske vilkårene i disse avtalene, hvorav de fleste er gradert. Offentlige uttalelser fra toppsjefer er delvis markedsføring, delvis skadebegrensning. Det virkelige spørsmålet er om noe AI-selskap vil avslå en lukrativ militærkontrakt av prinsipp når teknologien er klar og myndighetene er villige til å betale.


Ordliste

BegrepForklaring
Hemmeligstemplet skyEt sikkert, statskontrollert nettverk for håndtering av gradert informasjon. AI-systemer som kjører her er isolert fra det offentlige internett.
Edge computingBehandling av data på utstyr ute i felt (som militært utstyr på slagmarken) i stedet for på sentrale servere. OpenAI begrenser nå Pentagon-arbeidet til skyen, ikke til edge-enheter.
DAWGDefense Autonomous Warfare Group. En Pentagon-enhet under USAs spesialstyrkekommando som driver forskningsprogrammer for autonome våpen, inkludert dronesverming-konkurransen.
DIUDefense Innovation Unit. Pentagons teknologiakselerator i Silicon Valley, med fokus på å bringe kommersiell teknologi inn i militær bruk.
DronesvermingKoordinering av flere droner som handler sammen som en gruppe ved hjelp av AI, styrt av tale- eller tekstkommandoer fra en menneskelig operatør.
NSANational Security Agency. Amerikansk etterretningsbyrå med ansvar for signaletterretning og cybersikkerhet. OpenAI har forpliktet seg til ikke å samarbeide med NSA under den reviderte Pentagon-avtalen.
DIADefense Intelligence Agency. Amerikansk militær etterretningsorganisasjon under forsvarsdepartementet. Utelukket fra OpenAIs reviderte Pentagon-avtale sammen med NSA.
Project MavenEt Pentagon-initiativ fra 2017 for å bruke AI til å analysere droneovervåkingsopptak. Google leverte opprinnelig AI-en, men trakk seg etter intern protest. Også tittelen på Katrina Mansons kommende bok.
Anduril IndustriesEt forsvarsteknologiselskap grunnlagt av Palmer Luckey (skaperen av Oculus VR). Samarbeider med Meta om militær XR-teknologi og deltar i dronesverming-konkurransen.

Kilder og ressurser