Skaperen av Claude Code skriver null kode

Nøkkelinnsikt
- Claude Code startet som et chatbot-eksperiment, men ble et selvstendig verktøy i det det fikk tilgang til terminalen, og det endret hvordan Anthropic bygger programvare
- Cherny sender 20-30 pull requests om dagen uten å skrive en eneste linje manuelt, men rapporterer omtrent ti ganger færre feil enn manuell koding ville gitt
- Trykkpressen-analogien antyder at programvareutviklere ikke forsvinner, men går fra skrivere til forfattere, mens kostnadene faller og produksjonen mangedobles
- Agentisk søk med enkle verktøy som glob og grep slo gjenfinningsbaserte metoder, og bekrefter prinsippet om å la modellen styre sin egen arbeidsflyt
Denne artikkelen oppsummerer Building Claude Code with Boris Cherny. Se videoen →
Les denne artikkelen på English
Kort fortalt
Boris Cherny, skaperen og lederen av Claude Code hos Anthropic, forteller Gergely Orosz på The Pragmatic Engineer-podkasten at han sender 20-30 pull requests om dagen uten å skrive en eneste linje kode for hånd. Cherny forteller om en arbeidsflyt bygget på parallelle AI-agenter, planlegging før koding og lagdelt kodegjennomgang. Han hevder at rollen til programvareutviklere ikke krymper, men endrer seg. Han sammenligner øyeblikket med oppfinnelsen av trykkpressen: skriverne forsvant ikke, de ble forfattere og redaktører, mens markedet for trykt materiale vokste enormt.
Fra chatbot til kodeverktøy
Claude Code startet ikke som et produkt. Ifølge Cherny begynte det sent i 2024 som en enkel chatbot i terminalen som han bygde for å lære seg Anthropics API (25:28). Verktøyet var ikke agentisk (AI som handler selvstendig og bruker verktøy). Det var bare et tekstgrensesnitt som kalte modellen.
Vendepunktet kom da Cherny ga det ett eneste verktøy: terminaltilgang. Han spurte chatboten hva slags musikk han hørte på, og den skrev et AppleScript-program som hentet svaret fra musikkspilleren. Cherny kaller dette sitt «aha-øyeblikk», fordi modellen ikke trengte å begrenses til et forhåndsdefinert grensesnitt. Gitt de riktige verktøyene, fant den ut selv hvordan oppgaven skulle løses (25:28).
Denne innsikten, at modellen bør styre arbeidsflyten i stedet for å være en komponent i et større program, formet arkitekturen til Claude Code. Cherny knytter dette til «the bitter lesson» i maskinlæring (et prinsipp om at metoder basert på ren datakraft slår metoder som prøver å kode inn menneskelig kunnskap): slutt å begrense modellen og la den gjøre jobben sin (26:49).
Verktøyet spredte seg raskt internt hos Anthropic. Ifølge Cherny bruker nær 100 % av de tekniske ansatte Claude Code daglig, og stadig flere ikke-tekniske ansatte (salg, økonomi, dataforskere) tar det i bruk (30:15). Toppsjef Dario Amodei skal angivelig ha spurt om de ansatte ble tvunget til å bruke det. Cherny sier at de ikke ble det: folk valgte det selv.
Arbeidsflyten uten håndskrevet kode
En avvist pull request og en ny måte å jobbe på
Chernys første pull request hos Anthropic ble avvist, ikke fordi koden var dårlig, men fordi han skrev den for hånd (19:52). Kollegaen hans, Adam Wolf, sendte ham videre til Clyde, en tidlig forgjenger til Claude Code. Det tok Cherny en halv dag å lære verktøyet, men det leverte en fungerende pull request på første forsøk.
Overgangen til helautomatisk kode skjedde da Opus 4.5 kom. Cherny sier det skjedde over natten. Han sluttet å åpne utviklingsverktøyet sitt og avinstallerte det til slutt helt (31:25). Under en kodeferie i Europa i desember sendte han 10-20 pull requests per dag der Opus 4.5 skrev 100 % av hver eneste en. Han redigerte ikke en eneste linje manuelt (32:38).
Feilraten er talende: Opus innførte omtrent 2 feil i løpet av en måned, sammenlignet med anslagsvis 20 eller flere hvis koden hadde blitt skrevet for hånd (32:47).
Fem faner og en telefon
Chernys daglige arbeidsflyt involverer fem terminalfaner, hver med en separat utsjekk av kodelageret (33:52). Han veksler mellom dem og starter hver Claude Code-økt i planmodus (en funksjon der AI-en lager en plan før den skriver kode). Mens en agent jobber med planen sin, flytter han seg til neste fane og starter en ny agent. Når en plan kommer tilbake, gjennomgår han den, justerer, og lar agenten gjennomføre den.
Han bruker også Claude-appen på Mac og telefon for ekstra kapasitet. Cherny anslår at omtrent en tredjedel av koden hans nå skrives fra telefonen (36:19), noe han sier han aldri ville ha forutsett for seks måneder siden.
Kodegjennomgang i lag
Med dette volumet er det opplagte spørsmålet kvalitetskontroll. Cherny forklarer et system med flere lag:
| Lag | Mekanisme | Formål |
|---|---|---|
| Selvtesting | Claude kjører tester lokalt og starter seg selv i en underprosess for å verifisere hele flyten | Fanger grunnleggende feil før en pull request opprettes |
| CI-gjennomgang | Claude Code (via Agent SDK, et programmeringsgrensesnitt for å bygge automatiserte systemer) gjennomgår hver pull request automatisk | Fanger omtrent 80 % av feilene (43:02) |
| Beste-av-N | Samme oppgave kjøres flere ganger med parallelle agenter, og det beste resultatet velges | Kompenserer for at AI gir litt ulike svar hver gang |
| Menneskelig gjennomgang | En utvikler gjør en ekstra gjennomgang av hver endring | Påkrevd før noe når produksjon |
Cherny understreker at det alltid må være et menneske som godkjenner endringer, spesielt for et bedriftsprodukt der sikkerhet og personvern er kritisk (43:14). Han nevner også at Claude er utmerket til å skrive lint-regler (automatiske kodekvalitetssjekker). Når han oppdager et mønster som kan automatiseres i en kollegas pull request, tagger han Claude direkte og ber den skrive en lint-regel som fanger mønsteret fremover (45:22).
Hvorfor RAG tapte for grep
Et av de mer overraskende arkitekturvalgene er at Claude Code forlot RAG (gjenfinningsforsterket generering, en teknikk der AI-en søker gjennom lagrede dokumenter før den svarer) til fordel for kodesøk. Cherny forteller at teamet prøvde en lokal vektordatabase skrevet i TypeScript som lå på brukerens maskin (50:47). Den fungerte greit, men hadde vesentlige ulemper: indeksen kom ut av synk med lokale kodeendringer, og tilgangskontroll (hvem som kan lese de indekserte dataene) skapte sikkerhetsbekymringer.
De prøvde flere metoder og fant at «agentisk søk» (AI-en søker selv i kodefilene med enkle verktøy) slo alt annet (51:52). I praksis betyr agentisk søk at modellen bruker glob (filmønstersøk) og grep (tekstsøk) for å finne det den trenger. Cherny sier det rett ut: «Agentisk søk er et fancy ord for glob og grep.»
Ideen var delvis inspirert av erfaringen hans fra Instagram, der utviklingsverktøyene var upålitelige og utviklerne rutinemessig brukte tekstsøk i stedet for klikk-til-definisjon for å finne funksjoner (52:09). Den samme metoden fungerer for modellen.
Agentsverm og 200-agents-helger
Episoden avslører hvordan Claude Codes egne funksjoner nå bygges av svermer av AI-agenter (flere agenter som jobber sammen på en delt oppgave). Cherny forklarer hvordan et teammedlem satte opp en tidlig versjon av agentsverm over en helg for å bygge tilleggsfunksjonen (1:04:44).
Svermen fikk én eneste instruksjon: bygg tillegg. Den laget en spesifikasjon, satte opp en oppgavetavle med omtrent 100 oppgaver, startet rundt 200 agenter og bygde funksjonen. Det er omtrent den versjonen av tillegg som ble sendt til brukerne (1:05:08).
På tilsvarende vis ble Claude Cowork (et visuelt grensesnitt som lar ikke-utviklere bruke Claude Code) angivelig bygget på omtrent 10 dager (1:07:50). Produktet vokste ut av observasjonen at ikke-tekniske ansatte, inkludert økonomiavdelingen, dataforskere og til og med noen som overvåket tomatplanter med et webkamera, allerede brukte Claude Code selv om det ikke var laget for dem.
Motstridende perspektiver
Erfaringsproblemet
Chernys arbeidsflyt bygger på syv år hos Meta, der han ledet kodekvalitet på tvers av Instagram, Facebook, WhatsApp og Messenger (11:22). Forskningen hans der viste at kodekvalitet bidrar med et tosifret prosenttall til produktiviteten (18:32). Denne bakgrunnen gir ham et uvanlig sterkt grunnlag for å vurdere kode skrevet av AI. Om de samme resultatene ville gjelde for utviklere uten den erfaringen, er et åpent spørsmål.
Størrelsen på påstanden
Anthropic er et selskap med hundrevis av ansatte, ikke titusenvis. Kodebasen og utviklingskulturen er optimalisert for rask utvikling i en oppstartsbedrift. Påstanden om at ~80 % av koden er AI-skrevet (31:02) fungerer kanskje ikke like godt i større organisasjoner med eldre kodebaser og strengere regulering.
Sorgen over mesterskapet
Orosz tar opp et poeng mange utviklere vil kjenne igjen: følelsen av tap når en ferdighet man har brukt årevis på å mestre, plutselig blir mindre verdifull (1:22:28). Cherny erkjenner dette åpent og sier at han ble forelsket i kunsten å programmere og til og med skrev den første O'Reilly-boken om TypeScript. Men han rammer inn koding som et middel til et mål, ikke et mål i seg selv.
Hvordan tolke disse påstandene
Episoden tegner et overbevisende bilde, men det er verdt å stoppe opp ved noen ting før man generaliserer fra Chernys erfaring.
Selvrapporterte tall
Statistikken (20-30 pull requests per dag, 2 feil per måned, 80 % AI-skrevet kode) kommer fra Cherny selv, om hans egen arbeidsflyt og hans eget produkt. Dette er ikke uavhengig verifiserte tall. De er ikke fagfellevurdert. De representerer erfaringen til noen som er dypt investert i suksessen til Claude Code og som har uvanlig ekspertise i å få det til å fungere godt.
Overlevelseseffekt i verktøyvalg
Beslutningen om å forlate RAG til fordel for agentisk søk fungerte for Claude Codes spesifikke brukstilfelle. Men RAG fungerer fortsatt godt for mange gjenfinningsoppgaver, og konklusjonen om at «modellen bare bør bruke grep» lar seg ikke nødvendigvis overføre til kodebaser med annen struktur, størrelse eller indekseringsbehov.
Anthropic-miljøet
Anthropics utviklingskultur, med flate titler (alle er «member of technical staff»), ingen obligatoriske kravspesifikasjoner og en sterk prototypingskultur, er uvanlig. Teamet skal angivelig ha bygget 15-20 interaktive prototyper av én enkelt funksjon på halvannen dag (1:00:00). Denne hastigheten skyldes en blanding av små team, høy modelltilgang og en kultur som behandler kode som engangsarbeid. Organisasjoner med andre strukturer kan oppleve andre resultater.
Hva sterke bevis ville sett ut som
Uavhengige målinger som sammenligner AI-assistert og manuell koding på tvers av flere organisasjoner og erfaringsnivåer, ville styrket saken. Data om feilrater og utviklertilfredshet fra team utenfor Anthropic ville hjulpet med å skille Chernys resultater fra generelle trender.
Trykkpressen-analogien
Den mest interessante påstanden i episoden er Chernys sammenligning med trykkpressen (1:25:48). Før trykkpressen kunne lese og skrive var forbeholdt under 1 % av Europas befolkning. Skrivere trente i årevis og ble ansatt av konger som ofte var analfabeter selv.
Etter at trykkpressen kom, falt kostnadene for trykt materiale omtrent 100 ganger over 30-50 år. Mengden trykt materiale økte omtrent 10 000 ganger det neste århundret (1:26:54). Lesekyndigheten i verden steg etter hvert til rundt 70 %, men det tok ytterligere 200-300 år.
Chernys argument er at programvareutviklere i dag er skriverne. De er en liten gruppe med spesialiserte ferdigheter, ansatt av bedriftseiere som ikke kan kode selv, omtrent som analfabetiske konger ansatte skrivere. Trykkpressen fjernet ikke behovet for folk som jobber med tekst. Den fjernet skriveryrket og skapte et langt større marked for forfattere, redaktører og forleggere.
Orosz legger til en skarp observasjon: bedriftseiere som tar med en tavleskisse til utviklingsteamet og sier «dette burde være enkelt» er den moderne versjonen av analfabetiske konger som dikterer brev til skrivere (1:28:37). Hvis disse bedriftseierne plutselig kan «skrive» sin egen programvare, endres forholdet fullstendig.
Praktiske implikasjoner
For utviklere i jobb
Cherny peker på flere endringer i hvilke ferdigheter som teller. Sterke meninger om kodestil, programmeringsspråk og rammeverk betyr mindre når modellen kan skrive om kode i et hvilket som helst språk på kommando (1:32:27). Det som betyr mer: å jobbe metodisk og hypotesedrevet, være nysgjerrig nok til å bevege seg på tvers av disipliner (produkt, design, forretning), og mestre rask veksling mellom parallelle agenter.
Han kaller 2026 «generalisten sitt år» og, litt provoserende, «ADHD-året», fordi arbeidet har gått fra dyp fokus på én enkelt oppgave til å koordinere flere AI-agenter samtidig (1:34:08).
For utviklingsteam
Claude Code-teamet jobber uten obligatorisk oppgavesystem, uten kravspesifikasjoner, og alle på teamet skriver kode, inkludert lederen, designerne, dataforskerne og økonomiansvarlig (58:21). Om dette skalerer utover et lite, svært kompetent team hos et AI-selskap er usikkert, men retningen er tydelig: grensene mellom utvikling, produkt og design viskes ut.
For bransjen
Chernys påstand om at kostnadene for å bygge programvare har falt dramatisk, gjentas av andre stemmer i bransjen. Men trykkpressen-analogien tilfører en lengre tidshorisont. Hvis analogien holder, vil overgangen ta år eller tiår, ikke måneder. Den umiddelbare effekten er et fall i produksjonskostnadene. Den langsiktige effekten er en utvidelse av hvem som kan bygge programvare og hva som blir bygget, på måter som er umulige å forutsi i dag.
Ordliste
| Begrep | Forklaring |
|---|---|
| Agentisk AI | AI som kan bruke verktøy, kjøre kommandoer og ta handlinger på egen hånd, i stedet for å bare lage tekst i et chatvindu. |
| RAG (gjenfinningsforsterket generering) | En teknikk der AI-en søker gjennom lagrede dokumenter før den svarer, for å gi mer presise svar. Claude Code prøvde dette for kodesøk og gikk bort fra det. |
| Agentisk søk | Når AI-en søker i kodefiler selv med enkle verktøy som glob (filmønstersøk) og grep (tekstsøk), i stedet for å bruke en ferdigbygd indeks. |
| Planmodus | En Claude Code-funksjon der AI-en lager en plan og får godkjenning fra brukeren før den gjør kodeendringer. |
| Arbeidstre (git) | En måte å ha flere kopier av en kodebase sjekket ut samtidig, hver på sin egen gren. Brukes for å kjøre parallelle agenter uten konflikter. |
| Beste-av-N | Å kjøre samme oppgave flere ganger og velge det beste resultatet, for å kompensere for at AI-modeller gir litt ulike svar hver gang. |
| Sveitserostmodellen | En sikkerhetsmetode med flere overlappende beskyttelseslag, som skiver av sveitserost stablet slik at hullene ikke treffer hverandre. Brukes i Claude Codes sikkerhetsarkitektur. |
| Prompt-injeksjon | Når ondsinnede instruksjoner gjemt i innhold som AI-en leser, prøver å lure den til å gjøre noe skadelig. |
| Ukorrelerte kontekstvinduer | Når flere AI-agenter starter med sin egen ferske samtalehistorikk, slik at de ikke deler skjevheter eller antakelser fra en overordnet økt. |
| Beregning ved brukstidspunkt | Å bruke mer datakraft når AI-en lager svaret sitt (ikke under trening), for eksempel ved å kjøre flere agenter parallelt. |
| Agent SDK | Et programmeringsgrensesnitt som lar utviklere bygge automatiserte systemer med Claude som kjerne-AI. Brukes til å drive Claude Codes automatiske kodegjennomgang. |
| The bitter lesson | Et konsept fra maskinlæringsforsker Rich Sutton som hevder at metoder basert på ren datakraft konsekvent slår metoder som prøver å kode inn menneskelig kunnskap. |
Kilder og ressurser
Vil du vite mer? Se hele videoen på YouTube →