is techredacteur van de Volkskrant, gespecialiseerd in de impact van kunstmatige intelligentie op de maatschappij.
Nog niet eens zo heel lang geleden gaven we graag de computer de schuld. Of ‘het systeem’. Dat is aan het schuiven. Wat is gênanter? Zeggen dat je zelf een stomme fout maakte of toegeven dat je blind hebt vertrouwd op je chatbot, met als gevolg – ik noem maar een dwarsstraat – een verzonnen citaat.
Anthropic (maker van Claude) weet daar alles van. Het succesvolle AI-bedrijf gaat er prat op dat het een groot deel van zijn code laat schrijven door zijn eigen AI-code-gereedschap Claude Code.
‘Ik durf gerust te stellen dat het grootste deel van de code door het systeem wordt geschreven’, zei Anthropics medeoprichter Jack Clark onlangs nog in de podcast van Ezra Klein. ‘Sommige van onze systemen, zoals Claude Code, zijn bijna volledig door Claude geschreven.’
Voorloper bij Anthropic is Claude Code-eindbaas Boris Cherny, die eind vorig jaar verklapte dat 100 procent van zijn codebijdragen aan de software van Claude Code is geschreven door Claude Code zelf. Prima pitch natuurlijk: topprogrammeur erkent zijn meerdere in een AI-programmeur – AI begint zichzelf te verbeteren. Geen wonder dat Claude Code mateloos populair is en veel geld in het laatje brengt.
Die opmerking kwam deze week als een boemerang terug. Aanleiding was een uitermate pijnlijk incident bij Anthropic: het bedrijf publiceerde per ongeluk de broncode van Claude Code. Iedereen (ook de concurrentie) kreeg op die manier een inkijkje in een van Anthropics waardevolste producten.
Verwijzend naar Cherny’s eerdere bericht merkte iemand op X vervolgens cynisch op: ‘O, dus daarom is de broncode van Claude Code uitgelekt. Nu snap ik het helemaal.’ Zijn subtekst: Claude Code schrijft brakke code en dus ging het mis.
Maar, haastte Cherny zich te zeggen: Claude Code treft geen enkele blaam. Het was volgens de Anthropic-baas compleet een menselijke fout. De verdedigingslinie doet denken aan die van Tesla na een dodelijk ongeval in 2018. De Tesla 3 raakte met hoge snelheid van de weg en botste tegen een boom. Het lag niet aan zijn Autopilot-technologie, benadrukte Tesla in de rechtszaal; het was een menselijke fout.
Laten we in het geval van Anthropic ervan uitgaan dat Cherny niet liegt en dat inderdaad iemand niet goed heeft opgelet. Ook dan is er reden voor grote zorg. Het lek is het tweede grote incident binnen een week: een week eerder publiceerde Anthropic details over een nog te lanceren nieuw model. En ook dat was niet de bedoeling.
Zou het kunnen dat al die prachtige tools van Anthropic in zo’n hoog tempo code en dus ook nieuwe producten uitspuwen dat de menselijke medewerkers het gewoonweg niet meer kunnen bijbenen?
‘Anthropic heeft zijn publieke imago opgebouwd rond het succesvolle idee dat het hét zorgvuldige AI-bedrijf is’, noteerde techpublicatie Techcrunch vilein. Dit imago heeft hoe dan ook een flinke deuk opgelopen.
Geselecteerd door de redactie
Source: Volkskrant