In deze aflevering:
• OpenAI lanceert GPT-5.4: het eerste model met native computer use
• Pentagon bestempelt Anthropic officieel als supply chain risico
• Anthropic ziet explosieve consumentengroei
• Claude vindt tweeëntwintig kwetsbaarheden in Firefox
• NRC: De markt voor leeftijdsverificatie groeit snel
• TerraPower krijgt goedkeuring voor nieuwe kernreactor
• Spyglass: de militaire dimensie van AI
Transcript
Je luistert naar de dagelijkse tech podcast van zaterdag 7 maart 2026. Het is een drukke week geweest in de wereld van AI en technologie, met een van de grootste modelonthullingen van het jaar, een escalerend conflict tussen het Pentagon en een van de belangrijkste AI-bedrijven, en verrassende doorbraken in AI-beveiliging. Laten we er meteen induiken.
OpenAI lanceert GPT-5.4: het eerste model met native computer use
OpenAI heeft afgelopen woensdag GPT-5.4 gelanceerd, en dit is niet zomaar een update. Het is hun meest capabele en efficiënte frontier model tot nu toe, speciaal ontworpen voor professioneel werk. De grote doorbraak: GPT-5.4 is het eerste algemene model met native computer use-mogelijkheden. Het model kan computers bedienen, door websites navigeren en complexe workflows uitvoeren over meerdere applicaties heen.
De cijfers zijn indrukwekkend. Op OSWorld, een benchmark die meet hoe goed AI-modellen een desktop kunnen bedienen, scoort GPT-5.4 vijfenzeventig procent. Dat is beter dan menselijke prestaties, die op ruim tweeënzeventig procent liggen. Het model ondersteunt tot een miljoen tokens aan context, wat betekent dat agents complexe taken kunnen plannen en uitvoeren over langere periodes.
Maar er is meer. Op GDPval, een benchmark die professioneel werk test over vierenveertig beroepen, matcht of overtreft GPT-5.4 professionals in drieëntachtig procent van de vergelijkingen. Het model is ook drieëndertig procent minder geneigd tot feitelijke fouten dan zijn voorganger GPT-5.2. Voor ontwikkelaars is de nieuwe tool search-functie belangrijk: modellen hoeven niet meer alle tools in de prompt te laden, maar kunnen ze opzoeken wanneer nodig, wat het tokenverbruik met bijna de helft vermindert. GPT-5.4 is beschikbaar voor ChatGPT Plus, Team en Pro gebruikers, en in de API voor twee dollar vijftig per miljoen input tokens.
Pentagon bestempelt Anthropic officieel als supply chain risico
Het conflict tussen het Pentagon en Anthropic is deze week geëscaleerd tot een formele designatie. Het ministerie van Defensie heeft Anthropic officieel aangemerkt als een supply chain risico voor de nationale veiligheid, een aanduiding die normaal gesproken is gereserveerd voor buitenlandse bedrijven met banden met tegenstanders als China of Rusland.
De aanleiding: Anthropic-CEO Dario Amodei weigerde om de AI-veiligheidsmaatregelen van Claude te verwijderen. Specifiek wil Anthropic twee uitzonderingen behouden: geen inzet voor volledig autonome wapens en geen massasurveillance van Amerikaanse burgers. President Trump en minister van Defensie Pete Hegseth kondigden de strafmaatregelen vorige week vrijdag aan, aan de vooravond van de oorlog met Iran.
Amodei heeft aangekondigd de designatie juridisch aan te vechten. In een verklaring zei hij dat de actie juridisch niet houdbaar is. Opvallend: de scope is relatief beperkt. Het geldt alleen voor het gebruik van Claude als direct onderdeel van contracten met het ministerie van Defensie, niet voor alle klanten die toevallig ook defensiecontracten hebben.
Microsoft heeft al laten weten dat het kan blijven samenwerken met Anthropic voor niet-defensie gerelateerde projecten. Lockheed Martin daarentegen kiest de kant van het Pentagon en zoekt alternatieve AI-leveranciers. Voormalige defensie- en veiligheidsfunctionarissen, waaronder ex-CIA-directeur Michael Hayden, noemen de beslissing een gevaarlijk precedent.
Anthropic ziet explosieve consumentengroei
Een verrassend neveneffect van het Pentagon-conflict: Anthropic ervaart een ongekende groei in consumentendownloads. Meer dan een miljoen mensen meldden zich deze week dagelijks aan voor Claude. De app is inmiddels voorbij ChatGPT en Google Gemini gestegen als meest gedownloade AI-app in meer dan twintig landen in de Apple App Store.
Het publiek kiest duidelijk de kant van Anthropic in dit dispuut. Terwijl het bedrijf lucratieve defensiecontracten verliest, wint het een veel groter consumentenpubliek dat de ethische koers van het bedrijf waardeert. Het is een fascinerende dynamiek: moreel leiderschap als groeistrategie.
Claude vindt tweeëntwintig kwetsbaarheden in Firefox
In een samenwerking tussen Anthropic en Mozilla heeft Claude Opus 4.6 in slechts twee weken tweeëntwintig beveiligingskwetsbaarheden gevonden in de Firefox-browser. Veertien daarvan werden geclassificeerd als high-severity. De meeste bugs zijn al verholpen in Firefox 148, dat afgelopen februari is uitgebracht.
Het interessante detail: het team startte bij de JavaScript-engine en breidde vervolgens uit naar andere delen van de codebase. Firefox werd gekozen omdat het zowel een complexe codebase is als een van de belangrijkste open source-projecten ter wereld.
Opvallend was dat Claude Opus veel beter was in het vinden van kwetsbaarheden dan in het schrijven van exploits. Het team besteedde vierduizend dollar aan API-credits voor proof-of-concept exploits, maar slaagde slechts in twee gevallen. Dit laat zien dat AI een krachtig hulpmiddel kan zijn voor open source-beveiliging, zonder direct een risico te vormen als aanvalswapen.
NRC: De markt voor leeftijdsverificatie groeit snel
In het NRC lezen we vandaag over de snelgroeiende markt voor leeftijdsverificatie. Nu Europa en Nederland steeds strengere eisen stellen aan het beschermen van minderjarigen online, ontstaat er een hele industrie rondom het verifiëren van leeftijd op digitale platforms.
Het stuk beschrijft hoe Meta onder druk staat vanwege de data die het verzamelt van jonge gebruikers. De Europese Digital Services Act en nationale wetgeving dwingen platforms om daadwerkelijk te controleren of gebruikers oud genoeg zijn. Dit creëert kansen voor techbedrijven die privacyvriendelijke oplossingen ontwikkelen voor leeftijdscontrole, van gezichtsherkenning tot digitale identiteitssystemen. Het is een markt die naar verwachting miljarden waard wordt in de komende jaren.
TerraPower krijgt goedkeuring voor nieuwe kernreactor
Bill Gates' nucleaire energiebedrijf TerraPower heeft goedkeuring gekregen om een geheel nieuw type kernreactor te bouwen. Dit is relevant voor de techindustrie omdat de explosieve groei van AI-datacenters een enorme vraag naar energie creëert.
De grote techbedrijven, van Microsoft tot Google en Amazon, investeren stevig in nucleaire energie als betrouwbare en CO2-vrije stroombron voor hun datacenters. TerraPower's goedkeuring is een concrete stap richting een toekomst waarin AI-infrastructuur draait op kernenergie. Het bedrijf gebruikt een natriumgekoeld reactorontwerp dat veiliger en efficiënter zou zijn dan traditionele kernreactoren.
Spyglass: de militaire dimensie van AI
Tech-analist M.G. Siegler schrijft deze week op Spyglass over de militaire context waarin de AI-industrie zich bevindt. Terwijl de strijd tussen Anthropic en het Pentagon de krantenkoppen domineert, gebruikt het Amerikaanse leger AI al actief in de operaties in het Midden-Oosten.
Siegler benadrukt dat dit geen hypothetisch scenario meer is. AI wordt ingezet voor inlichtingenanalyse, operationele planning en cyberoperaties. De vraag is niet meer óf AI militair wordt ingezet, maar onder welke voorwaarden. De positie van Anthropic, dat wel wil samenwerken maar grenzen stelt aan autonome wapens en surveillance, vertegenwoordigt een cruciaal debat over de toekomst van AI in oorlogsvoering.
Samenvatting
Het was een week van grote tegenstellingen. OpenAI verlegde de grenzen van wat AI-modellen kunnen met GPT-5.4, terwijl Anthropic te maken kreeg met ongekende politieke druk maar juist daardoor enorme consumentengroei zag. De Firefox-kwetsbaarheden laten zien dat AI ook defensief kan worden ingezet, en de goedkeuring van TerraPower's reactor onderstreept hoe de energievraag van AI concrete gevolgen heeft.
Dat was het voor vandaag. Fijn weekend en tot maandag!
