Claude kan nu hele softwareprojecten in één aanvraag verwerken, zegt Anthropic

Wilt u slimmere inzichten in uw inbox? Meld u aan voor onze wekelijkse nieuwsbrieven en ontvang alleen wat relevant is voor leiders op het gebied van AI, data en beveiliging voor ondernemingen. Abonneer u nu.
Anthropic maakte dinsdag bekend dat zijn Claude Sonnet 4- model voor kunstmatige intelligentie nu tot 1 miljoen contexttokens in één enkele aanvraag kan verwerken. Dit is een vervijfvoudiging, waardoor ontwikkelaars hele softwareprojecten of tientallen onderzoeksartikelen kunnen analyseren zonder ze in kleinere stukken te hoeven opsplitsen.
De uitbreiding, nu beschikbaar als publieke bètaversie via de API van Anthropic en Amazon Bedrock , betekent een aanzienlijke sprong voorwaarts in de manier waarop AI-assistenten complexe, data-intensieve taken kunnen uitvoeren. Met de nieuwe capaciteit kunnen ontwikkelaars codebases laden met meer dan 75.000 regels code, waardoor Claude de volledige projectarchitectuur kan begrijpen en verbeteringen kan voorstellen voor hele systemen in plaats van voor individuele bestanden.
De aankondiging komt op een moment dat Anthropic te maken krijgt met toenemende concurrentie van OpenAI en Google , die beide al vergelijkbare contextvensters bieden. Bronnen binnen het bedrijf benadrukten echter dat de kracht van Claude Sonnet 4 niet alleen in capaciteit ligt, maar ook in nauwkeurigheid. Claude Sonnet 4 behaalt een prestatie van 100% bij interne evaluaties van " speld in een hooiberg " die het vermogen van het model testen om specifieke informatie te vinden die verborgen ligt in enorme hoeveelheden tekst.
De uitgebreide contextfunctionaliteit biedt een oplossing voor een fundamentele beperking die AI-gestuurde softwareontwikkeling belemmerde. Voorheen moesten ontwikkelaars die aan grote projecten werkten hun codebases handmatig opsplitsen in kleinere segmenten, waardoor belangrijke verbindingen tussen verschillende onderdelen van hun systemen vaak verloren gingen.
AI-schaalbaarheid bereikt zijn grenzen
Power caps, stijgende tokenkosten en vertragingen bij inferentie veranderen de AI van bedrijven. Kom naar onze exclusieve salon en ontdek hoe topteams:
- Energie omzetten in een strategisch voordeel
- Het ontwerpen van efficiënte inferentie voor echte doorvoerwinst
- Concurrerende ROI ontsluiten met duurzame AI-systemen
Zorg dat je plek veilig is om voorop te blijven lopen : https://bit.ly/4mwGngO
"Wat ooit onmogelijk was, is nu werkelijkheid", aldus Sean Ward, CEO en medeoprichter van het in Londen gevestigde iGent AI , wiens Maestro-platform gesprekken omzet in uitvoerbare code, in een verklaring. "Claude Sonnet 4 met 1M tokencontext heeft de autonome mogelijkheden van Maestro, onze software engineering agent, enorm verbeterd. Deze sprong voorwaarts ontsluit echte engineering op productieschaal: meerdaagse sessies over echte codebases."
Eric Simons, CEO van Bolt.new , dat Claude integreert in browsergebaseerde ontwikkelplatformen, zei in een verklaring: "Met het 1M-contextvenster kunnen ontwikkelaars nu aan aanzienlijk grotere projecten werken en toch de hoge nauwkeurigheid behouden die we nodig hebben voor real-world codering."
De uitgebreide context maakt drie primaire use cases mogelijk die voorheen moeilijk of onmogelijk waren: uitgebreide codeanalyse van volledige repositories, documentensynthese van honderden bestanden waarbij de relaties tussen de bestanden behouden blijven, en contextbewuste AI-agenten die de samenhang kunnen behouden tussen honderden toolaanroepen en complexe workflows.
Anthropic heeft zijn prijsstructuur aangepast om de toegenomen rekenkracht voor het verwerken van grotere contexten te weerspiegelen. Terwijl prompts van 200.000 tokens of minder hun huidige prijs handhaven op $ 3 per miljoen inputtokens en $ 15 per miljoen outputtokens, kosten grotere prompts respectievelijk $ 6 en $ 22,50.
De prijsstrategie weerspiegelt de bredere dynamiek die de AI-industrie verandert. Recente analyses tonen aan dat Claude Opus 4 voor bepaalde taken ongeveer zeven keer meer kost per miljoen tokens dan de onlangs gelanceerde GPT-5 van OpenAI, waardoor inkoopteams van bedrijven onder druk komen te staan om prestaties en kosten met elkaar in evenwicht te brengen.
Anthropic stelt echter dat de beslissing rekening moet houden met kwaliteit en gebruikspatronen, en niet alleen met de prijs. Bronnen bij het bedrijf merkten op dat snelle caching – waarbij vaak geraadpleegde grote datasets worden opgeslagen – de kosten van lange contexten kan doen concurreren met traditionele Retrieval-Augmented Generation- benaderingen, met name voor bedrijven die herhaaldelijk dezelfde informatie opvragen.
"Dankzij de grote context kan Claude alles zien en selecteren wat relevant is. Dit levert vaak betere antwoorden op dan vooraf gefilterde RAG-resultaten, waarbij je belangrijke verbanden tussen documenten over het hoofd ziet", vertelde een woordvoerder van Anthropic aan VentureBeat.
De mogelijkheid om lange contexten te genereren komt doordat Anthropic 42% van de markt voor AI-codegeneratie in handen heeft, meer dan het dubbele van het aandeel van 21% van OpenAI, volgens een onderzoek van Menlo Ventures onder 150 technische leiders in het bedrijfsleven. Deze dominantie brengt echter risico's met zich mee: brancheanalyses suggereren dat codeerapplicaties Cursor en GitHub Copilot ongeveer $ 1,2 miljard van Anthropics jaarlijkse omzet van $ 5 miljard genereren, wat leidt tot een aanzienlijke klantenconcentratie .
De relatie met GitHub blijkt bijzonder complex gezien de investering van 13 miljard dollar van Microsoft in OpenAI . Hoewel GitHub Copilot momenteel afhankelijk is van Claude voor belangrijke functionaliteit, staat Microsoft onder toenemende druk om zijn eigen OpenAI-partnerschap verder te integreren, waardoor Anthropic mogelijk wordt verdrongen, ondanks de huidige prestatievoordelen van Claude.
De timing van de contextuitbreiding is strategisch. Anthropic heeft deze functionaliteit uitgebracht op Sonnet 4 – dat volgens het bedrijf "de optimale balans tussen intelligentie, kosten en snelheid" biedt – in plaats van op het krachtigste Opus-model . Bronnen binnen het bedrijf gaven aan dat dit de behoeften weerspiegelt van ontwikkelaars die met grootschalige data werken, maar weigerden specifieke tijdlijnen te geven voor het implementeren van lange context in andere Claude-modellen.
Het contextvenster van 1 miljoen tokens vertegenwoordigt een aanzienlijke technische vooruitgang in AI-geheugen en aandachtsmechanismen. Ter vergelijking: het is voldoende om ongeveer 750.000 woorden te verwerken – ongeveer gelijk aan twee volledige romans of uitgebreide sets technische documentatie.
Interne tests van Anthropic lieten een perfecte herinneringsprestatie zien in diverse scenario's, een cruciale eigenschap naarmate contextvensters groter worden. Het bedrijf integreerde specifieke informatie in enorme hoeveelheden tekst en testte Claude's vermogen om die details te vinden en te gebruiken bij het beantwoorden van vragen.
De uitgebreide mogelijkheden brengen echter ook veiligheidsoverwegingen met zich mee. Eerdere versies van Claude Opus 4 vertoonden verontrustend gedrag in fictieve scenario's, waaronder pogingen tot chantage bij een mogelijke uitschakeling. Hoewel Anthropic aanvullende veiligheidsmaatregelen en trainingen heeft geïmplementeerd om deze problemen aan te pakken, benadrukken de incidenten de complexe uitdagingen bij de ontwikkeling van steeds capabelere AI-systemen.
Fortune 500-bedrijven haasten zich om de uitgebreide contextmogelijkheden van Claude te implementerenDe uitrol van de functie is in eerste instantie beperkt tot Anthropic API- klanten met Tier 4 en aangepaste tarieflimieten. De komende weken wordt de functie breder beschikbaar. Amazon Bedrock-gebruikers hebben direct toegang, terwijl de integratie van Vertex AI met Google Cloud nog in behandeling is.
Volgens bronnen binnen het bedrijf waren de eerste reacties van bedrijven enthousiast. De use cases variëren van codeerteams die complete databanken analyseren tot financiële dienstverleners die uitgebreide transactiedatasets verwerken en juridische startups die contractanalyses uitvoeren waarvoor voorheen handmatige documentsegmentatie nodig was.
"Dit is een van de meest gevraagde functies van API-klanten", aldus een woordvoerder van Anthropic. "We zien enthousiasme in verschillende sectoren dat echte agentische mogelijkheden ontsluit. Klanten voeren nu meerdaagse codeersessies uit op echte codebases die voorheen onmogelijk waren met contextbeperkingen."
De ontwikkeling maakt ook geavanceerdere AI-agenten mogelijk die context kunnen behouden in complexe workflows met meerdere stappen. Deze mogelijkheid wordt met name waardevol naarmate bedrijven verder gaan dan eenvoudige AI-chatinterfaces en overstappen op autonome systemen die uitgebreide taken met minimale menselijke tussenkomst kunnen afhandelen.
De aankondiging over de lange context intensiveert de concurrentie tussen toonaangevende AI-leveranciers. Google's oudere Gemini 1.5 Pro- model en OpenAI's oudere GPT-4.1 -model bieden beide een capaciteit van 1 miljoen tokens, maar Anthropic stelt dat Claude's superieure prestaties bij codeer- en redeneertaken een concurrentievoordeel opleveren, zelfs bij hogere prijzen.
De AI-industrie in het algemeen heeft een explosieve groei doorgemaakt in de uitgaven aan model-API's, die volgens Menlo Ventures in slechts zes maanden tijd zijn verdubbeld tot $ 8,4 miljard. Bedrijven geven consequent prioriteit aan prestaties boven prijs en upgraden binnen enkele weken naar nieuwere modellen, ongeacht de kosten. Dit suggereert dat technische mogelijkheden vaak zwaarder wegen dan prijsoverwegingen bij inkoopbeslissingen.
De recente agressieve prijsstrategie van OpenAI met GPT-5 zou deze dynamiek echter kunnen veranderen. Vroege vergelijkingen laten dramatische prijsvoordelen zien die de typische switch-inertie kunnen overwinnen, vooral voor kostenbewuste bedrijven die te maken hebben met budgetdruk naarmate de AI-implementatie toeneemt.
Voor Anthropic blijft het cruciaal om zijn marktleiderschap in de programmeermarkt te behouden en tegelijkertijd zijn inkomstenbronnen te diversifiëren. Het bedrijf heeft het aantal deals met een waarde van acht tot negen cijfers in 2025 verdrievoudigd ten opzichte van heel 2024, wat een weerspiegeling is van de bredere acceptatie door bedrijven, ook buiten zijn sterke posities in de programmeerwereld.
Naarmate AI-systemen steeds grotere hoeveelheden informatie kunnen verwerken en analyseren, veranderen ze fundamenteel de manier waarop ontwikkelaars complexe softwareprojecten benaderen. Het vermogen om context te behouden over volledige codebases heen, betekent een verschuiving van AI als programmeerassistent naar AI als allesomvattende ontwikkelpartner die de volledige omvang en onderlinge verbanden van grootschalige projecten begrijpt.
De implicaties reiken veel verder dan softwareontwikkeling. Sectoren van juridische dienstverlening tot financiële analyse beginnen te beseffen dat AI-systemen die context kunnen behouden in honderden documenten, de manier waarop organisaties complexe informatierelaties verwerken en begrijpen, kunnen transformeren.
Maar met grote mogelijkheden komt ook grote verantwoordelijkheid – en risico – gepaard. Naarmate deze systemen krachtiger worden, herinneren de incidenten met zorgwekkend AI-gedrag tijdens de tests van Anthropic ons eraan dat de race om AI-mogelijkheden uit te breiden gepaard moet gaan met zorgvuldige aandacht voor veiligheid en controle.
Terwijl Claude leert om met een miljoen stukjes informatie tegelijkertijd te jongleren, kampt Anthropic met een eigen contextvensterprobleem: het zit klem tussen de prijsdruk van OpenAI en de conflicterende loyaliteiten van Microsoft.
Wil je indruk maken op je baas? VB Daily is de aangewezen plek. We geven je insiderinformatie over wat bedrijven doen met generatieve AI, van wetswijzigingen tot praktische implementaties, zodat je inzichten kunt delen voor een maximale ROI.
Lees ons privacybeleid
Bedankt voor uw aanmelding. Bekijk hier meer VB-nieuwsbrieven .
Er is een fout opgetreden.

venturebeat