Anthropic har släppt Claude Opus 4.7, deras mest avancerade AI-modell hittills. Detta är en stor uppgradering av långsiktigt resonemang, bildbehandling och självständigt genomförande av uppgifter.
Lanseringen den 16 april 2026 stärker Anthropics ställning i den snabba AI-tävlingen för företag. Konkurrenterna utvecklar snabbt funktioner för kodning, analys och multimodala arbetsflöden.
Ett stort steg i kapacitet och kontroll
Claude Opus 4.7 är skapad för att hantera långa och svåra uppgifter med större precision och mindre övervakning. Det är särskilt viktigt för utvecklare och finansiella analytiker hos företag.
Anthropic säger att modellen ”kontrollerar sina egna resultat innan den rapporterar tillbaka”. Detta förbättrar tillförlitligheten för viktiga processer som mjukvaruutveckling och datamodellering.
Uppdateringen ger också en ny nivå för resonemang med ”xhigh”, så utvecklare kan styra balansen mellan svarstid och beräkningsdjup bättre.
En betafunktion, uppgiftsbudgetar, gör det möjligt för företag att styra tokenanvändning under långa AI-projekt.
Starkare bildhantering och multimodal prestanda
En av de största förbättringarna finns i bildförståelse. Opus 4.7 kan hantera bilder med upp till 2 576 pixlar på den längsta sidan (ungefär 3,75 megapixlar). Det är mer än tre gånger högre upplösning än tidigare versioner.
Denna uppgradering öppnar nya användningsområden för:
- Detaljerad analys av dokument och diagram
- Generering av gränssnitt och presentationer
- Utdragning av data från komplexa visuella material
Anthropic säger att modellen ger mer avancerade resultat för presentationer och designuppgifter på professionell nivå, särskilt i affärsmiljöer.
Företagsverktyg och utvecklarintegration
Samtidigt med modellen har Anthropic lanserat flera plattformsuppdateringar. I Claude Code finns ett nytt kommandon ”ultrareview” som automatiskt gör djupgående kodgranskningar, och hittar problem på samma sätt som en erfaren ingenjör.
På molnplattformar som Amazon Bedrock, Google Cloud Vertex AI och Microsoft Foundry finns Opus 4.7 till samma pris som tidigare: 5 USD per en miljon input-token och 25 USD per en miljon output-token.
Företaget lyfter också fram förbättrat beteende när det gäller att följa instruktioner. Nu måste promptar bli mer exakta, eftersom modellen följer instruktioner mer bokstavligt än tidigare versioner.
Fokus på säkerhet, cybersäkerhet och anpassning
Anthropic betonar att Opus 4.7 har liknande säkerhetsnivå som Opus 4.6, men motståndskraften mot prompt-attacker och vilseledande resultat har blivit bättre i interna tester. Men företaget medger blandade resultat kring för detaljerade problematiska svar. Det visar att det fortfarande finns utmaningar med anpassning.
Ett nytt Cyber Verification Program gör det möjligt för säkerhetsproffs att testa modellen i kontrollerade miljöer, till exempel för sårbarhetsanalys och pentester.
Vad väntar härnäst för AI i företag
Opus 4.7 visar en tydlig rörelse mot självständiga AI-system som klarar långa arbetsuppgifter. Målet är att dessa system ska ersätta korta sessioner med mer uthålligt stöd i företagens processer.
Konkurrenter förbättrar också multimodalt resonemang och agentliknande funktioner. Därför väntas nästa tävlingsfas fokusera på tillförlitlighet, kostnadseffektivitet och säker driftsättning i stor skala.
För företag betyder det att AI-system går från assistenter till permanenta operativa agenter. Det förändrar hur avancerade digitala arbetsuppgifter sker inom mjukvara, ekonomi och analys.
Samtidigt rapporterar man att Coinbase vill samarbeta med Anthropic för att förstärka börsens säkerhetslösningar. Coinbase försöker få tillgång till Anthropics begränsade Mythos AI-modell, inspirerat av säkerhetsinitiativet Project Glasswing.
Trots att Anthropic hyllar Opus 4.7 som ett genombrott, påminner lanseringen inte användarna om tidigare störande driftavbrott som nyligen drabbade tusentals användare av Claude.ai. Hypen om skalbarhet är fortfarande före den faktiska driftsäkerheten.
Företagets senaste konflikt med Trumpadministrationen om militär tillgång har också gett Anthropic bilden av att vara både principfast och sårbar. Det skapar frågor om säkerhetsarbetet verkligen hjälper användarna eller mest är PR.





