Anthropic hat Claude Mythos gebaut — das leistungsfähigste KI-Modell, das je entwickelt wurde — und es dann weggeschlossen. Nicht wegen eines technischen Fehlers, sondern weil es zu gut ist.
Ein Leak, eine Entscheidung und ein Präzedenzfall
Am 26. März 2026 fanden zwei Sicherheitsforscher — Roy Paz von LayerX Security und Alexandre Pauwels von der Universität Cambridge — rund 3.000 unveröffentlichte Assets in einer ungesicherten, öffentlich durchsuchbaren Datenbank auf Anthropics Servern. Darunter: ein Entwurf eines Blogposts, der ein neues Modell beschrieb, intern als "Capybara" codiert, in einer anderen Version als Claude Mythos. Die eigene Beschreibung des Unternehmens ließ nichts an Deutlichkeit missen: "by far the most powerful AI model we've ever developed" und "a step change in capabilities."
Anthropic schloss das Leck noch am selben Abend, nachdem Fortune nachgefragt hatte. Aber die Katze war aus dem Sack.
Am 7. April 2026 folgte dann das Ungewöhnlichste: Anthropic bestätigte Mythos offiziell — und erklärte gleichzeitig, dass es nicht öffentlich verfügbar sein wird. Kein öffentliches API. Kein allgemeines Release-Datum. Stattdessen: ein kontrolliertes Frühzugangs-Programm namens Project Glasswing, beschränkt auf rund 50 Partnerorganisationen. Die Liste liest sich wie ein Querschnitt kritischer Infrastruktur: AWS, Apple, Microsoft, Google, NVIDIA, Cisco, CrowdStrike, JPMorgan, Broadcom, Palo Alto Networks, Linux Foundation.
Klingt interessant?
Ihre Aufgabe: Mythos defensiv einsetzen — die eigene Infrastruktur und Open-Source-Codebasen auf ausnutzbare Schwachstellen scannen, bevor jemand anderes das Modell gegen sie verwenden könnte.
Warum Anthropic die eigene Sicherheitsstufe ausgelöst hat
Anthropic verfolgt seit 2023 ein internes Framework namens Responsible Scaling Policy (RSP) — ein abgestuftes System von AI Safety Levels (ASL), grob modelliert nach den Biosafety-Standards der US-Regierung.
- ASL-2: Modelle mit frühen Anzeichen gefährlicher Fähigkeiten, aber noch ohne praktischen Missbrauchsnutzen — die aktuelle Claude-Generation fiel hier.
- ASL-3: Modelle, die das Risiko katastrophalen Missbrauchs gegenüber Nicht-KI-Alternativen erheblich erhöhen, oder erste autonome Fähigkeiten zeigen. Strenge Sicherheits- und Deploymentauflagen.
- ASL-4: Der nächste Schwellenwert — für Modelle, deren Fähigkeiten so weit gehen, dass sie autonom schwerwiegende Angriffe durchführen oder wesentlich zur Entwicklung von Massenvernichtungswaffen beitragen können.
Claude Mythos hat intern die ASL-4-Schwelle ausgelöst. Das ist das erste Mal, dass ein führendes KI-Labor ein fertiggestelltes Modell öffentlich zurückgehalten hat — nicht wegen technischer Mängel, sondern weil die Fähigkeiten als zu gefährlich für eine breite Veröffentlichung eingestuft wurden.
Was hat Mythos konkret getriggert? Cybersecurity. Das Modell kann vollständige Angriffsketten konstruieren: Gegeben eine Netzwerktopologie und bekannte Schwachstellen, kann Mythos mehrstufige Angriffswege modellieren, inklusive lateraler Bewegungen, Privilege-Escalation-Sequenzen und Datenexfiltrationspfaden. Es kann ganze Betriebssystem-Kernel und umfangreiche Codebasen auf Sicherheitslücken scannen — darunter Bugs, die jahrzehntelang unentdeckt geblieben sind. Interne Dokumente warnen, es "presages an upcoming wave of models that can exploit vulnerabilities in ways that far outpace the efforts of defenders."
Die Benchmarks, die Anthropic veröffentlicht hat, sind entsprechend: 93,9 % auf SWE-bench Verified, 77,8 % auf SWE-bench Pro, 94,5 % auf GPQA Diamond (Expertenwissen auf Doktoratsniveau), 64,7 % auf Humanity's Last Exam mit Werkzeugen. Jeder dieser Werte ist ein neuer Rekord.
Zum Vergleich: Claude Opus 4.6 erreichte 59,6 % auf GDPval. Mythos wurde gar nicht erst eingereicht — Anthropic hat es aus dem öffentlichen Benchmark-Vergleich herausgehalten.
Der Preis spiegelt die Positionierung: rund 25 Dollar pro Million Input-Token, 125 Dollar pro Million Output-Token. Zum Vergleich: GPT-5.4 kostet 2,50/15 Dollar. Mythos ist fünfmal teurer als das aktuell stärkste öffentliche Modell — und trotzdem nicht öffentlich.
Was das für CTOs und Tech Leads bedeutet
Drei Konsequenzen, die ich für relevant halte:
Erstens: Cybersecurity-Parität ist temporär. Wenn ein Modell wie Mythos existiert und Anthropic selbst sagt, die offensiven Fähigkeiten übersteigen die Verteidigungsfähigkeiten, dann hat die Branche ein strukturelles Problem. Mythos ist heute in der Hand von ~50 Unternehmen. In 18 Monaten ist das, was Mythos heute kann, das Niveau eines frei verfügbaren Open-Source-Modells. Das ist keine Spekulation — das ist die historische Kurve der letzten drei Jahre. Wer jetzt nicht anfängt, Code-Auditing mit KI-Unterstützung zu industrialisieren, baut auf Sand.
Zweitens: Vendor-Konzentration wird riskanter. Project Glasswing zeigt, wie schnell ein Modell aus dem Portfolio herausfallen kann — nicht durch Konkurrenz, sondern durch interne Sicherheitsentscheidungen. Wer seinen Dev-Stack auf ein einzelnes Frontier-Modell optimiert, ist exponiert, wenn dieses Modell plötzlich in die nächste Sicherheitsstufe wechselt oder der Zugang sich ändert. Das gilt für Claude, GPT und Gemini gleichermassen.
Drittens: Die Governance-Lücke ist jetzt sichtbar. Anthropic hat eine eigene Entscheidung getroffen, bevor irgendeine Regulierungsbehörde das verlangt hätte. Das ist bemerkenswert — und wirft die Frage auf, was passiert, wenn das nächste Labor weniger Skrupel hat. ASL-4 als Schwelle ist Anthropics Definition. Es gibt keine internationale Instanz, die das verifiziert oder durchsetzt. Das ist kein Angriff auf Anthropic — es ist eine Bestandsaufnahme des Zustands der Branche.
Ein weiterer Kontext: Anthropic befand sich noch im März 2026 im juristischen Konflikt mit dem Pentagon, nachdem das Unternehmen sich geweigert hatte, Claude für autonome Waffensysteme und massenhafte Inlandsüberwachung freizugeben. Die Entscheidung, Mythos zurückzuhalten, kommt nicht aus dem Nichts — sie ist Teil eines konsistenten Musters eines Unternehmens, das offenbar tatsächlich glaubt, was es über KI-Risiken schreibt.
Und genau hier kommt nopex ins Spiel
Was die Mythos-Situation zeigt: Die Fähigkeitskurve läuft schneller als jede Governance-Struktur, und die Entscheidungen über Zugang, Preise und Sicherheitsstufen werden in San Francisco getroffen — nicht in Berlin, Wien oder Zürich.
Für Unternehmen, die KI in ihrer Softwareentwicklung einsetzen, bedeutet das: Wer heute ausschliesslich auf proprietäre US-Frontier-Modelle setzt, baut eine Abhängigkeit auf, deren Konditionen er nicht kontrolliert. Modellzugang kann über Nacht teurer werden, eingeschränkt oder vollständig entzogen werden.
nopex löst genau dieses Problem. Wir kombinieren agentenbasierte Softwareentwicklung mit einer Infrastruktur, die keine Single-Vendor-Abhängigkeit schafft: Europäische Rechenzentren, offene Modelle wo möglich, proprietäre Frontier-Modelle wo sinnvoll — aber immer mit der Möglichkeit zu wechseln. Kein Modell, das von einer Compliance-Entscheidung in Palo Alto über Nacht aus eurem Stack verschwindet.
Was Anthropic mit Mythos und Project Glasswing demonstriert, ist im Kern positiv: Ein Labor, das eigene Fähigkeiten ernst nimmt. Was es als Nebeneffekt demonstriert: Wie fragil Modellzugang als Infrastruktur ist, wenn ihr ihn nicht selbst kontrolliert.


