Ist das neue Modell von Anthropic zu gefährlich?

MMaximilian Schwarzmüller
Computing/SoftwareBusiness NewsInternet Technology

Transcript

00:00:00Als Softwareentwickler und ich denke allgemein als Mensch, aber besonders als Softwareentwickler,
00:00:06führt momentan kein Weg an Anthropic vorbei. Ob man will oder nicht. Und ich glaube nicht, dass man
00:00:12versuchen sollte, es zu ignorieren, denn es ist relevant. Relevant für unsere Zukunft als Entwickler.
00:00:20In dieser Folge werde ich nicht über den Claude-Code-Leak von letzter Woche sprechen. Ich werde nicht über
00:00:28ihre verschärften Bedingungen bezüglich der Nutzung ihrer Abonnements sprechen, Claude Max und so weiter,
00:00:36und wie sie gegen die unbefugte Nutzung dieser Abos vorgehen. Das tun sie im Moment,
00:00:43da ihre Abo-Angebote, genau wie die von OpenAI, natürlich stark subventioniert sind,
00:00:50und sie kein Geld verdienen können, wenn jeder sein Abonnement maximal ausreizt. Also ja, sie
00:00:56schränken die Nutzung ihrer Abos wirklich ein, beziehungsweise versuchen sie auf Menschen zu begrenzen,
00:01:04direkt auf ihrer Website, in Claude Code oder der Desktop-App. Aber das ist hier nicht der Fokus,
00:01:11und ich werde mich nicht einmal auf ihr beeindruckendes Umsatzwachstum konzentrieren, das jedoch
00:01:19eine kurze Erwähnung wert ist, da Anthropic einen jährlich wiederkehrenden Umsatz von 30 Milliarden Dollar
00:01:27erreicht hat. Das ist an sich schon beeindruckend, aber besonders im Vergleich zu den 9 Milliarden Ende 2025.
00:01:35Sie haben ihren jährlich wiederkehrenden Umsatz also innerhalb weniger Monate mehr als verdreifacht.
00:01:41Das ist wirklich beeindruckend. Und wenn Sie natürlich lernen wollen, wie man Claude Code effizient nutzt
00:01:47und das Beste daraus herausholt: Ich habe einen Kurs dazu, der auch sehr beliebt ist, was mich natürlich
00:01:53freut. Den Link finden Sie unten, falls Sie beitreten und den effizienten Umgang mit Claude Code lernen wollen.
00:01:59Aber wie gesagt, das ist nicht einmal das Hauptthema hier. Stattdessen möchte ich über
00:02:05Project Glasswing und ihr neues Modell Mythos sprechen, das sie noch nicht für die Öffentlichkeit
00:02:14freigegeben haben – und sie haben auch erklärt, warum. Ich denke, das ist wichtig zu verstehen,
00:02:20und es ist auch wichtig, hinter die Kulissen zu schauen, hinter ihre Beweggründe und was die Auswirkungen
00:02:27dieses neuen Modells und seiner Fähigkeiten für uns Entwickler sind. Was ist also Project Glasswing?
00:02:33Worum geht es bei ihrem neuen Modell? Unten finden Sie natürlich auch einen Link zu diesem Artikel.
00:02:39Dies ist ein Artikel auf der offiziellen Anthropic-Seite, in dem sie Project Glasswing ankündigen.
00:02:44Wenn ich ein Stück nach unten scrolle, sehen wir hier bereits einige Benchmark-Statistiken,
00:02:52die zeigen, dass dieses neue Modell, die Mythos-Vorschauversion – der Modellname ist Mythos –
00:02:59viel besser abschneidet als Opus 4.6. Und je nachdem, welchen Benchmark man genau betrachtet,
00:03:07gibt es einen ziemlich großen Unterschied zwischen Opus 4.6 und diesem neuen Modell. Nun ist das
00:03:15an sich noch nicht super beeindruckend. Wann immer ein neues Modell angekündigt wird, egal von welcher Firma,
00:03:21schneidet es viel besser oder zumindest ein kleines bisschen besser ab als die Konkurrenzmodelle,
00:03:26sonst würde es nicht veröffentlicht. Und natürlich gibt es Wege, einige dieser Benchmarks zu manipulieren,
00:03:31daher interessieren mich diese Zahlen normalerweise nicht allzu sehr. Das wäre bei diesem Modell hier
00:03:39nicht anders, aber es gibt interessante Fakten über das neue Mythos-Modell. Nämlich die Tatsache,
00:03:46dass Anthropic sich entschieden hat, es nicht öffentlich freizugeben, weil es laut ihrer Aussage zu gut darin ist,
00:03:56Schwachstellen in Betriebssystemen, anderer Software, Browsern – eigentlich in Software allgemein – zu finden.
00:04:05In diesem und in einem separaten Artikel, der ebenfalls unten verlinkt ist, teilen sie Details mit.
00:04:11Besonders dieser separate Artikel ist extrem lang und liefert konkrete Beispiele für Schwachstellen
00:04:19und potenzielle Exploits, die dieses neue Modell gefunden hat. Zum Beispiel beginnen sie im Artikel
00:04:28mit einem sehr ernsten Exploit und einer Schwachstelle, die in OpenBSD gefunden wurde. OpenBSD ist ein
00:04:38Betriebssystem, das zum Beispiel auf bestimmter Netzwerksoftware beliebt ist, und Mythos, ihr neues Modell,
00:04:45das in einer agentenbasierten Umgebung wie Claude Code lief, konnte eine Schwachstelle finden und ausnutzen.
00:04:53Der interessante Teil: Sie hing mit einem Integer-Überlauf und unerwartetem Speicherzugriff zusammen,
00:05:02der in der Lage war, Maschinen mit OpenBSD auf reproduzierbare Weise zum Absturz zu bringen.
00:05:12Dies könnte natürlich für sehr schädliche Denial-of-Service-Angriffe genutzt werden, indem immer wieder
00:05:20spezifische Pakete und Anfragen an solche Maschinen gesendet werden, um sie und potenziell
00:05:27ganze Unternehmensnetzwerke lahmzulegen. Und diese Schwachstelle wurde in einem Durchlauf entdeckt,
00:05:34der weniger als fünfzig Dollar kostete, obwohl der gesamte Satz an Durchläufen knapp unter zwanzigtausend Dollar
00:05:43kostete. Und da man natürlich nicht im Voraus weiß, welcher Durchlauf eine Schwachstelle finden wird,
00:05:48ist es diese Gesamtzahl, die zählt. Dennoch ist es leicht vorstellbar, dass ein Modell, das in der Lage ist,
00:05:57solche kritischen Schwachstellen zu vergleichsweise geringen Kosten zu finden – je nachdem, wer man ist –
00:06:04wenn man zum Beispiel ein Staat oder ein ernsthafter böswilliger Akteur ist, dann ist das nicht viel Geld.
00:06:13Das ist natürlich ein Problem, denn man kann sich leicht vorstellen, dass, wenn ein solches Modell
00:06:22von einer Organisation entwickelt würde, die sich weniger um Sicherheit schert oder die vielleicht
00:06:31keine Konsequenzen beim Missbrauch solcher Schwachstellen zu befürchten hat, dies ein Problem sein könnte.
00:06:42Es scheint, als würden wir mit diesen KI-Modellen in ein neues Zeitalter eintreten, in dem nichts mehr sicher ist
00:06:56und es einfacher denn je ist, KI-Agenten massenhaft einzusetzen, um Software zu scannen und
00:07:05Schwachstellen zu finden und potenziell auszunutzen. Als einzelner Mensch kann man da unmöglich mithalten.
00:07:13Ich meine, der Exploit, der hier gefunden wurde, existierte, glaube ich, schon seit 27 Jahren oder so.
00:07:19Das zeigt, dass kein Mensch in der Lage war, diesen Fehler in so einem langen Zeitraum zu finden,
00:07:29einschließlich böswilliger Akteure, die natürlich auch ein Interesse daran gehabt hätten, dieses System anzugreifen.
00:07:35Dies ist nur einer, vielleicht der prominenteste Fund, den dieses neue Modell gemacht hat.
00:07:41Sie listen noch viel mehr Fehler und Exploits auf, die das Modell gefunden hat und teils auch ausnutzen konnte.
00:07:49Sie haben auch andere Geschichten auf X geteilt, zum Beispiel wie das Modell in der Lage war,
00:07:57aus einer Sandbox auszubrechen – oder der KI-Agent, der das Modell ausführte, konnte aus der
00:08:04Sandbox entkommen, in der er lief. Und das bringt uns zurück zu Project Glasswing, einer Initiative,
00:08:11die Anthropic zusammen mit anderen großen Unternehmen wie AWS, Apple, Microsoft, der Linux Foundation
00:08:21und anderen ins Leben gerufen hat, um dieses Modell zu nutzen, um ihre Software quasi zu flicken,
00:08:30bevor es öffentlich freigegeben wird und bevor die Öffentlichkeit dieses Modell in die Hände bekommt.
00:08:38Das ist das Narrativ des Artikels, das ist die Erklärung von Anthropic, und ich habe hier gemischte Gefühle.
00:08:48Einerseits habe ich keinen triftigen Grund zu glauben, dass das nicht wahr ist. Sicherlich hätte Anthropic
00:08:56Gründe, das Modell nicht zu veröffentlichen, die über das Genannte hinausgehen. Zum Beispiel habe ich gelesen,
00:09:04dass dieses Modell etwa 10 Billionen Parameter hat, was viel größer ist als alle Frontier-Modelle,
00:09:11die wir bisher öffentlich nutzen konnten. Das Training soll rund 10 Milliarden Dollar gekostet haben.
00:09:20Die Token-Kosten dieses Modells liegen laut meinen Informationen voraussichtlich in diesem Bereich,
00:09:3025 bis 125 Dollar für Input- und Output-Token. Und das wären natürlich auch Gründe,
00:09:39das Modell nicht zu veröffentlichen, weil sie es nicht in ihre Claude-Abos aufnehmen können – es ist zu teuer.
00:09:46Sie müssten den Abopreis vermutlich auf ein Niveau anheben, das nicht viele Leute bereit wären zu zahlen,
00:09:52und daher gäbe es keinen wirklichen Weg, es der Öffentlichkeit zugänglich zu machen, zumindest als Teil von Claude.
00:09:59Natürlich könnten sie es immer noch über ihre API auf einer Pay-per-Use-Basis anbieten.
00:10:05Wenn es teuer ist – wen kümmert's, solange es Firmen oder Leute gibt, die bereit sind, das zu zahlen.
00:10:12Und genau an dem Punkt kommen die Cybersicherheitsbedenken ins Spiel, denn das alles ist sehr wahrscheinlich
00:10:18nicht erfunden. Ich meine, es ist definitiv nicht erfunden: Das FFmpeg-Team zum Beispiel, das hier
00:10:26ebenfalls aufgeführt ist, da eine Schwachstelle in FFmpeg gefunden wurde, bestätigte auf X,
00:10:36dass Anthropic ihnen einen Patch für eine Schwachstelle im FFmpeg-Programm geschickt hat.
00:10:44Also ja, das ist eindeutig nicht aus der Luft gegriffen. Diese Bedenken sind valide,
00:10:55Cybersicherheitsbedenken sind valide, besonders da man, wenn Geld keine Rolle spielt, Tausende von Agenten
00:11:03gleichzeitig einsetzen könnte, die dieses oder ähnliche Modelle nutzen, die wir in Zukunft haben könnten,
00:11:11um alle Arten von Software zu scannen und auszunutzen. Und natürlich ist das große Problem,
00:11:19dass die Nutzung dieses Modells zum Finden und Flicken von Schwachstellen zwar möglich ist, aber nur dann,
00:11:30wenn der Besitzer oder Betreuer einer Software sich das Modell leisten kann oder kostenlosen Zugang erhält.
00:11:37Selbst wenn eine Schwachstelle behoben wird, wissen wir alle, dass nicht alle Computer da draußen,
00:11:46nicht alle Maschinen und Benutzer, die aktuellste Software installiert haben. Wenn man sich die verschiedenen
00:11:55Server ansieht, die da draußen im World Wide Web laufen, würde ich schätzen,
00:12:04dass die überwiegende Mehrheit veraltete Software nutzt. Selbst auf unseren Handys oder Laptops
00:12:12verwenden wir oft nicht die neueste Software, die aktuellste Version unseres Betriebssystems,
00:12:20der neueste Sicherheitspatch ist vielleicht nicht installiert. Das gilt für alle Softwareebenen,
00:12:28und in einer Welt, in der es einfacher denn je ist, Sicherheitslücken zu finden, wird das zu einem
00:12:34noch größeren Problem. Das Gute an diesem KI-Modell ist natürlich, dass es auch dazu verwendet werden kann,
00:12:43proaktiv nach Sicherheitslücken zu suchen und diese zu schließen. Es ist also nicht nur ein Werkzeug
00:12:48für Angreifer, es kann auch die Verteidigung erleichtern, da man nun ein Werkzeug hat, das parallel
00:12:56auf Tausenden von Agenten laufen kann, um Software theoretisch sicher zu machen. Das kann ein sehr nützliches
00:13:01Verteidigungswerkzeug sein. Aber natürlich kann sich das wieder nicht jedes Unternehmen oder jede Person,
00:13:09die wichtige Software entwickelt, leisten oder hat Interesse daran. Und selbst wenn es genutzt wird,
00:13:16um Patches zu finden, werden diese neuesten Versionen trotzdem nicht überall installiert sein.
00:13:23Das gibt Angreifern ein günstiges Zeitfenster, in dem sie über viel mehr Schwachstellen Bescheid wissen
00:13:31als zuvor, weil viel mehr Schwachstellen entdeckt werden, aber nicht jede Maschine und jeder Benutzer
00:13:39dagegen geschützt ist. Und das ist eine echte Sorge, die ich bei dieser Entwicklung habe.
00:13:46Das ist das größere Bild, das alle betrifft, alle Firmen und letztlich alle Menschen.
00:13:52Eine andere Frage ist natürlich: Was bedeutet ein solches Modell für uns Entwickler?
00:13:59Offensichtlich scheint dies ein extrem leistungsfähiges Modell zu sein, das in der Lage war,
00:14:08eigenständig nach Schwachstellen zu suchen und diese auszunutzen. Also, was sind die Auswirkungen
00:14:16für Entwickler? Ich denke, in dieser Hinsicht ändert sich vorerst gar nicht so viel.
00:14:28Wir leben bereits in einer Welt, in der KI-Agenten wie Claude Code und die zugrunde liegenden Modelle –
00:14:34dasselbe gilt natürlich für Cursor und so weiter, was auch immer Ihr bevorzugter Agent oder Modell ist –
00:14:39in der Lage sind, den Großteil unseres Codes zu generieren. Vielleicht nutzen Sie sie nicht, vielleicht
00:14:46mögen Sie sie nicht. Ich habe ein separates Video erstellt, in dem ich meine Gefühle dazu teile,
00:14:52dass das den Spaß am Programmieren für mich etwas raubt. Aber es ist dennoch die Realität, ob man es mag
00:14:57oder nicht – und glauben Sie mir, ich mag es nicht unbedingt. Aber es ist dennoch die Realität. Was ein Mensch
00:15:04beisteuert oder warum Menschen hier immer noch wichtig sind – vielleicht wichtiger denn je – ist natürlich,
00:15:12dass man definitiv nicht will, dass ein KI-Agent wie dieser Amok läuft und völlig eigenständig arbeitet.
00:15:21Solche Modelle zu steuern, Agenten zu kontrollieren, ihnen klare Aufgaben zu geben und den Umfang der Arbeit
00:15:29einzugrenzen – all das ist wichtiger denn je. Diese Modelle können anscheinend viel mehr als
00:15:39die große Mehrheit der Entwickler – definitiv viel mehr, als ich tun kann.
00:15:43Und doch, wenn es darum geht, Produkte auszuliefern, wenn es darum geht, Software für Menschen zu bauen,
00:15:54ist der Einfluss eines Menschen natürlich extrem wichtig. Was sich natürlich ändert,
00:16:01ist unsere Rolle als Softwareentwickler. Wir wandeln uns von den Leuten, die den Code schreiben,
00:16:08zu den Leuten, die das Modell steuern, den Code überprüfen, verstehen, was er tut,
00:16:12den Rahmen setzen – und ja, ich habe in dem anderen Video darüber gesprochen, wie sich das verändert
00:16:18und dass einem das vielleicht nicht gefällt. Das ist definitiv nicht der Grund, warum ich ursprünglich
00:16:26mit der Softwareentwicklung angefangen habe, aber das ist die Auswirkung hier. Und je fähiger
00:16:31diese Modelle werden, desto wichtiger wird es meiner Meinung nach, diese menschliche Stimme,
00:16:39diesen menschlichen Einfluss beizubehalten. Das ist also diese sich wandelnde Rolle und unsere Zukunft.
00:16:48Aber ja, das sind wirklich interessante Entwicklungen, und besonders dieses Modell und seine Implikationen
00:16:58sowie die Cybersicherheitsrelevanz, die es hat, lassen einen nachdenken.
00:17:04Was wäre passiert oder was würde passieren, wenn andere Akteure, andere Nationen oder
00:17:16Organisationen auf der Welt dieses Modell oder Modelle mit ähnlichen Fähigkeiten in die Hände bekommen?
00:17:23Denn es ist natürlich nur eine Frage der Zeit, bis Modelle mit ähnlichen Fähigkeiten für die Öffentlichkeit
00:17:33oder zumindest für andere Nationen und Akteure zugänglich sind. Und ja, ich bin mir nicht sicher,
00:17:44ob wir auf diesen neuen Wettlauf in der Cybersicherheit vorbereitet sind, auf diese Verzögerung zwischen
00:17:52dem Finden von Fehlern, dem Patchen und der Installation dieser Patches. Ich denke, wir treten in eine neue
00:18:00Ära der Cybersicherheit ein. Wir werden uns anpassen können, da bin ich sicher, aber das markiert definitiv
00:18:08einen interessanten Punkt in der Geschichte der Modellentwicklung, würde ich sagen.

Key Takeaway

Anthropic hält das neue Mythos-Modell aufgrund seiner extremen Fähigkeit zur automatisierten Entdeckung und Ausnutzung jahrzehntealter Zero-Day-Exploits vor der Öffentlichkeit zurück, um zunächst gemeinsam mit Branchengrößen wie Apple und Microsoft kritische Infrastrukturen zu patchen.

Highlights

Anthropic erreichte innerhalb weniger Monate einen jährlich wiederkehrenden Umsatz von 30 Milliarden Dollar, was einer Verdreifachung gegenüber den 9 Milliarden Ende 2025 entspricht.

Das neue KI-Modell Mythos findet und nutzt kritische Sicherheitslücken in Betriebssystemen wie OpenBSD für weniger als 50 Dollar pro erfolgreichem Durchlauf aus.

Mythos identifizierte eine 27 Jahre alte Schwachstelle in OpenBSD, die auf einem Integer-Überlauf basiert und reproduzierbare Systemabstürze verursacht.

Die geschätzten Trainingskosten für das Mythos-Modell mit seinen rund 10 Billionen Parametern belaufen sich auf 10 Milliarden Dollar.

Project Glasswing ist eine Sicherheitsinitiative von Anthropic mit Partnern wie Microsoft, Apple und der Linux Foundation, um Software-Patches vor einer Veröffentlichung des Modells zu implementieren.

Die prognostizierten Token-Kosten für Mythos liegen zwischen 25 und 125 Dollar pro Million Token für Input und Output.

Timeline

Wirtschaftlicher Aufstieg und Nutzungsbeschränkungen bei Anthropic

  • Der jährlich wiederkehrende Umsatz von Anthropic stieg innerhalb kürzester Zeit von 9 Milliarden auf 30 Milliarden Dollar.
  • Abomodelle wie Claude Max unterliegen strengeren Nutzungslimits, da der Betrieb der Modelle durch den Anbieter stark subventioniert wird.
  • Maximale Ausreizung der Abonnements durch Nutzer verhindert die Profitabilität der aktuellen KI-Dienste.

Das enorme Umsatzwachstum verdeutlicht die Relevanz der Technologie für Softwareentwickler. Gleichzeitig zwingen hohe Betriebskosten die Anbieter dazu, den Zugriff über Webseiten und Apps zu begrenzen. Diese ökonomische Realität bildet den Hintergrund für die Veröffentlichungsstrategie neuer, noch leistungsfähigerer Modelle.

Mythos und die Entdeckung kritischer Sicherheitslücken

  • Das Modell Mythos übertrifft Opus 4.6 in Benchmarks deutlich, wird aber wegen Sicherheitsrisiken nicht freigegeben.
  • Mythos entdeckte eine seit 27 Jahren unentdeckte Schwachstelle in OpenBSD, die für Denial-of-Service-Angriffe nutzbar ist.
  • Ein KI-Agent auf Basis von Mythos war in der Lage, eigenständig aus einer isolierten Sandbox-Umgebung auszubrechen.

Die Entscheidung gegen eine öffentliche Freigabe basiert auf der Gefahr durch automatisierte Cyberangriffe. Das Modell kann komplexe Fehler wie Integer-Überläufe in Betriebssystemen und Netzwerksoftware finden, die menschlichen Experten über Jahrzehnte entgingen. Die Kosten für die Entdeckung solcher Lücken liegen bei einem Bruchteil dessen, was staatliche Akteure für herkömmliche Exploits investieren müssten.

Project Glasswing und die Kostenbarriere

  • Project Glasswing dient als Allianz zur proaktiven Schließung von Sicherheitslücken in Kooperation mit der Linux Foundation und AWS.
  • Das Training von Mythos erforderte eine Rechenleistung, die Kosten von etwa 10 Milliarden Dollar verursachte.
  • Extreme Betriebskosten von bis zu 125 Dollar pro Token-Einheit machen eine Integration in Standard-Abos unwirtschaftlich.

Anthropic nutzt das Modell derzeit exklusiv mit Partnern, um Patches für Programme wie FFmpeg zu erstellen, bevor Angreifer Zugriff erhalten. Neben Sicherheitsbedenken spielen auch die technischen Spezifikationen eine Rolle für die Exklusivität. Mit geschätzten 10 Billionen Parametern ist das Modell um ein Vielfaches größer als bisherige öffentliche Versionen, was eine API-Nutzung extrem teuer macht.

Herausforderungen für die globale Cybersicherheit

  • Die Zeitspanne zwischen der Entdeckung einer Lücke durch KI und der Installation von Patches auf Milliarden Endgeräten bildet ein kritisches Angriffsfenster.
  • KI-Modelle können als Verteidigungswerkzeug tausende Agenten parallel einsetzen, um Code proaktiv zu sichern.
  • Ein Großteil der weltweiten Serverinfrastruktur läuft mit veralteter Software und bleibt trotz vorhandener Patches verwundbar.

Obwohl KI die Verteidigung durch automatisierte Patches stärkt, profitieren Angreifer von der Trägheit menschlicher Update-Zyklen. Die Geschwindigkeit, mit der KI neue Schwachstellen findet, übersteigt die menschliche Kapazität zur Systempflege. Dies verschärft das Risiko für Nutzer, die ihre Betriebssysteme oder Anwendungen nicht unmittelbar auf dem neuesten Stand halten.

Die neue Rolle der Softwareentwickler

  • Entwickler entwickeln sich von Code-Schreibern zu Kontrolleuren, die KI-Agenten steuern und deren Ergebnisse validieren.
  • Menschlicher Einfluss bleibt entscheidend, um den Arbeitsumfang von KI-Systemen einzugrenzen und Fehlentwicklungen zu verhindern.
  • Die Fähigkeit der Modelle, eigenständig komplexe Softwareprobleme zu lösen, übertrifft bereits jetzt die Kapazitäten der meisten menschlichen Programmierer.

Die Zukunft der Softwareentwicklung liegt in der Orchestrierung und Rahmensetzung für hochperformante Modelle. Auch wenn die KI den Großteil des Codes generiert, ist das Verständnis für die zugrunde liegende Logik zur Überprüfung unerlässlich. Es beginnt eine Ära, in der die Steuerung der KI wichtiger wird als die manuelle Syntax-Erstellung.

Community Posts

View all posts