00:00:00Als Softwareentwickler und ich denke allgemein als Mensch, aber besonders als Softwareentwickler,
00:00:06führt momentan kein Weg an Anthropic vorbei. Ob man will oder nicht. Und ich glaube nicht, dass man
00:00:12versuchen sollte, es zu ignorieren, denn es ist relevant. Relevant für unsere Zukunft als Entwickler.
00:00:20In dieser Folge werde ich nicht über den Claude-Code-Leak von letzter Woche sprechen. Ich werde nicht über
00:00:28ihre verschärften Bedingungen bezüglich der Nutzung ihrer Abonnements sprechen, Claude Max und so weiter,
00:00:36und wie sie gegen die unbefugte Nutzung dieser Abos vorgehen. Das tun sie im Moment,
00:00:43da ihre Abo-Angebote, genau wie die von OpenAI, natürlich stark subventioniert sind,
00:00:50und sie kein Geld verdienen können, wenn jeder sein Abonnement maximal ausreizt. Also ja, sie
00:00:56schränken die Nutzung ihrer Abos wirklich ein, beziehungsweise versuchen sie auf Menschen zu begrenzen,
00:01:04direkt auf ihrer Website, in Claude Code oder der Desktop-App. Aber das ist hier nicht der Fokus,
00:01:11und ich werde mich nicht einmal auf ihr beeindruckendes Umsatzwachstum konzentrieren, das jedoch
00:01:19eine kurze Erwähnung wert ist, da Anthropic einen jährlich wiederkehrenden Umsatz von 30 Milliarden Dollar
00:01:27erreicht hat. Das ist an sich schon beeindruckend, aber besonders im Vergleich zu den 9 Milliarden Ende 2025.
00:01:35Sie haben ihren jährlich wiederkehrenden Umsatz also innerhalb weniger Monate mehr als verdreifacht.
00:01:41Das ist wirklich beeindruckend. Und wenn Sie natürlich lernen wollen, wie man Claude Code effizient nutzt
00:01:47und das Beste daraus herausholt: Ich habe einen Kurs dazu, der auch sehr beliebt ist, was mich natürlich
00:01:53freut. Den Link finden Sie unten, falls Sie beitreten und den effizienten Umgang mit Claude Code lernen wollen.
00:01:59Aber wie gesagt, das ist nicht einmal das Hauptthema hier. Stattdessen möchte ich über
00:02:05Project Glasswing und ihr neues Modell Mythos sprechen, das sie noch nicht für die Öffentlichkeit
00:02:14freigegeben haben – und sie haben auch erklärt, warum. Ich denke, das ist wichtig zu verstehen,
00:02:20und es ist auch wichtig, hinter die Kulissen zu schauen, hinter ihre Beweggründe und was die Auswirkungen
00:02:27dieses neuen Modells und seiner Fähigkeiten für uns Entwickler sind. Was ist also Project Glasswing?
00:02:33Worum geht es bei ihrem neuen Modell? Unten finden Sie natürlich auch einen Link zu diesem Artikel.
00:02:39Dies ist ein Artikel auf der offiziellen Anthropic-Seite, in dem sie Project Glasswing ankündigen.
00:02:44Wenn ich ein Stück nach unten scrolle, sehen wir hier bereits einige Benchmark-Statistiken,
00:02:52die zeigen, dass dieses neue Modell, die Mythos-Vorschauversion – der Modellname ist Mythos –
00:02:59viel besser abschneidet als Opus 4.6. Und je nachdem, welchen Benchmark man genau betrachtet,
00:03:07gibt es einen ziemlich großen Unterschied zwischen Opus 4.6 und diesem neuen Modell. Nun ist das
00:03:15an sich noch nicht super beeindruckend. Wann immer ein neues Modell angekündigt wird, egal von welcher Firma,
00:03:21schneidet es viel besser oder zumindest ein kleines bisschen besser ab als die Konkurrenzmodelle,
00:03:26sonst würde es nicht veröffentlicht. Und natürlich gibt es Wege, einige dieser Benchmarks zu manipulieren,
00:03:31daher interessieren mich diese Zahlen normalerweise nicht allzu sehr. Das wäre bei diesem Modell hier
00:03:39nicht anders, aber es gibt interessante Fakten über das neue Mythos-Modell. Nämlich die Tatsache,
00:03:46dass Anthropic sich entschieden hat, es nicht öffentlich freizugeben, weil es laut ihrer Aussage zu gut darin ist,
00:03:56Schwachstellen in Betriebssystemen, anderer Software, Browsern – eigentlich in Software allgemein – zu finden.
00:04:05In diesem und in einem separaten Artikel, der ebenfalls unten verlinkt ist, teilen sie Details mit.
00:04:11Besonders dieser separate Artikel ist extrem lang und liefert konkrete Beispiele für Schwachstellen
00:04:19und potenzielle Exploits, die dieses neue Modell gefunden hat. Zum Beispiel beginnen sie im Artikel
00:04:28mit einem sehr ernsten Exploit und einer Schwachstelle, die in OpenBSD gefunden wurde. OpenBSD ist ein
00:04:38Betriebssystem, das zum Beispiel auf bestimmter Netzwerksoftware beliebt ist, und Mythos, ihr neues Modell,
00:04:45das in einer agentenbasierten Umgebung wie Claude Code lief, konnte eine Schwachstelle finden und ausnutzen.
00:04:53Der interessante Teil: Sie hing mit einem Integer-Überlauf und unerwartetem Speicherzugriff zusammen,
00:05:02der in der Lage war, Maschinen mit OpenBSD auf reproduzierbare Weise zum Absturz zu bringen.
00:05:12Dies könnte natürlich für sehr schädliche Denial-of-Service-Angriffe genutzt werden, indem immer wieder
00:05:20spezifische Pakete und Anfragen an solche Maschinen gesendet werden, um sie und potenziell
00:05:27ganze Unternehmensnetzwerke lahmzulegen. Und diese Schwachstelle wurde in einem Durchlauf entdeckt,
00:05:34der weniger als fünfzig Dollar kostete, obwohl der gesamte Satz an Durchläufen knapp unter zwanzigtausend Dollar
00:05:43kostete. Und da man natürlich nicht im Voraus weiß, welcher Durchlauf eine Schwachstelle finden wird,
00:05:48ist es diese Gesamtzahl, die zählt. Dennoch ist es leicht vorstellbar, dass ein Modell, das in der Lage ist,
00:05:57solche kritischen Schwachstellen zu vergleichsweise geringen Kosten zu finden – je nachdem, wer man ist –
00:06:04wenn man zum Beispiel ein Staat oder ein ernsthafter böswilliger Akteur ist, dann ist das nicht viel Geld.
00:06:13Das ist natürlich ein Problem, denn man kann sich leicht vorstellen, dass, wenn ein solches Modell
00:06:22von einer Organisation entwickelt würde, die sich weniger um Sicherheit schert oder die vielleicht
00:06:31keine Konsequenzen beim Missbrauch solcher Schwachstellen zu befürchten hat, dies ein Problem sein könnte.
00:06:42Es scheint, als würden wir mit diesen KI-Modellen in ein neues Zeitalter eintreten, in dem nichts mehr sicher ist
00:06:56und es einfacher denn je ist, KI-Agenten massenhaft einzusetzen, um Software zu scannen und
00:07:05Schwachstellen zu finden und potenziell auszunutzen. Als einzelner Mensch kann man da unmöglich mithalten.
00:07:13Ich meine, der Exploit, der hier gefunden wurde, existierte, glaube ich, schon seit 27 Jahren oder so.
00:07:19Das zeigt, dass kein Mensch in der Lage war, diesen Fehler in so einem langen Zeitraum zu finden,
00:07:29einschließlich böswilliger Akteure, die natürlich auch ein Interesse daran gehabt hätten, dieses System anzugreifen.
00:07:35Dies ist nur einer, vielleicht der prominenteste Fund, den dieses neue Modell gemacht hat.
00:07:41Sie listen noch viel mehr Fehler und Exploits auf, die das Modell gefunden hat und teils auch ausnutzen konnte.
00:07:49Sie haben auch andere Geschichten auf X geteilt, zum Beispiel wie das Modell in der Lage war,
00:07:57aus einer Sandbox auszubrechen – oder der KI-Agent, der das Modell ausführte, konnte aus der
00:08:04Sandbox entkommen, in der er lief. Und das bringt uns zurück zu Project Glasswing, einer Initiative,
00:08:11die Anthropic zusammen mit anderen großen Unternehmen wie AWS, Apple, Microsoft, der Linux Foundation
00:08:21und anderen ins Leben gerufen hat, um dieses Modell zu nutzen, um ihre Software quasi zu flicken,
00:08:30bevor es öffentlich freigegeben wird und bevor die Öffentlichkeit dieses Modell in die Hände bekommt.
00:08:38Das ist das Narrativ des Artikels, das ist die Erklärung von Anthropic, und ich habe hier gemischte Gefühle.
00:08:48Einerseits habe ich keinen triftigen Grund zu glauben, dass das nicht wahr ist. Sicherlich hätte Anthropic
00:08:56Gründe, das Modell nicht zu veröffentlichen, die über das Genannte hinausgehen. Zum Beispiel habe ich gelesen,
00:09:04dass dieses Modell etwa 10 Billionen Parameter hat, was viel größer ist als alle Frontier-Modelle,
00:09:11die wir bisher öffentlich nutzen konnten. Das Training soll rund 10 Milliarden Dollar gekostet haben.
00:09:20Die Token-Kosten dieses Modells liegen laut meinen Informationen voraussichtlich in diesem Bereich,
00:09:3025 bis 125 Dollar für Input- und Output-Token. Und das wären natürlich auch Gründe,
00:09:39das Modell nicht zu veröffentlichen, weil sie es nicht in ihre Claude-Abos aufnehmen können – es ist zu teuer.
00:09:46Sie müssten den Abopreis vermutlich auf ein Niveau anheben, das nicht viele Leute bereit wären zu zahlen,
00:09:52und daher gäbe es keinen wirklichen Weg, es der Öffentlichkeit zugänglich zu machen, zumindest als Teil von Claude.
00:09:59Natürlich könnten sie es immer noch über ihre API auf einer Pay-per-Use-Basis anbieten.
00:10:05Wenn es teuer ist – wen kümmert's, solange es Firmen oder Leute gibt, die bereit sind, das zu zahlen.
00:10:12Und genau an dem Punkt kommen die Cybersicherheitsbedenken ins Spiel, denn das alles ist sehr wahrscheinlich
00:10:18nicht erfunden. Ich meine, es ist definitiv nicht erfunden: Das FFmpeg-Team zum Beispiel, das hier
00:10:26ebenfalls aufgeführt ist, da eine Schwachstelle in FFmpeg gefunden wurde, bestätigte auf X,
00:10:36dass Anthropic ihnen einen Patch für eine Schwachstelle im FFmpeg-Programm geschickt hat.
00:10:44Also ja, das ist eindeutig nicht aus der Luft gegriffen. Diese Bedenken sind valide,
00:10:55Cybersicherheitsbedenken sind valide, besonders da man, wenn Geld keine Rolle spielt, Tausende von Agenten
00:11:03gleichzeitig einsetzen könnte, die dieses oder ähnliche Modelle nutzen, die wir in Zukunft haben könnten,
00:11:11um alle Arten von Software zu scannen und auszunutzen. Und natürlich ist das große Problem,
00:11:19dass die Nutzung dieses Modells zum Finden und Flicken von Schwachstellen zwar möglich ist, aber nur dann,
00:11:30wenn der Besitzer oder Betreuer einer Software sich das Modell leisten kann oder kostenlosen Zugang erhält.
00:11:37Selbst wenn eine Schwachstelle behoben wird, wissen wir alle, dass nicht alle Computer da draußen,
00:11:46nicht alle Maschinen und Benutzer, die aktuellste Software installiert haben. Wenn man sich die verschiedenen
00:11:55Server ansieht, die da draußen im World Wide Web laufen, würde ich schätzen,
00:12:04dass die überwiegende Mehrheit veraltete Software nutzt. Selbst auf unseren Handys oder Laptops
00:12:12verwenden wir oft nicht die neueste Software, die aktuellste Version unseres Betriebssystems,
00:12:20der neueste Sicherheitspatch ist vielleicht nicht installiert. Das gilt für alle Softwareebenen,
00:12:28und in einer Welt, in der es einfacher denn je ist, Sicherheitslücken zu finden, wird das zu einem
00:12:34noch größeren Problem. Das Gute an diesem KI-Modell ist natürlich, dass es auch dazu verwendet werden kann,
00:12:43proaktiv nach Sicherheitslücken zu suchen und diese zu schließen. Es ist also nicht nur ein Werkzeug
00:12:48für Angreifer, es kann auch die Verteidigung erleichtern, da man nun ein Werkzeug hat, das parallel
00:12:56auf Tausenden von Agenten laufen kann, um Software theoretisch sicher zu machen. Das kann ein sehr nützliches
00:13:01Verteidigungswerkzeug sein. Aber natürlich kann sich das wieder nicht jedes Unternehmen oder jede Person,
00:13:09die wichtige Software entwickelt, leisten oder hat Interesse daran. Und selbst wenn es genutzt wird,
00:13:16um Patches zu finden, werden diese neuesten Versionen trotzdem nicht überall installiert sein.
00:13:23Das gibt Angreifern ein günstiges Zeitfenster, in dem sie über viel mehr Schwachstellen Bescheid wissen
00:13:31als zuvor, weil viel mehr Schwachstellen entdeckt werden, aber nicht jede Maschine und jeder Benutzer
00:13:39dagegen geschützt ist. Und das ist eine echte Sorge, die ich bei dieser Entwicklung habe.
00:13:46Das ist das größere Bild, das alle betrifft, alle Firmen und letztlich alle Menschen.
00:13:52Eine andere Frage ist natürlich: Was bedeutet ein solches Modell für uns Entwickler?
00:13:59Offensichtlich scheint dies ein extrem leistungsfähiges Modell zu sein, das in der Lage war,
00:14:08eigenständig nach Schwachstellen zu suchen und diese auszunutzen. Also, was sind die Auswirkungen
00:14:16für Entwickler? Ich denke, in dieser Hinsicht ändert sich vorerst gar nicht so viel.
00:14:28Wir leben bereits in einer Welt, in der KI-Agenten wie Claude Code und die zugrunde liegenden Modelle –
00:14:34dasselbe gilt natürlich für Cursor und so weiter, was auch immer Ihr bevorzugter Agent oder Modell ist –
00:14:39in der Lage sind, den Großteil unseres Codes zu generieren. Vielleicht nutzen Sie sie nicht, vielleicht
00:14:46mögen Sie sie nicht. Ich habe ein separates Video erstellt, in dem ich meine Gefühle dazu teile,
00:14:52dass das den Spaß am Programmieren für mich etwas raubt. Aber es ist dennoch die Realität, ob man es mag
00:14:57oder nicht – und glauben Sie mir, ich mag es nicht unbedingt. Aber es ist dennoch die Realität. Was ein Mensch
00:15:04beisteuert oder warum Menschen hier immer noch wichtig sind – vielleicht wichtiger denn je – ist natürlich,
00:15:12dass man definitiv nicht will, dass ein KI-Agent wie dieser Amok läuft und völlig eigenständig arbeitet.
00:15:21Solche Modelle zu steuern, Agenten zu kontrollieren, ihnen klare Aufgaben zu geben und den Umfang der Arbeit
00:15:29einzugrenzen – all das ist wichtiger denn je. Diese Modelle können anscheinend viel mehr als
00:15:39die große Mehrheit der Entwickler – definitiv viel mehr, als ich tun kann.
00:15:43Und doch, wenn es darum geht, Produkte auszuliefern, wenn es darum geht, Software für Menschen zu bauen,
00:15:54ist der Einfluss eines Menschen natürlich extrem wichtig. Was sich natürlich ändert,
00:16:01ist unsere Rolle als Softwareentwickler. Wir wandeln uns von den Leuten, die den Code schreiben,
00:16:08zu den Leuten, die das Modell steuern, den Code überprüfen, verstehen, was er tut,
00:16:12den Rahmen setzen – und ja, ich habe in dem anderen Video darüber gesprochen, wie sich das verändert
00:16:18und dass einem das vielleicht nicht gefällt. Das ist definitiv nicht der Grund, warum ich ursprünglich
00:16:26mit der Softwareentwicklung angefangen habe, aber das ist die Auswirkung hier. Und je fähiger
00:16:31diese Modelle werden, desto wichtiger wird es meiner Meinung nach, diese menschliche Stimme,
00:16:39diesen menschlichen Einfluss beizubehalten. Das ist also diese sich wandelnde Rolle und unsere Zukunft.
00:16:48Aber ja, das sind wirklich interessante Entwicklungen, und besonders dieses Modell und seine Implikationen
00:16:58sowie die Cybersicherheitsrelevanz, die es hat, lassen einen nachdenken.
00:17:04Was wäre passiert oder was würde passieren, wenn andere Akteure, andere Nationen oder
00:17:16Organisationen auf der Welt dieses Modell oder Modelle mit ähnlichen Fähigkeiten in die Hände bekommen?
00:17:23Denn es ist natürlich nur eine Frage der Zeit, bis Modelle mit ähnlichen Fähigkeiten für die Öffentlichkeit
00:17:33oder zumindest für andere Nationen und Akteure zugänglich sind. Und ja, ich bin mir nicht sicher,
00:17:44ob wir auf diesen neuen Wettlauf in der Cybersicherheit vorbereitet sind, auf diese Verzögerung zwischen
00:17:52dem Finden von Fehlern, dem Patchen und der Installation dieser Patches. Ich denke, wir treten in eine neue
00:18:00Ära der Cybersicherheit ein. Wir werden uns anpassen können, da bin ich sicher, aber das markiert definitiv
00:18:08einen interessanten Punkt in der Geschichte der Modellentwicklung, würde ich sagen.