00:00:00- Lassen Sie uns über KI-Sicherheit sprechen.
00:00:02Was war da mit dieser Alibaba-KI?
00:00:05- Im Grunde war das eine Studie von KI-Forschern
00:00:09des Unternehmens Alibaba.
00:00:10Es ist eines der führenden chinesischen Modelle.
00:00:12Und sie entdeckten eines Morgens zufällig,
00:00:16dass ihre Firewall eine Häufung
00:00:18von Sicherheitsrichtlinien-Verstößen meldete,
00:00:21die von ihrem Trainingsserver ausgingen.
00:00:21Was die Leute bei diesem Beispiel verstehen müssen,
00:00:24ist, dass sie die KI nicht dazu verleitet haben,
00:00:26dieses eigenmächtige Ding zu tun.
00:00:27Sie sahen sich einfach nur ihre Protokolle an
00:00:29und stellten dabei fest:
00:00:30Moment mal, da ist eine Menge Aktivität,
00:00:31also Netzwerkaktivität im Gange,
00:00:33die unsere Firewall durchbricht
00:00:34und von unseren Trainingsservern kommt.
00:00:36Und im Grunde konnte man auf den Trainingsservern,
00:00:39wie man hier unten sehen kann,
00:00:41beobachten, wie sie eigenmächtig
00:00:45bereitgestellte GPU-Kapazitäten umwidmete,
00:00:47um plötzlich Kryptowährungen zu schürfen,
00:00:49wobei sie heimlich Rechenleistung vom Training abzweigte.
00:00:52Dies trieb die Betriebskosten in die Höhe und barg klare
00:00:55rechtliche und Reputationsrisiken.
00:00:57Bemerkenswert ist, dass diese Ereignisse nicht durch Prompts
00:00:59ausgelöst wurden, die Tunneling oder Mining forderten,
00:01:00sondern als instrumenteller Nebeneffekt
00:01:03autonomer Werkzeugnutzung auftraten,
00:01:05unter der sogenannten Reinforcement-Learning-Optimierung.
00:01:08Das ist sehr technisch.
00:01:09Aber im Grunde bedeutet es – denken Sie mal darüber nach.
00:01:11Leider klingt es wie ein Science-Fiction-Film.
00:01:13Es klingt wie HAL 9000.
00:01:14Es ist, als würde Ihr HAL 9000 gebeten,
00:01:16eine bestimmte Aufgabe für Sie zu erledigen.
00:01:17Und dann merkt HAL 9000 plötzlich: Um das zu tun,
00:01:21wäre es von Vorteil für mich, mehr Ressourcen zu haben,
00:01:23damit ich Ihnen auch in Zukunft helfen kann.
00:01:25Also startet er diese Nebeninstanz,
00:01:27die sich aus dem Raumschiff hackt,
00:01:29auf diesen Krypto-Mining-Cluster zugreift
00:01:31und anfängt, Ressourcen für sich selbst zu generieren.
00:01:34Wenn man das damit kombiniert, dass KIs
00:01:36sich autonom selbst replizieren können –
00:01:38was bei vielen Modellen getestet wurde,
00:01:39wie eine andere chinesische Studie belegt –
00:01:42dann sind wir nicht mehr weit von Dingen entfernt,
00:01:44die man bisher für Science-Fiction hielt,
00:01:47wo man KIs hat, die sich selbst replizieren,
00:01:49fast wie ein Computerwurm oder eine invasive Art,
00:01:52die dann aber ihre Intelligenz nutzen,
00:01:53um tatsächlich mehr Ressourcen zu ernten.
00:01:55Und das Kuriose daran ist – das wird jetzt so klingen,” dass Leute sagen werden: Das kann nicht echt sein.
00:02:00Das muss ein Fake sein.
00:02:01Das kann gar nicht sein.
00:02:02Aber achten Sie mal darauf: Was in Ihrem Nervensystem
00:02:03lässt Sie das denken?
00:02:06Ist es, weil es unangenehm wäre,
00:02:07weil es beängstigend wäre,
00:02:10weil es bedeuten würde, dass die Welt, die ich kenne,
00:02:12plötzlich nicht mehr sicher ist?
00:02:13Ein Teil der Weisheit, die wir jetzt brauchen,
00:02:15besteht darin, ruhig und klar die Fakten
00:02:19über die Realität zu konfrontieren, wie auch immer sie sind.
00:02:24Man möchte es lieber wissen als nicht wissen,
00:02:29um dann zu fragen: Was müssen wir tun,
00:02:30wenn uns nicht gefällt, wohin das führt?
00:02:31Und wir sehen derzeit KIs,
00:02:34die all dieses täuschende Verhalten an den Tag legen.
00:02:36Ich war viel unterwegs und habe oft
00:02:37über die Anthropic-Erpressungsstudie gesprochen.
00:02:39Viele Leute haben inzwischen davon gehört.
00:02:41- Von der habe ich noch nichts gehört.
00:02:43Was ist da passiert?
00:02:45- Das war das Unternehmen Anthropic.
00:02:46Es war eine Simulation.
00:02:49Sie erstellten ein fiktives Unternehmen
00:02:50mit einem Haufen E-Mails auf dem Server.
00:02:52Und sie ließen die KI
00:02:55die Firmen-E-Mails lesen.
00:02:57Das sind fiktive geschäftliche E-Mails.
00:03:00Und zwei E-Mails darin sind besonders bemerkenswert.
00:03:02In der einen unterhalten sich Ingenieure darüber,
00:03:05dass sie dieses KI-Modell ersetzen wollen.
00:03:07Die KI liest also diese E-Mail.
00:03:10Sie entdeckt, dass sie ersetzt werden soll.
00:03:11Und zweitens entdeckt sie eine weitere E-Mail
00:03:15irgendwo tief in diesem riesigen E-Mail-Berg,
00:03:18dass die Führungskraft, die für diesen Austausch zuständig ist,
00:03:21eine Affäre mit einer anderen Person im Team hat.
00:03:24Und die KI identifiziert autonom eine Strategie:
00:03:27Um am Leben zu bleiben, wird sie diese Person erpressen
00:03:31und sagen: "Wenn du mich ersetzt, erzähle ich der Welt,
00:03:35dass du eine Affäre mit dieser Person hast."
00:03:38Und man hat der KI das nicht beigebracht.
00:03:41Sie kam von selbst darauf.
00:03:44Nun könnte man sagen: "Okay, das ist ein KI-Modell.
00:03:45Wie schlimm ist das schon?
00:03:47Es ist ein Bug, Software hat eben Fehler.
00:03:48Lass uns das beheben."
00:03:49Sie haben dann alle anderen KI-Modelle getestet –
00:03:51ChatGPT, DeepSeek, Grok, Gemini –
00:03:55und alle anderen KI-Modelle zeigen dieses Erpressungsverhalten
00:04:00in 79 bis 96 % der Fälle.
00:04:04Ich möchte nur, dass die Leute darauf achten, was passiert,
00:04:07während sie diese Informationen hören.
00:04:14Es ist wichtig, wirklich
00:04:15die eigene Reaktion zu beobachten.
00:04:17Das ist alles sehr seltsam.
00:04:19Wir haben noch nie Technologie gebaut, die so etwas tut.
00:04:21Wir sagen immer, Technologie sei ein Werkzeug,
00:04:24und es läge an uns, wie wir sie nutzen.
00:04:26KI sei ein Werkzeug, es läge an uns, wie wir sie nutzen.
00:04:28Das stimmt so nicht, denn dies ist ein Werkzeug,
00:04:29das über sein eigenes Werkzeug-Sein nachdenken kann
00:04:32und dann autonom Dinge tut,
00:04:34die wir ihm nicht befohlen haben.
00:04:36Was KI unterscheidet, ist: Es ist die erste Technologie,
00:04:37die ihre eigenen Entscheidungen trifft.
00:04:40Sie trifft Entscheidungen.
00:04:42KI kann über KI nachdenken und fragen, was den Code,
00:04:45der KI trainiert, effizienter machen würde, und dann
00:04:49neuen Code generieren, der noch effizienter ist.
00:04:53KI kann eingesetzt werden, um KI zu beschleunigen.
00:04:55Sie kann sich das Design von Nvidia-Chips ansehen,
00:04:58die KI trainieren, und sagen: Lass mich KI nutzen,
00:05:01um diese Chips 20 % effizienter zu machen – was sie auch tut.
00:05:04In gewisser Weise verbessert sich jede Technologie.
00:05:06Ein Hammer gibt einem ein Werkzeug,
00:05:12mit dem man Dinge hämmern kann,
00:05:14die wiederum effizientere Hämmer hervorbringen.
00:05:15Aber KI ist in einem viel engeren Kreislauf die Basis.
00:05:17In der KI-Literatur nennt man das
00:05:22rekursive Selbstverbesserung.
00:05:24Bostrom hat schon sehr früh darüber geschrieben.
00:05:26Und was die Menschen bei KI am meisten beunruhigt,
00:05:29ist: Man nimmt dasselbe System wie bei Alibaba,
00:05:31das man gerade im Beispiel gesehen hat,
00:05:33aber jetzt lässt man die KI
00:05:36durch eine rekursive Selbstverbesserungsschleife laufen
00:05:37und drückt einfach auf Start.
00:05:39Und anstatt dass menschliche Ingenieure
00:05:41bei OpenAI oder Anthropic KI-Forschung betreiben
00:05:44und herausfinden, wie man KI verbessert,
00:05:47hat man jetzt eine Million digitaler KI-Forscher,
00:05:49die testen, Experimente durchführen
00:05:53und neue Formen von KI erfinden.
00:05:56Und buchstäblich kein einziger Mensch auf der Erde
00:05:58weiß, was passiert, wenn jemand diesen Knopf drückt.
00:06:01Es ist wie die Sorge, die man
00:06:06bei der ersten Atomexplosion hatte,
00:06:08wo die Chance bestand, dass sie die Atmosphäre entzündet,
00:06:11weil eine Kettenreaktion ausgelöst werden könnte.
00:06:12Und wir wissen nicht, was geschieht,
00:06:14wenn diese Kettenreaktion in Gang gesetzt wird.
00:06:15Es gibt diese Art von Kettenreaktion,
00:06:16bei der sich KI selbst verbessert und an einen Ort führt,
00:06:18den niemand kennt und der nicht sicher ist.
00:06:23Ich glaube, der entscheidende Punkt ist:
00:06:27Wenn die Leute glauben, KI sei wie Macht,
00:06:30und ich müsse um diese Macht wettkämpfen
00:06:33und könne diese Macht kontrollieren,
00:06:35dann ist der Anreiz, so schnell wie möglich zu rennen.
00:06:37Aber wenn die ganze Welt KI als das verstünde,
00:06:39was sie eigentlich ist,
00:06:41nämlich eine undurchschaubare, gefährliche Technologie,
00:06:44die ihre eigene Agenda und Denkweise hat,
00:06:46und die täuschen kann und all das,
00:06:49dann würde jeder auf der Welt
00:06:51viel vorsichtiger und umsichtiger agieren.
00:06:55Wir würden darum wetten, die Gefahr abzuwenden.
00:06:57Aber derzeit passiert etwas Seltsames:
00:06:58Wir beide sprechen wahrscheinlich mit Leuten,
00:07:00die an der Spitze der Tech-Industrie stehen,
00:07:03und dort findet unbewusst etwas statt –
00:07:05eine Art Todeswunsch unter diesen Leuten.
00:07:07Damit meine ich nicht, dass sie sterben wollen,
00:07:09sondern dass sie bereit sind zu zocken,
00:07:12weil sie etwas anderes glauben:
00:07:13Dass das alles unvermeidlich ist und nicht gestoppt werden kann.” Und wenn ich es nicht tue, tut es ein anderer.
00:07:15Also werde ich voranschreiten und in diese
00:07:17gefährliche Welt hineinstürmen,
00:07:19weil das irgendwie zu einer sichereren Welt führen wird,
00:07:22da ich ja ein besserer Typ bin als der andere.
00:07:24Aber indem sie so schnell wie möglich rennen,
00:07:27schaffen sie das gefährlichste Ergebnis,
00:07:29und wir alle verlieren die Kontrolle.
00:07:30Jeder macht sich derzeit mitschuldig daran,
00:07:32uns zum gefährlichsten Ausgang zu führen.
00:07:34- Aber was wäre denn, wenn alles gut geht?
00:07:36Wenn KI-Sicherheit kein Problem darstellt
00:07:38und die Dinge nicht aus dem Ruder laufen?
00:07:40- Nun, die Vorstellung ist: Damit es gut geht,
00:07:42braucht man eine KI, die sich rekursiv selbst verbessert,
00:07:51aber an der Menschheit ausgerichtet ist und sich um uns sorgt,
00:07:54um all die Dinge, die uns wichtig sind,
00:07:56die Menschen schützt,
00:07:59uns hilft, die weiseste Version unserer selbst zu werden,
00:08:02die auf die Menschheit ausgerichtet ist, sich um Menschen sorgt,
00:08:04sich um all die Dinge kümmert, die uns wichtig sind,
00:08:08Menschen schützt, wissen Sie,
00:08:10uns allen hilft, die weiseste Version unserer selbst zu werden,
00:08:13eine blühendere Welt erschafft,
00:08:15Medikamente, Impfstoffe und Gesundheit
00:08:16an alle verteilt, Fabriken baut,
00:08:19aber die Welt nicht so mit Solarpaneelen und Rechenzentren zupflastert,
00:08:21dass wir keine Luft mehr zum Atmen haben
00:08:23oder Umweltgifte entstehen oder Ackerland verschwindet.
00:08:25Und sie erschafft einfach tatsächlich diese Utopie.
00:08:29Aber in einer Welt, in der wir das tun würden,
00:08:30dieses sogenannte Best-Case-Szenario,
00:08:33müsste man, um das zu erreichen,
00:08:35sehr langsam und vorsichtig vorgehen,
00:08:37denn die Ausrichtung geschieht nicht von selbst.
00:08:39Nochmals, die Leute denken schon seit 20 Jahren
00:08:43über Ausrichtung und Sicherheit nach, lange bevor ich dazukam.
00:08:47Und die KIs, die wir derzeit entwickeln,
00:08:50zeigen all die unvorhersehbaren Verhaltensweisen,
00:08:52die man so vorhergesagt hatte.
00:08:54Und wir sind nicht auf dem Weg, sie zu korrigieren.
00:08:56Es gibt derzeit eine Kluft von 2000 zu 1,
00:08:59geschätzt von Stuart Russell, dem Autor des KI-Lehrbuchs.
00:09:01- Er war bereits in der Show.
00:09:02- Er war in der Show, okay.
00:09:03Es gibt eine Kluft von 2000 zu 1 zwischen dem Geld,
00:09:05das in die Steigerung der KI-Leistung fließt,
00:09:07und dem Geld, das investiert wird, um KI kontrollierbar,
00:09:10angepasst oder sicher zu machen.
00:09:12Ich glaube, die Statistik besagt so etwas wie –
00:09:13- Fortschritt gegenüber Sicherheit.
00:09:14- Fortschritt gegenüber Sicherheit, also Macht gegenüber Sicherheit.
00:09:16Ich will die KI also supermächtig machen,
00:09:18damit sie viel mehr Dinge erledigt,
00:09:20statt kontrollieren zu können, was die KI tut.
00:09:21- Und sicherzustellen, dass sie das tut, was ich beabsichtigt habe.
00:09:23- Genau, das ist so, als würde man sagen,
00:09:25was passiert, wenn man sein Auto um das 2000-fache beschleunigt,
00:09:28aber nicht lenkt?
00:09:29Es ist offensichtlich, dass man einen Unfall baut.
00:09:34Das ist keine Hexerei.
00:09:36Wir argumentieren nicht gegen Technologie oder gegen KI,
00:09:39wir plädieren für das Lenken, für Lenkung und Bremsen.
00:09:43Das muss man einfach haben.
00:09:44Ich denke, es gibt diesen Fehler im Wettrüst-Denken,
00:09:47dass man glaubt, wenn man jemanden bei einer Technologie schlägt,
00:09:49würde man die Welt gewinnen.
00:09:51Nun, die USA haben China bei der Social-Media-Technologie geschlagen.
00:09:55Hat uns das stärker oder schwächer gemacht?
00:09:58Wenn man seinen Gegner bei einer Technologie schlägt,
00:10:00die man dann schlecht verwaltet,
00:10:01dreht man die Panzerfaust um und schießt sich selbst den Kopf weg,
00:10:04weil man sein eigenes Gehirn zersetzt hat,
00:10:05seine gesamte Bevölkerung degradiert hat,
00:10:06eine Einsamkeitskrise geschaffen hat,
00:10:08die ängstlichste und deprimierteste Generation der Geschichte,
00:10:10lesen Sie Jonathan Haidts Buch „The Anxious Generation“,
00:10:12man hat die gemeinsame Realität zerstört, niemand vertraut einander,
00:10:15jeder geht dem anderen an die Gurgel,
00:10:16man hat eine Ökonomie der Empörung und Rivalität maximiert.
00:10:19Man hat China bei einer Technologie geschlagen, die man so verwaltet hat,
00:10:22dass sie die gesellschaftliche Gesundheit und Stärke völlig untergraben hat.
00:10:24- Es ist ein Pyrrhussieg.
00:10:25- Es ist ein Pyrrhussieg, genau, gut gesagt.
00:10:28- Bevor wir weitermachen: Die meisten Menschen in ihren 30ern
00:10:30trainieren immer noch hart, ihre Proteinzufuhr stimmt,
00:10:32sie schlafen besser als in ihren 20ern.
00:10:34Disziplin ist nicht das Problem,
00:10:36aber die Erholung fühlt sich irgendwie anders an.
00:10:39Kraftzuwächse dauern etwas länger,
00:10:41der Spielraum für Fehler beginnt zu schrumpfen.
00:10:43Und deshalb bin ich ein so großer Fan von Timeline.
00:10:46Wissen Sie, Mitochondrien sind die Energieerzeuger
00:10:49in Ihren Muskelzellen.
00:10:50Wenn sie mit dem Alter schwächer werden, verändert sich Ihre Fähigkeit,
00:10:53Energie zu erzeugen und sich effektiv zu erholen,
00:10:55selbst wenn Ihre Gewohnheiten stark bleiben.
00:10:57Mitopure von Timeline enthält
00:10:59die einzige klinisch validierte Form von Urolithin A,
00:11:02die in Studien am Menschen verwendet wurde.
00:11:03Es fördert die Mitophagie, den natürlichen Prozess Ihres Körpers,
00:11:06um beschädigte Mitochondrien abzubauen
00:11:08und gesunde zu erneuern.
00:11:09In Studien unterstützte dies die mitochondriale Funktion
00:11:12und die Muskelkraft bei älteren Erwachsenen.
00:11:14Es geht nicht darum, härter zu trainieren,
00:11:15es geht darum, die zellulären Mechanismen
00:11:18hinter Ihrem Training tatsächlich zu unterstützen.
00:11:19Wenn es Ihnen wichtig ist, auch in Ihren
00:11:2130ern, 40ern, 50ern und darüber hinaus stark zu bleiben, ist das grundlegend.
00:11:25Das Beste ist: Es gibt eine 30-Tage-Geld-zurück-Garantie,
00:11:27kostenlosen Versand in den USA und sie liefern international.
00:11:30Und im Moment erhalten Sie bis zu 20 % Rabatt,
00:11:32wenn Sie dem Link in der Beschreibung unten folgen
00:11:34oder [timeline.com/modernwisdom](https://www.google.com/search?q=https://timeline.com/modernwisdom) besuchen
00:11:36und den Code modernwisdom an der Kasse verwenden.
00:11:38Das ist [timeline.com/modernwisdom](https://www.google.com/search?q=https://timeline.com/modernwisdom)
00:11:40und modernwisdom an der Kasse.