"bitte hört auf, uns Slop zu nennen" - Microslop

TThe PrimeTime
Computing/SoftwareBusiness NewsInternet Technology

Transcript

00:00:00- Ich habe zwei sehr wichtige Dinge zu sagen.
00:00:01Erstens, schaut euch diesen Bart an.
00:00:03Okay, ich bekomme irgendwie aus Versehen einen Bart.
00:00:06Zweitens, ich habe etwas auf LinkedIn gelesen, okay?
00:00:09Tut mir leid, aber so ist es nun mal.
00:00:11Schaut euch das an.
00:00:12Eine Reflexion über das kommende Jahr unserer Branche.
00:00:15Das ist natürlich vom CEO von Microsoft.
00:00:17Und wenn man den Brief liest,
00:00:19geht es natürlich weiter und es ist im Grunde nur ein Chat-GPT-Inspo,
00:00:22so eine Art Erlebnis,
00:00:24bei dem man sich einfach nur richtig gut fühlen will,
00:00:26oder?
00:00:27Ein neues Konzept,
00:00:28das Fahrräder für den Geist weiterentwickelt.
00:00:29Sodass wir KI immer als Gerüst für menschliches Potenzial und nicht als Ersatz betrachten.
00:00:35Wow, Mann, hey, yo Satya, das ist so inspirierend.
00:00:38Alter, wie viele Chat-GPT-Prompts?
00:00:40Was ist dein Prompt, Bruder?
00:00:41Bruder, was ist dein Prompt?
00:00:42Das ist mal richtig inspirierend.
00:00:44Aber etwas,
00:00:45das bei all dem allen aufgefallen ist und Unmengen von Memes generiert hat,
00:00:49darunter auch dieses hier,
00:00:50mein persönlicher Favorit,
00:00:52Micro Slop,
00:00:52ist diese Zeile hier.
00:00:54Wir müssen über die Argumente von Slop versus Raffinesse hinausgehen und ein neues Gleichgewicht im Sinne einer Theory of Mind entwickeln,
00:00:59die berücksichtigt,
00:01:00dass Menschen mit diesen neuen kognitiven Verstärkerwerkzeugen ausgestattet sind,
00:01:03während wir miteinander in Beziehung treten.
00:01:05Erstens,
00:01:06ich meine,
00:01:06KI hilft uns nicht dabei,
00:01:07uns mit irgendjemandem in Beziehung zu setzen,
00:01:08aber das können wir beiseite lassen.
00:01:09Okay, wir lassen diesen Teil beiseite.
00:01:11Aber diese Idee,
00:01:12dass wir einfach über die Argumente von Slop hinausgehen müssen.
00:01:14Wir müssen den Begriff Slop nicht mehr verwenden.
00:01:15Hey, Slop, ein Slop wird einfach nicht gebraucht.
00:01:17Wir müssen das nicht sagen, oder?
00:01:19Richtig, Jungs?
00:01:20Okay,
00:01:20das ist der Teil,
00:01:21wo ich versuchen werde,
00:01:21dieses Problem aufzuschlüsseln.
00:01:22Und ich werde tatsächlich eine,
00:01:23ich schätze,
00:01:24andere Sichtweise geben,
00:01:24als ich es normalerweise tue.
00:01:25Der Grund,
00:01:26warum wir meiner Meinung nach viele Leute sehen,
00:01:28sogar wie Normies,
00:01:28oder,
00:01:29nicht wie Tech-Leute,
00:01:30einfach nur der Durchschnittsmensch,
00:01:31der sagt: "Oh,
00:01:32hey,
00:01:32das ist Slop." Ich werde mein Bestes versuchen,
00:01:34um zu erklären,
00:01:35warum ich denke,
00:01:36dass die Leute das so empfinden und was hier vor sich geht.
00:01:38Denn das Hauptproblem,
00:01:39das ich mit dieser ganzen Aussage habe,
00:01:41ist: Wenn etwas wirklich gut ist,
00:01:43musstest du noch nie jemanden bitten,
00:01:44es nicht zu beleidigen.
00:01:46Niemand bezeichnet Produkte,
00:01:48die gut sind,
00:01:48mit einer Art Schimpfwort,
00:01:50oder?
00:01:50Wir bezeichnen sie nicht so.
00:01:52Es gibt keine Gruppe von Leuten,
00:01:53die sagen: "Oh ja,
00:01:54das ist das Scheißzeug." Nein,
00:01:56so läuft das nicht.
00:01:57Der Grund dafür ist,
00:01:58dass die durchschnittliche Erfahrung der Person damit wirklich,
00:02:01wirklich gut ist.
00:02:02Und wenn Satya versucht,
00:02:03uns zu sagen: "Hey,
00:02:04wir müssen aufhören,
00:02:05diese Dinge zu sagen.
00:02:06"Es ist so: Warum liefert ihr nicht einfach ein Produkt,"
00:02:09das wirklich,
00:02:09wirklich gut ist.
00:02:11Und dann werden die Leute es nicht sagen.
00:02:12Sie werden sagen: "Oh ja,
00:02:13ja,
00:02:13ja,
00:02:14es ist tatsächlich ziemlich nützlich.
00:02:15Ja, das nennt man nützlich.
00:02:16Das ist nützlich.
00:02:17"Es ist irgendwie verrückt zu versuchen zu sagen:"
00:02:19Hey,
00:02:20mach das nicht.
00:02:20Tu das nicht.
00:02:21"Denn aus Microsofts Sicht ist es offensichtlich,"
00:02:24wohin sie gehen,
00:02:24oder?
00:02:25Sie haben gerade ihr Microsoft 360 Office umbenannt.
00:02:29Erinnert ihr euch daran, ihre Produktivitätssuite?
00:02:32Sie wurde von 360 Office in Co-Pilot umbenannt.
00:02:34Genau.
00:02:35Das bedeutet, Co-Pilot ist die Office-Softwaresuite.
00:02:39Co-Pilot ist das Ding in den Textdokumenten,
00:02:41das Vorschläge macht.
00:02:43Co-Pilot ist das Ding auf GitHub,
00:02:44das PRs erstellen und mit dir interagieren kann.
00:02:46Co-Pilot ist die Autovervollständigung in deinem VS-Code-Editor.
00:02:50Warum glaubt ihr,
00:02:51wollen wir nicht,
00:02:52dass die Leute die KI beleidigen?
00:02:55Okay, wir wollen, dass sie es als etwas Gutes wahrnehmen.
00:02:57Aber wir als Programmierer sollten da so eine Art besondere Einsicht haben,
00:03:00oder?
00:03:01Okay,
00:03:01hey,
00:03:02für alle meine Pro-KI-Leute da draußen,
00:03:03ich werde nicht mal was Negatives sagen.
00:03:05Man kann die KI nicht einfach nur bitten,
00:03:07etwas zu tun,
00:03:08oder?
00:03:08Es gibt eine Menge Planung, die man machen muss.
00:03:11Man hat,
00:03:11ihr nennt es Context Engineering,
00:03:13Prompt Engineering,
00:03:14was auch immer für ein Engineering da draußen vor sich geht,
00:03:16oder?
00:03:17Es ist nicht so einfach wie: "Hey,
00:03:19mach das für mich." Und dann,
00:03:20weil das manchmal funktioniert,
00:03:21manchmal überhaupt nicht funktioniert,
00:03:23oder?
00:03:24Das ist Teil des Problems.
00:03:25Wir,
00:03:25die Leute,
00:03:26die damit experimentiert haben,
00:03:28verstehen dieses Problem.
00:03:29Der Durchschnittsmensch bekommt genau diese Erfahrung hier.
00:03:32Das ist also so ein kleines Microsoft-Finder-Ding,
00:03:34mit dem man durch das System suchen kann.
00:03:36Schaut, was es sagt.
00:03:37"Versuche: Mein Mauszeiger ist zu klein." Okay,
00:03:40du bist also eine Oma.
00:03:42Du weißt nichts über KI.
00:03:43Du wirst hier reingehen und eintippen:
00:03:46"Mein Mauszeiger ist zu klein."
00:03:48Was ist passiert?
00:03:49Nun,
00:03:50du sitzt da und dann sitzt du weiter da und nichts passiert.
00:03:54Nichts passiert.
00:03:55Es sitzt einfach nur da.
00:03:56Und das ist die Erfahrung,
00:03:57die der Durchschnittsmensch macht.
00:03:58Sie haben diese irgendwie aufgedrängte KI-Erfahrung überall in der durchschnittlichen Windows-Erfahrung.
00:04:04Und es funktioniert einfach nur halbherzig.
00:04:07Manchmal funktioniert es.
00:04:08Manchmal nicht.
00:04:09Die Leute sagen: "Ja,
00:04:10das ist schlampig." Das ist es,
00:04:11was schlampig bedeutet.
00:04:12Wir nennen es Slop, weil es das ist, was es ist.
00:04:16Aber ich denke,
00:04:17es gibt so eine Art Umkehrung dieses Arguments,
00:04:19das nicht nur so ist: "Hey,
00:04:20du solltest es nicht mehr Slop nennen." Ich denke,
00:04:22die durchschnittliche Erfahrung der Leute,
00:04:24besonders von Leuten,
00:04:25die mehr online sind,
00:04:26ist,
00:04:26dass sie all diese Thought Leaders haben,
00:04:28oder?
00:04:29Sie sagen dir ständig: "Hey,
00:04:30Bruder,
00:04:30du liegst falsch." Wie: "Hey,
00:04:32ich weiß,
00:04:32du sitzt da drüben und hast Code generiert." Und du so: "Oh,
00:04:35das war wirklich gut.
00:04:36Okay, das war wirklich schlecht.
00:04:37Okay,
00:04:37ich mag es aus diesen Gründen nicht wirklich,
00:04:38aber ich mag es aus diesen Gründen",
00:04:39oder?
00:04:40Du hast eine nuancierte,
00:04:41normale Meinung,
00:04:42weil du nuanciert und normal bist.
00:04:44Aber dann siehst du all dieses Zeug auf Twitter,
00:04:46das dir ständig sagt: "Alter,
00:04:48Bruder,
00:04:48es ist vorbei.
00:04:49Oh mein Gott.
00:04:50Schau dir das an,
00:04:51ein Jahr Arbeit in einer Stunde erledigt.
00:04:53"Also sind die Erwartungen der Leute einfach so realitätsfern."
00:04:56Und ich denke,
00:04:57es gab in meinem ganzen Leben kein schlimmeres Beispiel als diesen Tweet hier.
00:05:03Ich werde ihn für euch vorlesen.
00:05:04"Ich mache keine Witze.
00:05:05Das ist nicht lustig." Okay, ernster Tweet, Leute.
00:05:08Wir machen jetzt nicht...
00:05:09Hey, das ist keine Seifenoper, okay?
00:05:10Das ist die große Sache.
00:05:11"Wir haben seit letztem Jahr versucht,
00:05:13verteilte Agentenorchestratoren bei Google zu bauen.
00:05:15Es gibt verschiedene Optionen und nicht jeder ist sich einig.
00:05:18Ich habe Claude Code eine Beschreibung des Problems gegeben.
00:05:20Es hat alles,
00:05:21was wir letztes Jahr gebaut haben,
00:05:22in einer Stunde generiert." Also,
00:05:24was liest man da offensichtlich?
00:05:26Man liest zwei Dinge.
00:05:27Erstens,
00:05:28diese leitende Ingenieurin und ihre Gruppe müssen A,
00:05:31inkompetent sein,
00:05:32weil mehrere Leute ein Jahr gebraucht haben und es in Claude in einer Stunde reproduziert wurde.
00:05:38Okay, ich muss so sein: Bruder, das ist irgendwie verrückt.
00:05:42Das klingt irgendwie so...
00:05:43Was für eine Inkompetenz läuft da bei Google ab?
00:05:45Ich weiß,
00:05:46Google ist nicht mehr die Bastion des Engineerings,
00:05:48die es einmal war,
00:05:48aber das kann nicht stimmen,
00:05:49oder?
00:05:50So kann man das nicht verstehen.
00:05:51Natürlich ist die andere Art,
00:05:53das zu interpretieren,
00:05:55dass Claude Code so erstaunlich ist.
00:05:57Habe ihm buchstäblich eine kleine Beschreibung des Problems gegeben und bada-bing,
00:06:02bada-boom.
00:06:02Dein ganzes Jahr voller Mühe in einer Stunde gelöst und vielleicht 50 Dollar für Tokens.
00:06:09Nun,
00:06:10dieser Tweet allein,
00:06:11ich kann mir die Menge an Panik und Problemen nicht vorstellen,
00:06:13die ich hatte,
00:06:14ich hatte tatsächlich mehrere Leute,
00:06:16die sich wegen dieser einen Sache gemeldet haben und mir Fragen gestellt haben: Ist es eigentlich noch sicher zu lernen?
00:06:21Ich sollte wahrscheinlich einfach aufhören zu lernen, oder?
00:06:23Ich sollte einfach Vibe-Coden.
00:06:24Ich sollte damit aufhören,
00:06:24weil es offensichtlich das Beste überhaupt ist.
00:06:26Dieser Tweet ruiniert Karrieren im Leben der Leute.
00:06:30Das Schlimmste an diesem Tweet: 28 Stunden später bekommen wir das hier.
00:06:34Um das Rauschen zu diesem Thema zu durchbrechen,
00:06:36ist es hilfreich,
00:06:37etwas mehr Kontext zu geben.
00:06:38Ja, oh, okay, okay, okay.
00:06:40Vielleicht war der Tweet von vorher nicht ganz so genau,
00:06:42wie man uns glauben machen wollte.
00:06:44Wir haben letztes Jahr mehrere Versionen des Systems gebaut.
00:06:46Es gibt Kompromisse und es gab keinen klaren Gewinner.
00:06:49Wenn man Coding-Agenten mit den besten Ideen füttert,
00:06:51die überlebt haben,
00:06:52können sie sehr weit gehen und in etwa einer Stunde eine gute,
00:06:55anständige Spielzeugversion generieren.
00:06:57Okay, jetzt ist es also nicht eine Stunde.
00:07:00Es könnte anderthalb Stunden sein.
00:07:01Es könnten 45 Minuten sein.
00:07:02Es ist einfach irgendein Zeitraum.
00:07:03Okay,
00:07:04der Zeitrahmen ändert sich ein bisschen,
00:07:06aber hauptsächlich eine anständige Spielzeugversion.
00:07:08Wenn ich Spielzeugversion höre,
00:07:09höre ich nicht das,
00:07:10was ich letztes Jahr gebaut habe.
00:07:11Ich höre einen Schatten dessen,
00:07:13was gebaut wurde,
00:07:14etwas,
00:07:14das irgendwie so aussieht,
00:07:16aber nichts damit zu tun hat.
00:07:18Außerdem,
00:07:18obendrein,
00:07:19als es mit den besten Ideen gefüttert wurde,
00:07:21die überlebt haben,
00:07:22also lass mich das klarstellen: nicht nur die Beschreibung des Problems,
00:07:25du hast also nicht mal,
00:07:26das Ganze war eine Lüge,
00:07:27richtig?
00:07:28Denn du hast gesagt, die Beschreibung des Problems.
00:07:29Ich habe ihnen nur die Beschreibung gegeben.
00:07:30Nein,
00:07:31du hast ihm einen Haufen Ideen gegeben,
00:07:33für die du ein Jahr lang geforscht hast.
00:07:35Du hast wahrscheinlich ein richtig fantastisches technisches Dokument über all diese Sachen erstellt und es dann an Claude Code verfüttert und warst dann so: Oh mein Gott,
00:07:41es hat etwas von dem erstellt,
00:07:42was wir gerade gesagt haben,
00:07:43dass es erstellen soll,
00:07:44und es hat eine Spielzeugversion davon gemacht.
00:07:46Es ist einfach so,
00:07:47diese Art von Zeug lässt mich AI hassen,
00:07:49richtig?
00:07:50Und das liegt nicht daran,
00:07:51dass AI nicht cool ist oder was auch immer,
00:07:52Textgenerierung,
00:07:53alles super cool.
00:07:53Ich meine, ernsthaft, schau dir dieses Vim-Logo an, okay?
00:07:56Dafür wurde jetzt ein Wald niedergebrannt,
00:07:59aber es ist dieses Übertreiben.
00:08:02Und das bedeutet einfach,
00:08:04jedes Mal,
00:08:04wenn ich AI verwende,
00:08:06ist meine Erwartung so hoch,
00:08:08aber meine Realität so viel anders.
00:08:11Ich habe kürzlich etwa neun Stunden am Stück Vibe-Coding gemacht und versucht,
00:08:14so eine CloudFlare-Anfängeranwendung neu aufzubauen.
00:08:17Einmal einen Worker und einen Container.
00:08:19Ich habe dafür etwa 75 bis 100 Dollar ausgegeben.
00:08:22Von neun Stunden habe ich etwas bekommen,
00:08:23das in vielleicht 15 Minuten generiert werden könnte,
00:08:26wenn man sich auskennt.
00:08:27Und zugegeben,
00:08:27hey,
00:08:28Prompt-Probleme,
00:08:29ich habe Planung verwendet,
00:08:30ich habe Opus 4.5 Max verwendet.
00:08:32Ich habe wirklich viele Fragen gestellt.
00:08:34Es ist oft entgleist.
00:08:36Weißt du,
00:08:36vielleicht habe ich das Falsche gemacht,
00:08:38was auch immer.
00:08:39Es spielt keine Rolle.
00:08:40Ich habe etwas gemacht und hatte ein okay Ergebnis.
00:08:42Es gibt einige Teile davon, die ich wirklich mochte.
00:08:44Es gibt einige Teile, die ich nicht mochte.
00:08:45Es gibt Teile von CloudFlare,
00:08:46mit denen ich nicht vertraut bin und bei denen es mir etwa eine Stunde Recherche erspart hat.
00:08:50Es gibt Teile,
00:08:50mit denen ich vertraut war,
00:08:51und es hat einfach einen schrecklichen Job gemacht.
00:08:53Und so ist es wie: Hey, das war eine coole Erfahrung.
00:08:55Ich habe viel gelernt.
00:08:56Ich weiß mehr Dinge darüber,
00:08:57aber das war nicht: Oh mein Gott,
00:08:59es hat alles gemacht,
00:09:00was ich in einem Jahr gemacht habe,
00:09:01und hat alles komplett ausgelöscht.
00:09:03Es ist eher so: Hey, es gibt einen Haufen scharfer Kanten.
00:09:05Es gibt einige coole Teile.
00:09:06Es gibt einige nicht so coole Teile.
00:09:07Ich verstehe einfach nicht,
00:09:08warum die Leute es weiterhin als etwas Fantastisches verkaufen wollen.
00:09:12Es würde buchstäblich so viele Leute dazu bringen,
00:09:14aufzuhören,
00:09:15Sachen Slop zu nennen,
00:09:16und einfach zu sagen: Oh ja,
00:09:17ja,
00:09:18man muss damit vorsichtig sein,
00:09:19richtig?
00:09:19Wie ja,
00:09:20wir würden einfach normal darüber reden,
00:09:22wenn wir nicht ständig so aufgehypt würden.
00:09:24Ich habe es so satt,
00:09:25dass meine Erwartungen hier sind und meine Realität hier ist.
00:09:29Wie auch immer, ich wollte einfach darüber reden.
00:09:30Tut mir leid.
00:09:31Ich fühle mich einfach frustriert von dem Ganzen,
00:09:33weil ich einfach das Gefühl habe,
00:09:35dass diese letzten zwei Wochen auf Twitter nichts anderes waren als die verrückteste Menge an Claude-Code-Lobhudelei in meinem ganzen Leben.
00:09:42Ich habe die TUI-App benutzt.
00:09:43Es gab einfach,
00:09:43ich meine,
00:09:44ich bin auf so viele kleine Bugs gestoßen,
00:09:46was auch schockierend ist.
00:09:47Flackern,
00:09:47Ultra Think wird nicht mal richtig mit dem Regenbogen eingefärbt.
00:09:52Es ist einfach, Mann.
00:09:54Ich meine, das sind nicht mal, ich meine, was ist hier los?
00:09:57Wenn AGI gelandet ist,
00:09:58hätte ich gerne eine funktionierende TUI-App,
00:10:01okay?
00:10:01Das Scrollen, das Scrollen funktioniert nicht mal richtig.
00:10:03Das Strg+O funktioniert nicht richtig.
00:10:05Man kann nicht mit Strg+O öffnen oder erweitern.
00:10:07Ich meine,
00:10:07es gab einfach so viele Probleme,
00:10:09aber nochmal,
00:10:10es könnten Skill-Probleme meinerseits sein.
00:10:12Der Name ist das Skill-Problem, Wijin.
00:10:15Hast du außerdem eine Sache bemerkt?
00:10:17Warum reden Kommunisten und Leute,
00:10:20die super begeistert von AI sind,
00:10:22immer gleich?
00:10:23Die sind immer so: Oh,
00:10:24na ja,
00:10:24du hast es eigentlich nicht richtig gemacht.
00:10:26Siehst du,
00:10:26das Problem war,
00:10:27du hast es eigentlich,
00:10:28siehst du,
00:10:28du hast es nicht richtig gemacht.
00:10:29Es ist einfach so: Okay,
00:10:30wir sind alle beim No-True-Scotsman hier.
00:10:32Das war mir nicht klar.
00:10:33Jede schlechte Erfahrung ist ein No True Scotsman.
00:10:35Jede gute Erfahrung ist: Ja,
00:10:36deshalb werden all die Verlierer zurückgelassen.
00:10:39Ich verstehe es nicht.
00:10:40Ich weiß nicht.
00:10:40Sorry für das Extra, tschüss tschüss.
00:10:42Hey, willst du lernen, wie man programmiert?
00:10:43Willst du ein besserer Backend-Entwickler werden?
00:10:45Dann musst du dir boot.dev anschauen.
00:10:47Also, ich persönlich habe ein paar Kurse von ihnen gemacht.
00:10:49Ich habe Live-Walkthroughs,
00:10:50kostenlos verfügbar auf YouTube,
00:10:52des gesamten Kurses,
00:10:53alles auf boot.dev.
00:10:54Du kannst es kostenlos durchgehen,
00:10:56aber wenn du die gamifizierte Erfahrung willst,
00:10:58das Tracking deines Lernens und all das,
00:11:00dann musst du Geld bezahlen,
00:11:01aber hey,
00:11:01schau sie dir an.
00:11:02Es ist großartig.
00:11:03Für alle Content-Creator,
00:11:04die du kennst und magst,
00:11:06die dort Kurse machen,
00:11:07boot.dev/prime für 25% Rabatt.

Key Takeaway

Der Hauptkritikpunkt ist, dass die massive Übertreibung der KI-Fähigkeiten durch Tech-Leader und die Diskrepanz zwischen Hype und Realität dazu führt, dass Menschen KI-Produkte als 'Slop' bezeichnen, anstatt dass Unternehmen einfach bessere Produkte liefern.

Highlights

Der CEO von Microsoft fordert dazu auf, den Begriff 'Slop' für KI-generierte Inhalte nicht mehr zu verwenden, was zu einer Debatte über die Qualität von KI-Produkten führt

Ein Google-Ingenieur behauptete, Claude Code habe ein Jahr Arbeit in einer Stunde reproduziert, musste aber später zugeben, dass es nur eine 'Spielzeugversion' mit umfangreichen Vorgaben war

Die Diskrepanz zwischen übertriebenen KI-Versprechungen und der tatsächlichen Benutzererfahrung führt zu Frustration und unrealistischen Erwartungen

Der Sprecher beschreibt seine 9-stündige Coding-Erfahrung mit KI, die 75-100 Dollar kostete und etwas produzierte, das manuell in 15 Minuten hätte erstellt werden können

Microsoft hat Office 365 in Co-Pilot umbenannt, was zeigt, wie sehr das Unternehmen KI in alle Produkte integrieren möchte

KI-Befürworter verwenden oft 'No True Scotsman'-Argumente, um schlechte Erfahrungen als Benutzerfehler abzutun, während sie gute Erfahrungen als Beweis für KI-Überlegenheit präsentieren

Timeline

Microsofts LinkedIn-Post und die 'Slop'-Debatte

Der Sprecher beginnt humorvoll mit einem Verweis auf seinen Bart und kündigt dann an, über einen LinkedIn-Post des Microsoft-CEO Satya Nadella zu sprechen. In diesem Post reflektiert Nadella über die Zukunft der Branche und verwendet KI-inspirierte Sprache über 'Fahrräder für den Geist' und KI als 'Gerüst für menschliches Potenzial'. Der Sprecher verspottet den Post als offensichtlich von ChatGPT generiert und weist auf die bemerkenswerteste Zeile hin: Nadella fordert dazu auf, 'über die Argumente von Slop versus Raffinesse hinauszugehen'. Diese Aussage impliziert, dass Menschen aufhören sollen, KI-generierte Inhalte negativ zu bewerten, was die zentrale Debatte des Videos einleitet.

Das grundlegende Problem mit der Anti-Slop-Forderung

Der Sprecher präsentiert sein Hauptargument: Wenn ein Produkt wirklich gut ist, muss man niemanden bitten, es nicht zu beleidigen. Menschen bezeichnen gute Produkte nicht mit Schimpfwörtern, sondern nur Dinge, die tatsächlich problematisch sind. Er argumentiert, dass die durchschnittliche Benutzererfahrung mit KI-Produkten 'wirklich, wirklich schlecht' ist, weshalb der Begriff 'Slop' verwendet wird. Die Lösung sei nicht, Menschen zu bitten, das Wort nicht zu verwenden, sondern tatsächlich bessere Produkte zu liefern. Wenn die Produkte nützlich wären, würden die Leute sie als nützlich bezeichnen, anstatt sie zu kritisieren. Diese logische Argumentation bildet das Fundament für die gesamte Kritik des Videos.

Microsofts KI-Strategie und die Umbenennung zu Co-Pilot

Der Sprecher erklärt Microsofts umfassende Strategie, KI in alle ihre Produkte zu integrieren, indem er die Umbenennung von Microsoft 365 Office zu 'Co-Pilot' hervorhebt. Co-Pilot ist jetzt nicht nur ein Feature, sondern die gesamte Office-Suite, das Tool für Textdokumente, das System auf GitHub für Pull Requests, und die Autovervollständigung in VS Code. Diese Rebranding-Strategie zeigt, warum Microsoft so dringend möchte, dass Menschen positiv über KI sprechen - sie haben ihre gesamte Produktpalette darauf ausgerichtet. Der Sprecher deutet an, dass dies der Grund ist, warum Nadella die öffentliche Wahrnehmung von KI als kritisch für das Geschäft ansieht.

Die Realität der KI-Nutzung für Programmierer

Der Sprecher wendet sich direkt an 'Pro-KI-Leute' und erklärt, dass selbst sie verstehen sollten, dass KI nicht einfach funktioniert, wenn man sie nur bittet, etwas zu tun. Es gibt umfangreiche Planung, 'Context Engineering', 'Prompt Engineering' und verschiedene andere Formen des 'Engineering', die erforderlich sind. Das Problem ist, dass es nicht so einfach ist wie 'Hey, mach das für mich' - manchmal funktioniert es, manchmal überhaupt nicht. Programmierer, die mit KI experimentiert haben, verstehen diese Problematik. Der durchschnittliche Benutzer hingegen bekommt eine frustrierende Erfahrung, was er am Beispiel eines Windows-Suchfelds demonstriert, das mit der Aufforderung 'Mein Mauszeiger ist zu klein' einfach hängen bleibt und nichts tut.

Die halbherzige KI-Integration in Windows

Der Sprecher beschreibt die durchschnittliche Windows-Benutzererfahrung, bei der KI-Features überall aufgedrängt werden, aber nur halbherzig funktionieren. Ein typisches Szenario: Eine ältere Person ('Oma'), die nichts über KI weiß, tippt in das Microsoft-Suchfeld 'Mein Mauszeiger ist zu klein' und dann passiert einfach nichts - das System sitzt nur da. Diese inkonsistente Funktionalität - manchmal funktioniert es, manchmal nicht - ist genau das, was Menschen als 'Slop' bezeichnen. Der Sprecher argumentiert, dass dies die berechtigte Reaktion auf ein schlecht implementiertes Produkt ist. Die Bezeichnung 'Slop' ist nicht unfair, sondern eine genaue Beschreibung der Erfahrung, die durchschnittliche Benutzer machen.

Der verheerende Google/Claude-Code-Tweet

Der Sprecher präsentiert einen Tweet einer Google-Ingenieurin, der behauptete, Claude Code habe in einer Stunde reproduziert, was ihr Team bei Google ein ganzes Jahr lang an verteilten Agentenorchestratoren gebaut hatte. Dieser Tweet wird als 'nicht lustig' und 'ernst' präsentiert. Der Sprecher analysiert, dass man daraus zwei Dinge lesen kann: Entweder sind die Google-Ingenieure inkompetent (was angesichts von Googles Ruf unwahrscheinlich ist), oder Claude Code ist unglaublich erstaunlich. Der Tweet schafft unrealistische Erwartungen und verursacht echten Schaden - der Sprecher berichtet, dass mehrere Menschen ihn kontaktiert haben und fragten, ob es noch sicher sei zu lernen, oder ob sie einfach aufhören und nur noch 'Vibe-Coding' machen sollten. Er beschreibt diesen Tweet als karriere- und lebensruinierend für Menschen, die gerade lernen.

Die Enthüllung: Es war eine 'Spielzeugversion'

28 Stunden nach dem ursprünglichen Tweet veröffentlichte die Ingenieurin ein Follow-up mit 'mehr Kontext'. Es stellt sich heraus, dass es nicht genau eine Stunde war, sondern 'etwa eine Stunde', und nicht eine vollständige Reproduktion, sondern nur eine 'anständige Spielzeugversion'. Noch wichtiger: Sie hatte Claude Code nicht nur eine Problembeschreibung gegeben, sondern 'die besten Ideen, die überlebt haben' aus einem Jahr Forschung - wahrscheinlich ein detailliertes technisches Dokument. Der Sprecher ist empört über diese Täuschung: Der ursprüngliche Tweet suggerierte, dass eine einfache Problembeschreibung ausreichte, aber tatsächlich wurden umfangreiche Forschungsergebnisse eingegeben, um eine minderwertige Version zu erstellen. Dies zeigt die Unehrlichkeit in der Darstellung von KI-Fähigkeiten.

Warum übertriebene KI-Versprechungen zu Hass führen

Der Sprecher erklärt, dass solche übertriebenen Behauptungen ihn 'AI hassen' lassen - nicht weil die Technologie selbst nicht cool ist (Textgenerierung ist 'super cool'), sondern wegen des ständigen Übertreibens. Er zeigt ein Vim-Logo als Beispiel und scherzt, dass dafür 'ein Wald niedergebrannt' wurde. Das Hauptproblem ist die riesige Kluft zwischen Erwartung und Realität. Jedes Mal, wenn er KI verwendet, sind seine Erwartungen durch solche Tweets extrem hoch gesetzt, aber die Realität ist völlig anders. Diese Diskrepanz schafft Frustration und Enttäuschung. Der Sprecher argumentiert, dass wenn die KI-Community ehrlicher über die Fähigkeiten und Grenzen wäre, würden Menschen viel positiver darüber sprechen.

Persönliche Erfahrung: 9 Stunden Vibe-Coding

Der Sprecher teilt seine eigene jüngste Erfahrung mit intensivem KI-gestütztem Coding: Er verbrachte etwa neun Stunden damit, eine CloudFlare-Anfängeranwendung (einen Worker und einen Container) neu zu erstellen und gab dabei 75 bis 100 Dollar aus. Das Ergebnis war etwas, das manuell in etwa 15 Minuten von jemandem mit Erfahrung hätte erstellt werden können. Er gibt zu, dass es 'Prompt-Probleme' gab und dass er verschiedene Tools verwendete (Planung, Opus 4.5 Max), und dass das Projekt 'oft entgleist' ist. Seine Erfahrung war gemischt: Es gab Teile von CloudFlare, mit denen er nicht vertraut war, und KI ersparte ihm etwa eine Stunde Recherche; aber bei Teilen, mit denen er vertraut war, machte die KI einen 'schrecklichen Job'. Seine Bewertung: eine coole Lernerfahrung, aber definitiv nicht das versprochene Wunder.

Frustration über unrealistischen Hype

Der Sprecher drückt seine tiefe Frustration darüber aus, dass Menschen KI weiterhin als etwas Fantastisches verkaufen wollen, anstatt eine ausgewogene Sichtweise zu präsentieren. Er argumentiert, dass wenn die Community ehrlicher wäre - 'Hey, es gibt scharfe Kanten, es gibt coole Teile, es gibt nicht so coole Teile' - würden die Menschen aufhören, alles als 'Slop' zu bezeichnen und normal darüber sprechen. Das Problem ist der ständige Hype, der die Erwartungen viel höher setzt als die Realität. Er beschreibt die letzten zwei Wochen auf Twitter als 'die verrückteste Menge an Claude-Code-Lobhudelei' seines Lebens und listet konkrete Bugs auf: Flackern, falsche Farbgebung, nicht funktionierendes Scrollen, defekte Strg+O-Funktionalität. Seine ironische Pointe: 'Wenn AGI gelandet ist, hätte ich gerne eine funktionierende TUI-App'.

Vergleich von KI-Befürwortern mit Kommunisten und Schlusswort

Der Sprecher zieht eine provokante Parallele zwischen KI-Enthusiasten und Kommunisten: Beide verwenden das 'No True Scotsman'-Argument, um Kritik abzuwehren. Wenn jemand eine schlechte Erfahrung mit KI hat, heißt es immer 'du hast es nicht richtig gemacht' oder 'du hast es eigentlich nicht richtig gemacht'. Jede schlechte Erfahrung wird als Benutzerfehler abgetan, während jede gute Erfahrung als Beweis dafür präsentiert wird, warum 'all die Verlierer zurückgelassen werden'. Diese unehrliche Diskussionskultur verstärkt die Frustration. Der Sprecher entschuldigt sich für die lange Tirade und schließt mit einem Sponsoring für boot.dev, eine Plattform zum Erlernen von Backend-Entwicklung, mit dem Code 'boot.dev/prime' für 25% Rabatt.

Community Posts

View all posts