00:00:00Und für mich ist Vibe-Design und Vibe-Coding im Grunde das, was Adobe Flash in den letzten zwei Jahrzehnten am nächsten gekommen ist.
00:00:07Das ist Tom Cracker, der CEO von Pencil.
00:00:10Pencil.dev
00:00:11Und das nennt sich Pencil.
00:00:13Eine neue App namens Pencil.
00:00:14Pencil.dev
00:00:15Ich habe das Gefühl, dass wir gerade erst diese neuen Benutzererfahrungen für die Interaktion mit KI entdecken, die es so noch nie gab.
00:00:22Wissen Sie, diese Cursor und das Scannen und all diese Dinge sind nur die Spitze des Eisbergs, da wird noch viel mehr kommen.
00:00:29Wie Banana oder diese Bildgeneratoren, die tolle Fotos erstellen – aber was ist mit Illustrationen?
00:00:34Ich glaube, Illustrationen werden in der zweiten Hälfte des Jahres 2026 ein riesiges Thema sein.
00:00:39Gibt es spezifische Modelle, die beim Design deutlich besser sind als andere?
00:00:45Ich denke, mein Favorit ist...
00:00:48Ich stelle dir erst mal eine kleine Kennenlern-Frage.
00:00:51Früher warst du sehr vertraut mit Adobe Flash.
00:00:54Kannst du heute noch ActionScript?
00:00:56Ja, absolut. Ich bin quasi mit Flash aufgewachsen.
00:00:59Das war mein Einstieg in die Tech-Welt. Mit Photoshop habe ich schon angefangen, als ich sieben war.
00:01:09Später hatten meine Eltern eine Designagentur, also hing ich nach der Schule immer dort bei den Designern rum. Sie brachten mir alles Mögliche bei, von Photoshop und Illustrator bis hin zu CorelDRAW – damals alles für Printdesign.
00:01:26Dann kam Ende der 90er das Internet auf und ich begann mich für interaktive Sachen zu interessieren. Ich habe mich in HTML reingefuchst, damals noch DHTML und all das, ist lange her. Dann kam Flash, ich glaube Version 3.
00:01:45Ich dachte nur: Wow, heiliger Strohsack, was ist das denn?
00:01:48Es bewegt sich, es ist animiert, es hat Ton und all diese Dinge.
00:01:55Ich habe mich sofort in Flash verliebt, habe angefangen Websites damit zu bauen und schließlich sogar einen Preis bei einer Konferenz namens Junior Internet in Prag gewonnen.
00:02:07Wenn man Leute aus Prag fragt, die sich an Junior Internet erinnern – das war der Karrierestart für viele. Schließlich wurde Flash zur einzigen Möglichkeit, Videos online zu streamen.
00:02:25Also fing ich an, Videoplayer für alle möglichen Nachrichtensender und so weiter zu bauen.
00:02:29Das war mein Einstieg bei Adobe, weil wir viele Flash Media Server nutzten. Adobe bemerkte das und bot mir schließlich einen Job als Flash-Evangelist an.
00:02:44So fing alles an. Später baute ich Designtools, sprach auf Designkonferenzen und tauschte mich mit unzähligen Designern aus.
00:02:55Das war im Grunde der Ursprung meiner Geschichte.
00:02:59Ich habe auch ein paar Videos von dir bei Konferenzen auf Gaming-Events gesehen.
00:03:06Hast du mit Adobe auch Spiele entwickelt?
00:03:09Ja, auf jeden Fall.
00:03:10Flash wurde für viele interaktive Sachen genutzt, auch für Gaming. Schließlich wurde ich so etwas wie ein Gaming-Evangelist bei Adobe und half Firmen, ihre Apps oder Spiele auf Flash zu bringen.
00:03:26Ich war Sprecher auf verschiedenen Gaming-Konferenzen, sprach mit vielen Entwicklern und half ihnen, Spiele nach Flash zu portieren – ein berühmtes Beispiel ist Machinarium.
00:03:40Das war eines der ersten Spiele, die über Adobe Air von Flash auf iOS portiert wurden. Es war ein Durchbruch: Flash lief plötzlich auf einem iPad.
00:03:55Das war ein großer Moment.
00:03:56Es wurde zum Spiel des Monats oder zur App des Monats im Apple App Store und wurde wahnsinnig populär.
00:04:04Warst du damals auch Teil der Newgrounds-Community?
00:04:08Nein, was ist das?
00:04:11Newgrounds war die Website, auf der alle Flash-Games und Flash-Filme gelistet waren.
00:04:18Lange vor YouTube war das extrem beliebt.
00:04:21Ich dachte, das wäre Miniclip gewesen.
00:04:23Oh, an Miniclip erinnere ich mich.
00:04:24Miniclip war eher mein Ding.
00:04:28Aber ich habe damals ganze Tage auf Websites wie FWA verbracht, falls ihr euch erinnert.
00:04:35Aber jetzt reisen wir wirklich weit zurück in die Geschichte des Internets und des interaktiven Webs.
00:04:43Ich schätze, das waren die frühen Bausteine, die schließlich zu Pencil führten.
00:04:49Aber du hast auch ein Skript oder Tool namens DrawScript für Illustrator gebaut.
00:04:55Kannst du darüber etwas erzählen?
00:04:56Klar, DrawScript war ein Plugin für Illustrator, mit dem man Zeichnungen im Grunde in JavaScript umwandeln konnte. Man konnte das dann nehmen und es hat alles, was man gezeichnet hatte, in Code nachgezeichnet.
00:05:18Das war die Grundidee.
00:05:19Ich habe ein wenig zu deinem Weg vom Design zum Code recherchiert. Wir können deine Karriere gerne überspringen, aber was hat dich dazu gebracht, Designs codifizierbar machen zu wollen?
00:05:35Was war der Auslöser für diesen Wunsch?
00:05:37Nun, es gab damals einfach keine Lösung, um Zeichnungen in Code zu übertragen.
00:05:45Man wollte Icons und andere Dinge haben, aber SVG war zu der Zeit sehr limitiert oder wurde kaum unterstützt. Aber man wollte bestimmte Dinge direkt auf das HTML-Canvas zeichnen.
00:06:04Und dieses Tool hat genau das ermöglicht. Sobald es in Code vorlag, konnte man es interaktiv machen, zum Beispiel für Spiele verwenden.
00:06:15Man konnte damit arbeiten, es bewegen und für Animationen oder andere Dinge nutzen.
00:06:23Das war sozusagen der Türöffner dafür.
00:06:29Während deiner Zeit bei Adobe hast du auch an Adobe XD gearbeitet.
00:06:34Was war die ursprüngliche Vision dahinter?
00:06:36Sollte es Dreamweaver ersetzen oder wie ist XD entstanden?
00:06:42Das war zu einer Zeit, als es Sketch gab und Photoshop auch viel für Websites und so weiter genutzt wurde.
00:06:54Aber uns wurde klar, dass es toll wäre, ein völlig frisches Angebot zu haben, das genau für diesen Zweck entwickelt wurde: das Designen von Websites und Apps, besonders in der Ära, als jeder mobile Apps baute.
00:07:12Wir wollten die Dinge wirklich neu betrachten und bei Null anfangen.
00:07:18Was würde es bedeuten, wenn wir komplett bei null anfangen könnten? Wir legten Prinzipien fest: Es sollte leichtgewichtig, zugänglich und schnell sein – und man sollte Unmengen an Zeichenflächen erstellen können.
00:07:35In Photoshop hatte man anfangs oft nur ein einzelnes Element. Aber was man wirklich wollte, war, den gesamten Flow über all diese verschiedenen Screens hinweg darzustellen.
00:07:49Adobe XD war das Werkzeug, das genau das ermöglichte; es war für diesen speziellen Zweck konzipiert.
00:07:54Prototyping war ebenfalls ein Teil davon.
00:07:57Man konnte Screens miteinander verknüpfen, scrollbare Bereiche hinzufügen und so weiter.
00:08:03Genau.
00:08:05Ich mache hier einen kleinen Sprung direkt zu Pencil. Es ist spannend, deinen Weg von Adobe bis zum Bau dieses Tools zu sehen, das XD ähnelt, aber viel KI nutzt.
00:08:17Ab wann wurde dir die Macht von LLMs und Agenten bewusst?
00:08:24Es gab dazwischen ein paar Startups, aber schließlich fing ich an, mich mit Cursor, Claude Code und all diesen Dingen zu beschäftigen, wie fast jeder gerade. Ich baute eigentlich etwas anderes, aber während ich Cursor nutzte, dachte ich: "Mein Gott, wie erkläre ich dem LLM, wie dieser Button aussehen soll, den ich im Kopf habe?"
00:08:52Oder: "Da ist eine Navigationsleiste, die oben fixiert sein soll, und darin befinden sich diese Buttons."
00:09:00Ich fühlte mich, als würde ich den LLMs ganze Aufsätze schreiben, um etwas zu beschreiben, das ich eigentlich visuell vor Augen hatte.
00:09:09Ich sah mich um, aber es gab keine wirkliche Lösung.
00:09:11Ich habe den VS Code Marketplace und andere Ecken durchsucht, aber es gab nichts, wo man einfach etwas zeichnen und dem LLM sagen konnte: "Mach das."
00:09:23Das war noch vor der Zeit der MCPs und all dem. Die ursprüngliche Idee war: Ich habe dieses JSON-Format, und LLMs sind extrem gut darin, strukturierte Daten zu lesen und sie in jede Art von Code zu verwandeln.
00:09:38Also baute ich einen Prototyp und veröffentlichte ihn.
00:09:41Das war im Mai 2025 und es ging viral.
00:09:45Es erreichte über eine Million Aufrufe in den sozialen Medien: etwa 850.000 auf X und ich glaube 400.000 auf LinkedIn.
00:09:53Da dachte ich: Wow, das scheint nicht nur mein Problem zu sein. Andere Leute wollen das wohl auch und brauchen diese Unterstützung.
00:10:03Niemand bot damals wirklich diese Brücke von einer schnellen visuellen Skizze hin zu fertigem Code an.
00:10:10Nachdem ich es gebaut hatte, kamen mir all diese anderen Ideen. Mir wurde klar: Ich kann diese Designs ja eigentlich auch generieren lassen.
00:10:23Es geht nicht nur darum, dass ich etwas zeichne, sondern ich kann dem LLM sagen: "Hey, zeichne mir das hier" oder "Generiere mir dies und jenes."
00:10:30An diesem Punkt merkte ich: Wir stehen an der Schwelle zum "Vibe-Designing".
00:10:39War diese Demo der "Design-Modus für Cursor", die so viral ging?
00:10:42Ja, sie hieß "Design Mode for Cursor".
00:10:45Genau, und im Grunde haben wir das immer noch.
00:10:49Es ist wie eine Leinwand innerhalb aller VS-Code-basierten IDEs, also Cursor, Windsurf, Digravity und so weiter.
00:10:59Im Grunde ist es ein visueller Custom Editor direkt in deiner IDE.
00:11:07Man kann darin machen, was man will. Man kann etwas auf der Leinwand auswählen und es entweder in den Chat kopieren – dann gibt es einen Link – oder man zeigt einfach darauf, und das Tool weiß, was ausgewählt ist.
00:11:21Es fängt dann an, Informationen daraus zu ziehen und sie in was auch immer man möchte zu verwandeln.
00:11:28Es spielt keine Rolle, ob man React oder eine andere Library nutzt; es ist eine technologie- und framework-unabhängige Darstellung, mit der man schnell Ideen entwickeln und umsetzen kann.
00:11:45Bedeutet das, dass es reines CSS nutzt oder integriert es Bibliotheken wie Tailwind oder shadcn?
00:11:52Man kann wählen, was man will. Unter der Haube ist es nur strukturiertes JSON, das das Aussehen des Designs definiert. Wir haben einige Regeln für die Konvertierung in Tailwind und ähnliches integriert.
00:12:10Aber man kann auch eigene Regeln schreiben, die spezifisch zur eigenen Codebasis passen. Diese sogenannte "Pen-Datei" liegt direkt in deinem Git-Repo.
00:12:23Jeder Entwickler und jeder KI-Agent hat also direkten Zugriff darauf und kann sie in das gewünschte Format umwandeln.
00:12:32Man kann sich also sein eigenes Regelwerk drumherum bauen und es wirklich anpassen.
00:12:39Ich denke, das ist der entscheidende Punkt.
00:12:41Als ich Pencil zum ersten Mal benutzt habe, fand ich es magisch. Ich versuche zu verstehen, wie es technisch hinter den Kulissen funktioniert.
00:12:49Ich habe die JSON-Daten in der Pen-Datei gesehen, aber ich verstehe nicht, wie es das in eine interaktive UI übersetzt, in der ich Boxen ziehen und Hintergrundfarben ändern kann.
00:13:01Und gleichzeitig kann der Agent es verstehen und genau dasselbe tun.
00:13:05Wie bist du auf diese Kombination gekommen, bei der Mensch und Agent an derselben Datei designen?
00:13:12Da spielen mehrere Dinge zusammen. Wir wollten eine extrem vertraute Umgebung schaffen, in der man sich ab der ersten Minute zurechtfindet.
00:13:23Man öffnet es und weiß sofort: "Okay, ich kann hier zoomen, mich auf der Leinwand bewegen."
00:13:29An der Seite sind die Eigenschaften, auf der anderen das Ebenen-Panel – wir wollten es einfach so vertraut wie möglich machen.
00:13:36Gleichzeitig eröffnete es neue Möglichkeiten, die vorher niemand wirklich gelöst hatte, wie zum Beispiel: "Wie chatte ich eigentlich mit dem Design?"
00:13:47Das gab uns viele Chancen für Innovationen. Das Neueste, was wir in dem Video gezeigt haben, war dieser Schwarm von Agenten, die wie ein Orchester gemeinsam am Design arbeiten.
00:14:02Und ehrlich gesagt gibt es da noch so viel mehr Potenzial.
00:14:10Ich entdecke jeden Tag neue Dinge, die vorher unmöglich waren, einfach weil neue Modell-Releases der LLMs ständig neue Türen öffnen.
00:14:24Außerdem kommen uns ständig neue Ideen durch den Austausch mit Nutzern und wie sie mit dem Tool interagieren.
00:14:32Jetzt wollen sie es zum Beispiel fernsteuern und alles Mögliche – da geht noch so viel mehr.
00:14:39Es ist fast schon wahnsinnig.
00:14:40Mich würde interessieren, mit welchem Modell du angefangen hast bzw. wann dir klar wurde, dass Modelle tatsächlich gut im Design sein könnten – die ersten waren ja nicht so toll.
00:14:50Ich glaube, sie haben dann angefangen, gezielt Design-Daten in das Training einzubeziehen.
00:14:54Ja, es gibt immer noch eine Lücke.
00:14:57Aber es wird mit jedem neuen Modell besser.
00:15:01Ich glaube, wir haben mit Sonnet 3.5 oder 3.7 angefangen.
00:15:10Anfangs musste man der KI noch sehr detailliert sagen, wie die Dinge aussehen sollten.
00:15:18Mittlerweile sind wir an einem Punkt, an dem man einfach sagen kann: "Entwirf eine Website."
00:15:27Und das Ergebnis ist meistens schon ziemlich gut.
00:15:31Der zweite große Wendepunkt in der Entwicklung von Modellen und Agenten war das, was man "Elicitation" nennt – also dass die KI Rückfragen stellt: "Was genau willst du eigentlich?"
00:15:46Das ist im Grunde genau wie das Verhältnis zwischen einem Kunden und einer Agentur. Das Erste, was ein Designer oder Projektmanager tun würde, ist ein Interview, um so viele Infos wie möglich aus dir herauszuholen, damit sie das Richtige bauen.
00:16:10Man kann nicht erwarten, dass die KI alles sofort weiß, auch wenn sie mächtiger wird. Aber dieser Dialog, der jetzt immer mehr mit den Agenten stattfindet, ist ein riesiger Fortschritt.
00:16:22Am Anfang war es so: "Design mir was", es wurde etwas entworfen, und man dachte: "Das wollte ich eigentlich gar nicht."
00:16:29Aber durch den Dialog findet die KI jetzt heraus, was du wirklich willst und wie du es willst.
00:16:34Dadurch kommen die Ergebnisse der Vorstellung immer näher.
00:16:40Das ist ein gewaltiger Unterschied.
00:16:43Ich kann mir vorstellen, dass ihr viele Modelle mit Pencil getestet habt.
00:16:48Gibt es bestimmte Modelle, die beim Design signifikant besser sind als andere?
00:16:54Mein Favorit ist Opus 4.6. Wenn man die Community beobachtet, ist das momentan der Standard, sozusagen der State-of-the-Art für Design.
00:17:10Es funktioniert extrem gut, auch mit strukturierten Daten.
00:17:15Bei Layouts macht es die wenigsten Fehler und so weiter.
00:17:22Bei vielen anderen Modellen müssen wir das Verhalten oft korrigieren.
00:17:28Aber das ist okay. Es geht darum, diese Nuancen zu entdecken und sicherzustellen, dass wir sie korrigieren oder dem Agenten sagen: "Das war falsch, mach noch eine Runde."
00:17:42Dann klappt es meistens. Die einzige Herausforderung bei Opus ist, dass es ziemlich langsam ist, auch wenn es ansonsten fantastisch ist.
00:17:54Echte Magie habe ich zum ersten Mal gespürt, als Composer von Cursor herauskam. Ich dachte nur: Wow, das ist schnell.
00:18:04Es designt quasi so schnell, wie ich darüber nachdenke.
00:18:08Was ich mir für die Zukunft erhoffe, ist natürlich eine noch höhere Qualität.
00:18:19Aber ich hoffe wirklich sehr, dass sich die Labore jetzt auf die Geschwindigkeit konzentrieren.
00:18:24Das passiert ja auch schon mit Cerebras, Spark und all diesen Ansätzen.
00:18:30Ich hoffe einfach, dass die nächste Innovationsphase den Speed in den Fokus rückt, denn als Designer will man im Flow bleiben.
00:18:42Oft ist es wichtiger, viele Iterationen schnell hintereinander zu machen, als es beim ersten Mal perfekt hinzubekommen.
00:18:51Man will in diesen Prozess involviert sein, und schnellere Modelle ermöglichen genau das.
00:18:58Für uns ist das auch ein wichtiger Grundsatz beim Bauen: Wir wollen sicherstellen, dass du im Flow bleibst.
00:19:06Das ist der große Unterschied: Bei anderen Vibe-Coding-Tools schreibst du einen Prompt, gehst einen Kaffee trinken und hoffst zehn Minuten später bei deiner Rückkehr, dass es fertig ist – nur um zu sehen, dass es nicht das ist, was du wolltest.
00:19:19Vibe-Designing ist anders.
00:19:21Man will sehen, wie die Dinge in Echtzeit passieren.
00:19:24Deshalb haben wir diese Cursor eingebaut, die sich bewegen. Man sieht, was gerade passiert und wie das Modell über die Dinge nachdenkt.
00:19:33Es ist extrem wichtig, dem Nutzer gegenüber kommunikativ zu sein, wenn Dinge doch mal etwas länger dauern als erhofft.
00:19:42Aber ich hoffe gleichzeitig, dass die Modelle so schnell werden, dass alles quasi in Echtzeit erscheint.
00:19:49Ein wichtiger Punkt dabei ist die Parallelisierung, die ein riesiger Hebel ist.
00:19:57Vielleicht ist das Modell langsam, aber wenn es mehrere Dinge gleichzeitig tun kann, ist das plötzlich kein Hindernis mehr.
00:20:08Es ist okay, wenn es Zeit braucht, solange man währenddessen an mehreren Bereichen der Leinwand gleichzeitig arbeiten kann.
00:20:17Ich will hier arbeiten, und gleichzeitig muss ich nicht warten, bis der Agent fertig ist.
00:20:23Man kann dem Agenten quasi während der Arbeit "ins Handwerk pfuschen" und ins Design eingreifen, was bei Pencil echt cool ist.
00:20:32Man kann schon anfangen, Dinge umzustrukturieren, während die KI noch arbeitet. Das ist ein Grund, warum Vibe-Designing gegenüber reinem Coding so viel Sinn ergibt.
00:20:45Denn man kann den Code nicht wirklich anfassen, während der Agent daran arbeitet; man könnte alles ruinieren und es würde nicht mehr kompilieren.
00:20:54Aber hier auf der Leinwand ist alles so separiert, dass man einfach loslegen kann.
00:21:01Was mir an Pencil am besten gefällt, ist dein enormes Fachwissen in der Designwelt. Bei vielen modernen Vibe-Coding-Tools habe ich das Gefühl, dass sich die Leute eher fragen: "Können wir das tun?" statt "Sollten wir das tun?"
00:21:10Ich habe schon Vibe-Designer gesehen, die einen schrecklichen Workflow hatten, aber mir gefällt dein Ansatz, den Menschen zu unterstützen, statt ihn zu ersetzen.
00:21:25Das sind die KI-Tools, zu denen ich mich auch hingezogen fühle. Ein sehr cooler Ansatz für Pencil.
00:21:30Ja, absolut. Ich habe mit einigen unserer Nutzer gesprochen, und sie sagen genau das: Es fühlt sich an, als hätten sie jetzt eine Gruppe von Junior-Designern an ihrer Seite, die sie viel schneller und besser orchestrieren können.
00:21:51Früher verbrachte man Stunden mit Handarbeit: das richtige Padding, der perfekte Rand, die passende Schriftgröße und all diese Dinge.
00:22:01Man hat unzählige Stunden damit verschwendet, obwohl man die Vision im Kopf schon längst fertig hatte.
00:22:07Man musste quasi diesen Marathon laufen, um ans Ziel zu kommen. Jetzt kann man einfach sprinten. Da man das Ergebnis vor Augen hat, will man es einfach nur noch materialisieren.
00:22:20Noch mal zurück zu den parallelen Agenten oder parallelen Abläufen: Meinst du damit, dass mehrere Agenten an demselben Design arbeiten, oder dass sie an verschiedenen Designs arbeiten? Was genau bedeutet parallel?
00:22:38Eigentlich alles davon. Es ist ziemlich interessant: Als wir anfingen, uns mit Parallelität zu beschäftigen, ging es erst darum, verschiedene Variationen desselben Designs an unterschiedlichen Stellen der Leinwand zu erkunden.
00:22:53Aber dann fragte ich mich: Warum können nicht mehrere Agenten an derselben Seite arbeiten? Und es ist tatsächlich möglich. Wenn man es gut orchestriert, können sie die Arbeit so aufteilen, dass es keine Konflikte gibt – ganz anders als bei Code.
00:23:15Sie brauchen nur das gleiche Verständnis davon, was erreicht werden soll, und teilen dann die Arbeit auf verschiedene Bereiche der Website auf. Ein Agent übernimmt den Hero-Bereich, einer den Mittelteil und ein dritter den Footer.
00:23:32Man kann also mehrere Agenten pro Seite laufen lassen. Das habe ich auch in der letzten Demo auf X gezeigt, wo zwei Agenten pro Seite an insgesamt drei Seiten gearbeitet haben.
00:23:50Es gibt da ein Paper von Cognition, das besagt, man solle nicht mehrere Agenten gleichzeitig laufen lassen, wegen Kontext-Problemen. Sie hätten nicht alle denselben Überblick. Als Beispiel nannten sie ein Super-Mario-Spiel: Einer baut das Level, einer die Charaktere, aber am Ende passt die Schwerkraft nicht zusammen. Wie hast du das bei Pencil gelöst?
00:24:15Mit Magie. Spaß beiseite, es waren viele Iterationen. Man muss sich da einfach reinknien und immer weiter graben. Und ehrlich gesagt kratzen wir da erst an der Oberfläche, wir zeigen nur die Richtung auf.
00:24:32Es gibt noch so viel zu tun, was den gemeinsamen Kontext und Optimierungen angeht – auch wieder in Bezug auf Speed, Token-Verbrauch und so weiter. Da ist noch so viel drin.
00:24:49Man kann verschiedene Rollen vergeben, wie du erwähnt hast. Ein spannender Punkt für mich ist der Vergleich: gleiche Rollen versus verschiedene Rollen. Meistens, wenn Leute über Agenten-Teams sprechen, geben sie ihnen unterschiedliche Aufgaben.
00:25:14Das ist zwar cool, aber letztlich machen sie unterschiedliche Dinge und warten oft aufeinander. Die Parallelität, die mich begeistert, ist, wenn sie nicht aufeinander warten, sondern wirklich parallel arbeiten, quasi wie eine GPU.
00:25:30In Anbetracht der vielen Tools, Modelle und Agent-Frameworks da draußen: Welche Tools nutzt du persönlich, wenn du mit Pencil arbeitest, und wie sieht dein Workflow mit dem Agenten aus?
00:25:45Meinst du damit Tools direkt innerhalb von Pencil oder externe Sachen?
00:25:49Beides. Nutzt du in Pencil zum Beispiel Codex, Claude Code, Gemini? Was verwendest du?
00:25:57Eigentlich alles. Es war für mich eine große Überraschung nach dem Launch von Pencil, wie viele verschiedene Kombinationen die Leute nutzen wollen.
00:26:08Unser Discord explodierte sofort mit Fragen wie: "Kann ich es mit diesem einen Modell nutzen, von dem ich noch nie gehört habe?"
00:26:17Oder: "Geht das mit diesem Agent-Harness, diesem CLI oder jenem Tool?" Ich war erstaunt, wie vielfältig diese Welt heute schon ist.
00:26:30Dabei stehen wir erst ganz am Anfang und werden noch alle möglichen Kombinationen sehen.
00:26:38In Pencil kann man aktuell einen Frame in Codex laufen lassen, einen anderen in Opus und einen dritten in Gemini und so weiter.
00:26:48Das ist schon wahnsinnig. Man kann all diese Modelle gleichzeitig laufen lassen und die Ergebnisse direkt vergleichen.
00:26:56Sie können sogar miteinander kollaborieren. Das ist wirklich spannend.
00:27:02Mich würde interessieren, wie ihr die Design-Fähigkeiten der Modelle intern benchmarkt. Habt ihr ein System, mit dem ihr bei jedem neuen Release prüft, ob es eine deutliche Verbesserung gibt?
00:27:14Klar, es gibt automatisierte Wege, aber da wir noch in einer so frühen Phase sind, ist auch viel Handarbeit dabei.
00:27:32Wenn neue Modelle herauskommen, will ich als Erstes wissen, was sie können. Manchmal sind es Nuancen, die man kaum in Worte fassen kann, aber man sieht sie einfach. Zum Beispiel beim Sprung von Opus 4.5 zu 4.6.
00:27:51Ich kann es schwer beschreiben, wenn mich Leute fragen. Aber wenn man es ausprobiert, sieht man es: Hier ein bisschen mehr Detail, dort eine sauberere Lösung – plötzlich ergibt alles viel mehr Sinn.
00:28:03Ich denke, diese Entwicklung werden wir auch bei Opus 5.0 und darüber hinaus sehen. Außerdem kommen ja ständig neue Bildmodelle heraus.
00:28:15Auch da gibt es immer mehr Details. Man kann es schwer erklären, aber wenn man es sieht, weiß man es einfach.
00:28:22Wenn ich jetzt Designs für eine Website bräuchte, könnte ich zu Banana Pro 2 gehen und mir Entwürfe erstellen lassen. Gibt es einen Weg, dieses Design dann in Pencil zu übernehmen und dort weiterzubearbeiten, oder fängt man in Pencil besser von vorne an?
00:28:48Auf jeden Fall! Man kann zum Beispiel ein Bild direkt in den Pencil-Chat ziehen, sogar mehrere gleichzeitig.
00:28:59Man kann Bilder, MD-Dateien oder Textdateien mit eigenen Regeln oder Richtlinien hinzufügen. Viele Leute bauen sich gerade genau solche Workflows auf.
00:29:12Man kombiniert Regeln, Bibliotheken und Bilder, um das gewünschte Ergebnis zu erzielen. Man kann sogar das Foto einer Frucht oder Blume als "Vibe-Image" nutzen.
00:29:28So haben wir auch viele unserer Styleguides entwickelt: Wir nehmen ein Stimmungsbild, zum Beispiel eine Blume, und schauen, welche Farbpalette das Modell daraus extrahiert.
00:29:43Ich denke, wir werden generell viel mehr von diesem explorativen Kombinieren sehen. Wie bei uns Menschen: Man geht raus, in den Wald oder ans Meer, sieht etwas und wird inspiriert.
00:30:04Man denkt sich: "Aha, genau so was will ich!" Früher hat man davon vielleicht kein Foto gemacht, sondern nur einen mentalen Schnappschuss im Kopf behalten.
00:30:17Dann ging man nach Hause an den Rechner und das Design wurde unbewusst von dem beeinflusst, was man tagsüber gesehen hatte.
00:30:25Heute kann man diese Inspiration einfach direkt an die KI weitergeben und sehen, was dabei herauskommt.
00:30:30Kann es auch abgefahrene SVG-Animationen oder ähnliches erstellen, wenn man es mit einem SVG-Asset oder Bild füttert?
00:30:42SVGs noch nicht unbedingt, aber ich habe vor kurzem einige neue SVG-Modelle gesehen.
00:30:49Es ist wirklich spannend, was an dieser Front gerade passiert. Und ich denke, Animationen sind der nächste große Meilenstein.
00:31:01Es gibt da zum Beispiel Remotion, Lottie und all diese Tools. Sogar Replit hat gerade Animationen veröffentlicht, oder?
00:31:12Ich glaube, das ist einfach das nächste große, noch unerschlossene Feld.
00:31:18Sie haben die Oberfläche bisher nur oberflächlich angekratzt. Es ist nett, aber noch nicht auf After-Effects-Niveau oder dem Level eines Profi-Designers.
00:31:32Aber ich denke, in diesem Bereich steckt eine Menge Potenzial.
00:31:36Ich habe dieses neue SVG-Modell gesehen, und die Demo sah sehr cool aus, da aktuelle Modelle oft noch Probleme mit SVGs haben.
00:31:43Sie werden zwar immer besser, aber dieses spezielle Modell war im Vergleich zum derzeit Möglichen wirklich unglaublich.
00:31:50Das berührt ein sehr interessantes Thema: Wir sind an einem Punkt, an dem Layouts schon ziemlich gut aussehen.
00:31:57Aber wir wissen ja, dass Webseiten nicht nur aus einem guten Layout bestehen, oder? Es geht um die Emotionen, die sie wecken.
00:32:04Und das lässt sich durch Illustrationen verstärken, oder indem man Text sehr fett setzt und Untertitel nutzt.
00:32:16Es ist eine Komposition aus Text auf eine interessante oder flippige Art und Weise.
00:32:22Vielleicht gibt es ein Video im Hintergrund, das sich bewegt – eher als atmosphärisches Element, abstrakt oder mit Effekten beim Scrollen.
00:32:41Ich denke, solche Dinge werden mehr und mehr in das "Vibe-Design" einfließen, besonders bei Illustrationen. Und was ist mit 3D?
00:32:54Viele Webseiten nutzen heute Renderings, etwa von Würfeln, um Strukturen zu erklären – zum Beispiel wie Datenpakete zusammengefügt werden.
00:33:11Solche Seiten kennen wir alle, und das ist das nächste Puzzleteil. Aktuelle Bildgeneratoren machen tolle Fotos, aber was ist mit Illustrationen?
00:33:23Ich glaube, Illustrationen werden in der zweiten Hälfte von 2026 ein riesiges Thema sein.
00:33:30Darauf freue ich mich, denn mit Illustrationen hatte ich in der Vergangenheit immer meine Schwierigkeiten.
00:33:33Ich war nie besonders gut darin, Illustrationen mit Adobe-Tools oder ähnlichem zu erstellen.
00:33:37Das ist ein sehr guter Punkt. Ich glaube, viele von uns wissen ein gutes Design zu schätzen.
00:33:47Wir können es sogar vor unserem geistigen Auge sehen.
00:33:49Aber es gibt eben diese Lücke zwischen uns und dem Computer, um es auch wirklich zu materialisieren.
00:33:55Mich begeistert es total, dass immer mehr Tools helfen, diese Lücke zwischen Vision und Umsetzung zu schließen.
00:34:04Glaubst du, dass der menschliche Faktor entscheidend bleibt? Wenn wir alles der KI überlassen, sieht am Ende doch alles generisch aus.
00:34:13Besteht der menschliche Touch nicht darin, sich draußen in der Welt inspirieren zu lassen und die KI dann gezielt in eine Richtung zu lenken?
00:34:22Ist das der Grund, warum wir auch in Zukunft noch menschliche Designer brauchen?
00:34:27Ja, absolut. Viele großartige Produkte, die wir täglich nutzen, haben dieses unverkennbare Element von gutem Geschmack.
00:34:39Das ist extrem wichtig. Was wir von der KI im Bereich Code und Design bekommen, sind oft Standardergebnisse. Die werden zwar immer besser...
00:34:51...aber es fehlt eben oft noch der letzte Schliff durch eine Person.
00:35:00Und ich denke, das wird auch weiterhin sehr wichtig bleiben.
00:35:02Dabei muss dieser Schliff gar nicht erst am Ende passieren.
00:35:04Es kann ein laufender Prozess mit vielen Iterationen sein, bei dem man ständig involviert bleibt.
00:35:11Sache ist nur: Durch Parallelisierung und diese Vibe-Design- oder Vibe-Coding-Tools kommt man einfach viel schneller ans Ziel.
00:35:18Die höhere Anzahl an Durchläufen ermöglicht es einem, Dinge nicht nur schneller, sondern letztlich auch besser zu produzieren.
00:35:28Wenn man sich das Internet heute ansieht, sieht längst nicht alles fantastisch aus.
00:35:34Meine Hoffnung ist, dass wir die allgemeine Nutzererfahrung überall um ein Vielfaches anheben werden.
00:35:46Das ist wirklich meine Hoffnung für die nahe Zukunft.
00:35:52Soweit ich das beurteilen kann, ist das wahrscheinlich der nächste große Schritt.
00:35:56Was danach kommt?
00:35:58Wer weiß das schon?
00:35:59Ehrlich gesagt entdecken wir derzeit fast täglich neue Möglichkeiten.
00:36:05Hättest du einen Rat für junge Designer, wie sie in dieser neuen Welt Schritt halten können?
00:36:12Ich finde, Marc Andreessen hat das sehr treffend beschrieben.
00:36:18Ich hole mal kurz etwas weiter aus, bevor ich direkt auf deine Frage antworte.
00:36:23Er verglich es mit einem mexikanischen Patt, bei dem der PM auf den Designer und den Ingenieur zeigt – und jeder denkt, er könne den Job des anderen machen.
00:36:35Früher ging man auf eine Schule und hat vier oder fünf Jahre lang Design studiert.
00:36:39Oder man ging an eine Ingenieursschule und lernte dort vier oder fünf Jahre lang.
00:36:46Als PM kam man vielleicht von einer Business School oder war einfach besessen davon, Dinge zu bauen und Nutzerverhalten zu verstehen.
00:36:53Aber ich frage mich ernsthaft:
00:37:06Was wird die Gen Z oder Gen Alpha denken, wenn sie sich für eine Ausbildung oder einen Beruf entscheiden?
00:37:11Das ist für mich die spannendste Frage, denn ich glaube, jeder wird heutzutage zu einem Schöpfer, einem "Maker".
00:37:21Wir werden uns – so meine Hypothese – nicht mehr nur als reiner Ingenieur oder reiner Designer definieren.
00:37:29Ich spreche hier von der kommenden Generation, nicht unbedingt von der aktuellen.
00:37:39Was wir immer häufiger sehen werden, sind Problemlöser.
00:37:46Ich habe ein Problem, das ich lösen will, und ich schnappe mir einfach die Werkzeuge, die ich dafür brauche.
00:37:50Ich habe schon immer so gearbeitet. Angefangen hat diese Denkweise bei mir damals mit Flash.
00:37:55Flash war wirklich das erste Tool, mit dem man Designer und Ingenieur in einer einzigen Umgebung sein konnte.
00:38:01Und das war absolut magisch.
00:38:11Natürlich war es nicht unbegrenzt skalierbar.
00:38:13Später stieß es an seine Grenzen, als neue Frameworks aufkamen.
00:38:15Aber ich habe immer von einem Comeback geträumt – von etwas, das es Menschen mit einer Vision erlaubt, jedes nötige Tool zu nutzen, um diese umzusetzen.
00:38:20Und Vibe-Coding sowie Vibe-Design sind für mich das, was Flash in den letzten zwei Jahrzehnten am nächsten gekommen ist.
00:38:33Ich wollte dich noch nach euren Styleguides fragen.
00:38:44Wie verwaltet und erstellt ihr diese?
00:38:47Im Design wissen wir ja, dass Pantone jedes Jahr eine neue "Farbe des Jahres" kürt oder dass es bestimmte Trends gibt, denen alle folgen.
00:38:51Glaubst du, dass Pencil auch ständig aktualisiert wird, wenn sich diese Trends weiterentwickeln?
00:39:05Tatsächlich haben wir unsere Styleguides gerade mit dem neuesten Release aktualisiert.
00:39:12Wir frischen sie ständig auf.
00:39:16Aber ich habe unsere Styleguides nie als etwas Endgültiges betrachtet.
00:39:18Für mich sind sie eher ein Anstoß, um zu zeigen, was man mit dem Tool überhaupt erreichen kann.
00:39:22Es geht vor allem darum, dieses Problem der leeren Leinwand zu lösen.
00:39:30Viele wissen am Anfang gar nicht, wie sie das Tool benutzen sollen.
00:39:37Das war also der eigentliche Gedanke dahinter.
00:39:42Unser Ziel ist es, das Ganze zu dokumentieren und zu öffnen, damit Leute ihre eigenen Guides erstellen und in der Community teilen können.
00:39:46Ich wollte nie in der Position sein, die absoluten Trends vorzugeben.
00:39:56Ganz und gar nicht.
00:40:03Es soll lediglich eine Inspiration sein, auf der andere aufbauen können.
00:40:03Nochmal zurück zu Flash: Als ich anfing, habe ich unzählige Flash-Dateien studiert, um zu verstehen, wie andere Dinge gebaut haben.
00:40:09Das war für mich die Inspirationsquelle – nicht nur für das "Wie", sondern auch für die ganzen feinen Details.
00:40:19Ich hoffe also, dass unsere Styleguides genau das sind: Eine Inspiration zum Remixen, Verändern und um sie sich zu eigen zu machen.
00:40:33Es scheint, als würden andere Firmen jetzt verstehen, was Pencil da aufgebaut hat.
00:40:45Ich weiß, dass Sketch jetzt MCP-Server oder Tools hat, und Figma ebenfalls.
00:40:51Figma hat jetzt auch ihre eigenen MCP-Tools.
00:40:56Wie wollt ihr euch differenzieren oder vorne bleiben, damit diese Firmen euch keine Marktanteile abnehmen?
00:40:59Das ist eine interessante Frage. Aber wie unterscheidet man zum Beispiel zwischen Cursor und Copilot?
00:41:07Vielleicht gebe ich die Frage mal an dich zurück.
00:41:17Es gibt da Nuancen, richtig?
00:41:20Es gibt einen Unterschied.
00:41:24Ob wir es in Worte fassen können, wenn wir tiefer graben? Wahrscheinlich schon, aber es gibt ganz offensichtlich einen großen Unterschied.
00:41:26Ich hoffe einfach, dass wir diesen Vorsprung halten und weiterhin die Innovation anführen können.
00:41:33Wie gesagt, es gibt noch so unendlich viel zu tun.
00:41:45Und ich möchte sicherstellen, dass wir mit Pencil ganz vorne bei der Innovation dabei sind.
00:41:50Um Pencil zu realisieren, hast du ein Programm durchlaufen – war das der A16Z Speedrun?
00:41:57Ja, das kann ich wirklich jedem empfehlen.
00:42:05Es gibt natürlich YC und Speedrun, das sind wohl die bekanntesten.
00:42:11Aber es gibt viele solcher Accelerator-Programme auf der ganzen Welt.
00:42:15Speedrun war für mich aus mehreren Gründen eine großartige Erfahrung.
00:42:20Während COVID haben sich alle irgendwie zurückgezogen und sind kaum noch rausgegangen, oder?
00:42:24Speedrun war für mich eine tolle Chance, wieder regelmäßig Kontakt zu anderen Gründern zu haben.
00:42:31Diese Energie, die man dort bekommt, wird oft unterschätzt.
00:42:40Ich finde, jeder sollte das mal mitmachen: Zeit in einer festen Gruppe von Leuten zu verbringen...
00:42:48...die die gleiche Vision teilen, die Grenzen des Machbaren zu verschieben.
00:42:53Das war der erste wichtige Punkt.
00:42:58Zweitens prägt es einen als Gründer auf eine sehr positive Weise.
00:43:03Die Unterstützung durch das Team von Andreessen Horowitz dort ist einfach unbezahlbar.
00:43:06Man kann alles Mögliche mit ihnen besprechen, und sie haben eine wahnsinnige Erfahrung, weil sie schon so viel gesehen haben.
00:43:13Sie haben ein unglaubliches Gespür dafür, was funktionieren könnte und was nicht. Sie sind einfach tolle Berater.
00:43:20Und dann gibt es diesen Moment beim Demo Day, wo du vor über tausend Investoren präsentieren musst.
00:43:25Dieses Jahr waren wir beim Speedrun Nummer fünf dabei.
00:43:27Es fand im Yerba Buena Center for the Arts in San Francisco statt.
00:43:32Das ist der Ort, an dem Steve Jobs das iPad und andere Apple-Produkte angekündigt hat.
00:43:35Und plötzlich stehst du selbst auf dieser Bühne.
00:43:42Da herrscht eine ganz magische Energie. Es ist Wahnsinn.
00:43:49Ich kann nur sagen: Jeder sollte das mal erleben. Es zwingt dich dazu, deinen Pitch wirklich auf den Punkt zu bringen.
00:43:53Du hast gerade mal zwei Minuten Zeit für die Präsentation.
00:44:00Eine Stunde lang über Pencil zu reden? Kein Problem.
00:44:02Aber Pencil in nur zwei Minuten zu erklären, ist unglaublich schwer – erst recht, wenn du auf einer Bühne stehst...
00:44:05...und von den Scheinwerfern völlig geblendet wirst.
00:44:07Denn du kommst aus diesem Backstage-Bereich, der absolut stockfinster ist.
00:44:11Da ist gar kein Licht, nichts.
00:44:18Und plötzlich stehst du im Rampenlicht und musst total begeistert von deinem Projekt erzählen.
00:44:22Es muss einfach alles perfekt sitzen.
00:44:28Ich habe dafür natürlich unzählige Male geprobt.
00:44:35Aber insgesamt ist es eine fantastische Erfahrung, die das Beste aus einem herausholt.
00:44:38Ja.
00:44:44Ich denke immer, dass Leute in Kalifornien oder San Francisco einen unfairen Vorteil haben.
00:44:47Man ist direkt im Zentrum der Technologie und spürt die ganze Power von KI und den Tech-Hubs.
00:44:52Empfindest du das auch so?
00:44:58Ja, zu hundert Prozent.
00:45:01Ich habe viele Jahre in San Francisco gelebt. Momentan wohne ich nicht fest dort.
00:45:05Ich dosiere es für mich selbst, denn dort herrscht zwar eine tolle Energie, aber es gibt auch viel Ablenkung und Lärm.
00:45:10Für mich ist die perfekte Balance, regelmäßig dorthin zu reisen, aber nicht mehr jeden Tag dort zu sein.
00:45:14Jedes Mal, wenn ich dort bin, inspiriert es mich auf eine ganz neue Weise.
00:45:16Das funktioniert für mich am besten.
00:45:20Aber ich habe dort ein ganzes Jahrzehnt verbracht und kenne jeden Winkel der Stadt.
00:45:28Es ist definitiv ein gewisser unfairer Vorteil.
00:45:29Jeder, der nach SF fliegt, kommt unglaublich energetisiert von diesem Trip zurück.
00:45:31Mein Rat wäre also: Pack deine Tasche, flieg nach SF, triff Leute und tausch dich mit ihnen aus.
00:45:34Bist du bei Pencil.dev eigentlich alleine oder hast du ein Team hinter dir?
00:45:36Wir sind momentan zehn Leute.
00:45:38Ja, es ist ein wirklich tolles Team.
00:45:44Wir kennen uns teilweise schon ziemlich lange.
00:45:47Das Produkt ist eigentlich extrem komplex, wenn man mal genauer darüber nachdenkt.
00:45:53Allein würde ich das mittlerweile gar nicht mehr schaffen.
00:45:59Stimmt.
00:46:05Sind das Leute, die du während deiner Zeit bei Adobe oder von deinem ersten Startup kennst – oder kommen sie vom Speedrun?
00:46:08Einige sind von meinem vorherigen Startup dabei.
00:46:10Und es sind auch neue Gesichter dazugekommen.
00:46:14Es ist also eine gute Mischung.
00:46:19Verstehe.
00:46:24Und was dein voriges Startup angeht – darfst du darüber sprechen?
00:46:26Klar.
00:46:33Eines davon hieß "Around", das war eine App für Videokonferenzen. Ich weiß nicht, ob ihr die kennt.
00:46:38Habt ihr davon schon mal gehört?
00:46:42Das war doch die App, die wir benutzt haben, bis...
00:46:45Ja, wir haben sie benutzt.
00:46:50Oh ja, ich habe sie auch genutzt.
00:46:52Wir mochten sie wirklich sehr.
00:46:57Wir waren echt traurig, als es sie nicht mehr gab.
00:46:59Ja.
00:46:59Was war denn euer Eindruck von dem Tool? Wenn ich fragen darf?
00:47:06Es hat mich einfach interessiert.
00:47:09Es fühlte sich irgendwie spielerischer an und war eine bessere Erfahrung als Google Workspace oder Slack.
00:47:16Es fühlte sich einfach richtig an.
00:47:18Es hat genau das getan, wofür es gedacht war, und hatte einige wirklich coole Features.
00:47:19Unsere Absicht war es immer, Videokonferenzen etwas unterhaltsamer zu machen, besonders während der Pandemie.
00:47:20Gefühlt haben alle anderen nur versucht, die Videoqualität auf 4K zu pushen und das Bild immer größer zu machen.
00:47:24Wir dachten uns: Lass uns das anders angehen.
00:47:25Was wäre, wenn wir die Köpfe in kleinen Kreisen auf dem Desktop anzeigen lassen, sodass man weniger von der Umgebung der anderen sieht?
00:47:30Wir haben diese Filter eingebaut, und plötzlich fühlten sich alle in den Teambesprechungen viel wohler.
00:47:33Ich glaube, das war ein ganz entscheidender Faktor.
00:47:34Bei allen Produkten, an denen ich gearbeitet habe, versuche ich immer, diesen einen Aspekt zu finden, der komplett anders ist als bei allen anderen.
00:47:37Ich suche lieber nach diesem neuen Ansatz, statt einfach nur etwas nachzubauen oder zu kopieren, was schon existiert.
00:47:38Es ist wichtig, etwas zu finden, für das man brennt, denn am Ende ist das Ganze ein Marathon.
00:47:40Man muss wirklich mit Leidenschaft bei der Sache sein.
00:47:41Als ich bei Pencil zum ersten Mal diese Cursor über die Leinwand fliegen sah, wusste ich: Das ist es.
00:47:42Es war einfach großartig.
00:47:44Ich konnte gar nicht aufhören, zuzuschauen. Ich war wie hypnotisiert.
00:47:50Und dann dachte ich mir: Wahnsinn, ich kann es kaum erwarten, das mit der Welt zu teilen.
00:47:51Es sind diese kleinen Dinge. Am Anfang hatten wir zum Beispiel diese Scan-Animation...
00:47:57...die eigentlich gar nicht nötig gewesen wäre. Wir hätten auch einfach nur das JSON auslesen können.
00:47:57Aber genau dieser Vibe macht eben den Unterschied.
00:47:59Absolut. Es geht um das Gefühl, das man bei der Benutzung hat.
00:48:03Und Pencil hat definitiv diesen "Wow-Effekt".
00:48:07Wie sieht die Roadmap für den Rest des Jahres aus?
00:48:09Wir konzentrieren uns voll auf die Integration von Illustrationen und Animationen.
00:48:15Wie ich schon sagte, ist das die nächste große Hürde.
00:48:15Wir wollen, dass der Übergang von der Idee zum fertigen, lebendigen Design nahtlos ist.
00:48:17Wird es auch Möglichkeiten für Kollaborationen in Echtzeit geben?
00:48:23Das ist bereits ein Kernbestandteil, aber wir bauen es weiter aus.
00:48:25Die Idee ist, dass mehrere Leute gleichzeitig mit der KI "vibes" austauschen können.
00:48:31Es ist fast wie eine Jam-Session für Designer.
00:48:33Das klingt extrem spannend. Vor allem für Remote-Teams.
00:48:38Genau das ist der Punkt. Wir wollen die Distanz zwischen den Menschen und ihren Ideen verringern.
00:48:46Gibt es schon ein festes Datum für das nächste große Update?
00:48:51Wir peilen den Spätsommer 2026 an.
00:48:58Bis dahin gibt es aber regelmäßig kleinere Verbesserungen.
00:49:01Vielen Dank für diese Einblicke. Es ist faszinierend zu sehen, wohin die Reise geht.
00:49:08Sehr gerne. Es ist eine aufregende Zeit, um Dinge zu erschaffen.
00:49:15dieses Ding zu bauen, verstehst du?
00:49:17Und bei Pencil, weißt du, als ich diese Cursor zum ersten Mal
00:49:23über die Leinwand fliegen sah, dachte ich: Das ist es.
00:49:25Es ist fantastisch.
00:49:25Ich konnte gar nicht mehr wegsehen.
00:49:27Ich war wie hypnotisiert davon.
00:49:29Und dann dachte ich: Oh Gott, ich kann es kaum erwarten, das mit allen zu teilen.
00:49:35Es sind diese kleinen Dinge. Am Anfang hatten wir diese Animation,
00:49:40die alles scannte. Das hätten wir nicht machen müssen.
00:49:43Wir hätten einfach das JSON-Format ausgeben können, das war's.
00:49:47Aber die Tatsache, dass der Rahmen gescannt wurde, gab mir das Gefühl:
00:49:56Man spürt es einfach.
00:49:56Man spürt die KI.
00:49:57Ich habe die Hoffnung – viele Leute haben ja viel darüber gesprochen,
00:50:04dass der Chat das Haupt-Interface für KI ist.
00:50:08Aber ich habe das Gefühl, dass wir jetzt diese neuen Nutzererlebnisse
00:50:14für die Interaktion mit KI entdecken, die es so noch nie gab.
00:50:19Diese Cursor und das Scannen sind nur die Spitze des Eisbergs.
00:50:24Wir werden davon noch viel mehr sehen.
00:50:25Wie sie einen visuell durch den gesamten Schaffensprozess führen.
00:50:29Dadurch fühlt es sich so an, als sei die KI nicht nur ein LLM-Text-Chat,
00:50:36sondern dass etwas Kreatives dahintersteckt.
00:50:40Ich weiß nicht.
00:50:40Mir fehlen gerade die richtigen Worte, aber es fängt an,
00:50:45sich so anzufühlen.
00:50:46Ich glaube, das stimmt besonders, weil Chat ein schlechtes Interface
00:50:50für kreative Dinge wie Design und all das ist.
00:50:52Es ist echt schwer, per Prompt zu beschreiben, was man auf der Seite sehen will.
00:50:56Ja, und ich denke, wenn wir wollen, dass mehr Menschen auf der Welt KI nutzen,
00:51:03müssen wir bessere Interfaces dafür finden.
00:51:04Sicher, Sprache könnte eines davon sein, aber mal ehrlich,
00:51:10wie oft nutzt ihr eure Stimme für die Interaktion mit KI?
00:51:13Eher selten. Also ich denke, wir müssen auch dafür
00:51:19neue Interfaces finden.
00:51:20Ja, darüber habe ich auch schon öfter nachgedacht. Ich wünschte,
00:51:24die KI könnte meine Gedanken lesen. Manchmal will ich nicht reden
00:51:28oder tippen, sie soll einfach verstehen, was ich denke, und es tun.
00:51:31Keine Ahnung, ob das dann Neuralink ist oder was auch immer,
00:51:35aber das wäre ein cooles Interface.
00:51:36Ja, du solltest eigentlich mal einen guten Freund von mir einladen.
00:51:44Jakub Zeczolka. Er ist ein bekannter Designer, ein echter
00:51:50Aufsteiger, und er hat neulich ein Video seines neuesten Prototyps gepostet.
00:51:55Er macht Eye-Tracking auf dem iPhone und schaut sich im Grunde
00:52:02verschiedene Dinge auf dem Bildschirm an und sagt einfach, was damit passieren soll.
00:52:05Er muss nicht sagen: "Dieses Bild links dort".
00:52:08Er schaut das Bild nur an und sagt: "Ändere das in dies oder jenes".
00:52:10Und die KI weiß genau, worauf er blickt.
00:52:13Das sind die Interfaces, die so viele neue Möglichkeiten eröffnen werden.
00:52:19Wenn die KI weiß, was dich gerade beschäftigt – der Blick und
00:52:24die Blickrichtung sind da wichtige Anhaltspunkte.
00:52:26Hoffentlich finden wir noch mehr solcher Hinweise.
00:52:30Dann wird es sich viel natürlicher anfühlen.
00:52:33So als stündest du hier neben mir im Raum. Ich müsste dir nicht
00:52:38extra sagen: "Schau dir das an" und explizit darauf zeigen.
00:52:42Du wüsstest es bereits aus dem Kontext der Situation.
00:52:48Das ist super cool.
00:52:49Ich wollte gerade sagen: Ich gehöre tatsächlich zu denen, die oft
00:52:55Sprachsteuerung nutzen, weil ich manchmal einfach müde vom Tippen bin.
00:52:56Ich will dann einfach mit der KI sprechen.
00:52:58Wenn ich also mit ihr sprechen kann und sie weiß, wo meine Augen sind – cooles Produkt.
00:53:03Gefällt mir.
00:53:04Ja.
00:53:05Oder stell dir vor, sie könnte eine Hand tracken und du zeigst einfach
00:53:10auf Dinge am Display oder machst so eine Geste. Weißt du,
00:53:15wie man im Auto sitzt und sagt: "Fahr hier lang". Man sagt nicht rechts,
00:53:19man sagt nicht links. Einfach nur: "Hier abbiegen".
00:53:20Und ich wünschte, ich könnte das der KI sagen – im Auto oder
00:53:28beim autonomen Fahren: "Bieg hier ab". Die Leute im Auto wüssten Bescheid.
00:53:33Die KI hat keine Ahnung.
00:53:35Man müsste sagen: "Biegen Sie an dieser Kreuzung rechts ab".
00:53:37Ganz ehrlich, wer redet so?
00:53:40Das ist viel zu umständlich.
00:53:43Hast du sonst noch steile Thesen zu Design, KI oder der Tech-Branche allgemein?
00:53:50Das ist so eine komplexe Frage.
00:53:53Obwohl es eigentlich ganz einfach ist.
00:53:55Wir brauchen den Clip, verstehst du? Wir brauchen dieses Highlight.
00:53:59Ja, was ist eine steile These?
00:54:02Nun, ich finde ehrlich gesagt das, worüber wir gerade gesprochen haben,
00:54:06ist schon eine ziemlich steile These: Dass wir neue Interfaces
00:54:12für die KI entdecken, die sich menschlicher und natürlicher anfühlen.
00:54:16Die KI wird einfach durch den Kontext der Welt, deinen eigenen Kontext,
00:54:26deine Perspektive und deinen Fokuspunkt wissen, was du eigentlich meinst.
00:54:30Man muss sie dann nicht mehr so extrem an die Hand nehmen.
00:54:34So wie man es heute noch tun muss. Das geht zurück auf meine Idee:
00:54:40Ich wollte lieber etwas zeichnen, statt es mit Worten zu beschreiben.
00:54:44Für mich ist es oft einfacher, etwas zu zeichnen oder darauf zu zeigen,
00:54:52als es mühsam in Worte zu fassen.
00:54:53Ich glaube, das ist der nächste unmittelbare Schritt,
00:55:00der sich bei der KI verändern wird.
00:55:01Überleg mal: Bei ChatGPT vor ein paar Jahren musste man
00:55:06noch richtig lange Fragen und Prompts formulieren.
00:55:10Heute fragst du nur eine Kleinigkeit und es analysiert alles,
00:55:14liefert dir 20 Optionen und so weiter.
00:55:16Es macht einfach weiter.
00:55:17Es weiß irgendwie schon, worauf du hinauswillst.
00:55:21Vielleicht lernt es aus anderen Chats, die Leute dort hatten,
00:55:30und hat bestimmte Gedanken und Antworten gespeichert.
00:55:33Ich denke auch, dass oft ein neuer LLM-Prompt
00:55:41wie der Beginn einer völlig neuen Welt ist.
00:55:45Alles fängt bei Null an.
00:55:46Ich hoffe, dass wir viel mehr von diesem gemeinsamen Gedächtnis sehen werden.
00:55:51Es ist ein Riesenunterschied, ob man sagt: "LLM, fasse das bitte zusammen",
00:56:01oder ob das LLM wie ein Kollege auf Slack ist, der den Kontext
00:56:06aller bisherigen Gespräche hat und nicht jedes Mal alles neu
00:56:11heraussuchen muss. Das fühlt sich sonst irgendwie dumm an.
00:56:13Davon werden wir sicher noch viel mehr sehen.
00:56:16Ich wollte noch mal auf Around zurückkommen. Wir vermissen die Soundeffekte
00:56:21und das Minispiel am Ende der Anrufe wirklich sehr.
00:56:22Unser größter Verlust waren die Soundeffekte.
00:56:25Wir haben sie geliebt.
00:56:26Ja, absolut.
00:56:28Wäre es nicht cool, wenn man das Spiel jetzt einfach spielen könnte?
00:56:31Ja.
00:56:32Auf jeden Fall.
00:56:33Ja, das war mein Favorit.
00:56:35Genau.
00:56:36Cool.
00:56:40Das waren schöne Zeiten.
00:56:41Ich glaube, wir nutzen jetzt Slack.
00:56:42Wir nutzen Slack Huddles, und es ist einfach nicht dasselbe.
00:56:44Stimmt.
00:56:45Es ist unfassbar.
00:56:46Slack hat keine Aufnahmefunktion.
00:56:48Lasst mich doch einfach den Call aufnehmen!
00:56:51Das wirkt so simpel.
00:56:52Aber egal.
00:56:54Ja.
00:56:55Stimmt.
00:56:56Gut.
00:56:57Darfst du darüber sprechen, was mit Around passiert ist?
00:57:00Ja, Around wurde von Miro übernommen und vollständig
00:57:08in das Miro-Whiteboarding-Erlebnis integriert. Es ist also noch da.
00:57:10Okay, verstehe.
00:57:12Es existiert also noch, aber man muss Miro dafür nutzen.
00:57:15Danke für deine Zeit, Tom.
00:57:16Gibt es noch etwas, das du bewerben möchtest?
00:57:17Etwas, woran du arbeitest, außer Pencil?
00:57:21Ja, also erstens: Schaut euch Pencil an. Ich bin für alle da,
00:57:27auch für die Leute auf unserem Discord-Server.
00:57:31Dort teilen die Leute viele interessante Einblicke in Pencil
00:57:40und zeigen auch Screenshots und Dateien von ihren Werken.
00:57:42Es ist eine sehr lebendige Community mit inzwischen Tausenden von Mitgliedern.
00:57:46Schreibt mir auch gerne eine DM auf X oder Discord,
00:57:56wenn ihr Probleme habt, Fragen stellt oder Feature-Wünsche habt.
00:58:00Ich möchte einfach, dass ihr wisst, dass ich für euch da bin.
00:58:02Ein Feature-Wunsch, den ich hätte, wären benutzerdefinierte UI-Kits.
00:58:07Weil ich manchmal mein eigenes UI-Kit erstellen will, ohne Shadcn zu nutzen.
00:58:10Absolut, das ergibt total Sinn.
00:58:13Vielen Dank fürs Zuhören beim Better Slack Podcast.
00:58:16Ihr findet uns überall, wo es Podcasts gibt.
00:58:18Bei Apple, Spotify... lasst uns ein Like oder Abo da, wenn ihr auf YouTube zuseht.
00:58:23Und von mir war's das. Auf Wiedersehen.
00:58:25Tschüss von mir, tschüss von mir und tschüss von mir.
00:58:28Danke an alle fürs Zuhören.
00:58:31Es hat mir wirklich sehr viel Spaß gemacht.