00:00:00wie leistungsfähig generative KI geworden ist.
00:00:02Ständig tauchen neue Tools auf,
00:00:03und unter allen hat Google sein Spiel wirklich verbessert,
00:00:06seit Gemini 3 erschienen ist.
00:00:07Deswegen hast du wahrscheinlich Leute auf X gesehen,
00:00:09die mit einem Versuch diese fantastischen Landing Pages erstellen und behaupten,
00:00:12das Modell sei ein Game Changer.
00:00:14Aber sie lügen.
00:00:15Die Wahrheit ist,
00:00:15dass sie mehrere Tools brauchen,
00:00:17um diese Seiten zu bauen.
00:00:18Und Google dreht mit seinen experimentellen Tools richtig auf,
00:00:20die von Gemini 3 und Nano Banana angetrieben werden.
00:00:23Aber Google bietet keine Möglichkeit,
00:00:25sie alle zusammen zu nutzen.
00:00:26Deshalb brauchst du einen kompletten Workflow,
00:00:28der all diese Tools kombiniert.
00:00:29Wir haben heute viel zu besprechen,
00:00:30denn ich hatte nicht wirklich erwartet,
00:00:32dass sie so gut zusammenarbeiten.
00:00:34Die Animationen,
00:00:34die du auf diesen Seiten siehst,
00:00:35sind nur eine Reihe von Einzelbildern.
00:00:37Aber wenn du KI-Tools verwendest,
00:00:38um diese Einzelbilder zu erstellen,
00:00:39bekommst du keine konsistenten Ergebnisse.
00:00:41Google löst das,
00:00:42indem es ein experimentelles Tool namens WISC veröffentlicht,
00:00:44das speziell für die Asset-Generierung entwickelt wurde.
00:00:47Es wird von Nano Banana für die Bildgenerierung angetrieben.
00:00:49Ich nutze WISC oft,
00:00:50um Bildsequenzen für Hero-Bereiche zu erstellen.
00:00:53Ich gebe Prompts in einfachen Worten ein,
00:00:55aktualisiere die Details Schritt für Schritt für jede Sequenz und verwende dann die resultierenden Bilder in den Hero-Bereichen.
00:01:01Mit diesem ganzen Prozess habe ich diese Landing Page erstellt und konnte diesen coolen animierten Effekt mit der Kamera umsetzen.
00:01:07Zu Beginn generieren wir nur das erste und letzte Bild einer Sequenz und erstellen dann eine Animation mit diesen beiden Keyframes für den Hero-Bereich.
00:01:14Aber wenn du einfach drauflos promptest ohne jede Struktur,
00:01:16dann haben die Keyframes,
00:01:17die du willst,
00:01:18nicht die gleiche strukturelle Kontinuität.
00:01:20Dafür musst du das Motiv,
00:01:21die visuelle Absicht und den Detailgrad,
00:01:24den du im Bild willst,
00:01:25klar definieren.
00:01:26WISC verwendet ein Framework aus Motiv,
00:01:28Szene und Stil,
00:01:28um die Bildgenerierung zu steuern und ermöglicht es dir,
00:01:31sie zu einem einzigen neuen Visual zu kombinieren.
00:01:33Deshalb habe ich alle Details angegeben,
00:01:35welche Art von Kamera ich wollte,
00:01:36wie die Reflexionen auf der Linse aussehen sollten,
00:01:39die Auflösung und die Tiefe des Bildes,
00:01:40und es hat das Visual genau so erstellt,
00:01:42wie der Prompt es beschrieben hat.
00:01:44Das generierte Bild wird nicht immer deinen Erwartungen entsprechen.
00:01:47In diesem Fall musst du die Änderung einfach mit einfachen Worten erwähnen,
00:01:50und es integriert die Änderungen in ein neues Visual.
00:01:53Was mir an WISC am besten gefällt,
00:01:54ist,
00:01:54dass du keine langen,
00:01:55detaillierten Prompts schreiben musst,
00:01:56um großartige Ergebnisse zu erzielen.
00:01:58Das liegt daran,
00:01:58dass es Gemini 3 als Zwischenschicht nutzt,
00:02:00die den detaillierten Prompt auf Basis deiner einfachen Worte schreibt,
00:02:04was zu soliden Visuals führt.
00:02:05Jetzt stellt sich die Frage, warum ich WISC gewählt habe.
00:02:08Während Nano Banana umfangreiche Text-Prompts erfordert und Googles Mix Board für Mood Boards konzipiert ist,
00:02:13ist keines der beiden für schnelles,
00:02:14kontrolliertes Bild-Remixing optimiert.
00:02:16WISCs Kernstärke liegt darin,
00:02:17Referenzbilder zu kombinieren,
00:02:19sodass du Bilder mit besserer Kontrolle generieren kannst.
00:02:21Als ich mein erstes Bild hatte,
00:02:23wollte ich,
00:02:23dass mein letztes Bild eine Seitenansicht der Kamera ist,
00:02:25mit auseinandergenommenem Objektiv,
00:02:27um die Komponenten zu zeigen.
00:02:28Also habe ich es aufgefordert,
00:02:29eine technische Schnittansicht zu generieren und dabei angegeben,
00:02:32wie es die internen Linsen schichten und wie der Hintergrund aussehen sollte.
00:02:35Beim ersten Versuch hat es nicht geklappt.
00:02:37Es hat auch die interne Elektronik zerlegt,
00:02:38was ich nicht zeigen wollte.
00:02:40Wie ich bereits sagte,
00:02:40erwähnst du einfach die Änderung,
00:02:42die du vornehmen musst.
00:02:42Also habe ich es angewiesen,
00:02:44nur die Linsenschichtung zu zeigen,
00:02:45woraufhin es das Bild erfolgreich generiert hat,
00:02:48ohne die interne Elektronik zu zeigen.
00:02:49Jetzt unterstützt WISC auch Animationen mit dem VIO-Modell.
00:02:53Aber WISCs Animationen konzentrieren sich darauf,
00:02:55ein Bild zu animieren,
00:02:56anstatt mehrere Keyframes miteinander zu verbinden.
00:02:58Deshalb habe ich ein anderes Tool namens Google Flow verwendet.
00:03:01Flow nutzt Gemini für die Story-Planung,
00:03:02Googles Bildmodelle zur Gestaltung konsistenter Charaktere und VIO zur Erstellung von Videoinhalten.
00:03:07Ich hatte bereits meine Start- und Endbilder für die Kamera-Animation erstellt und wollte nun einen Übergang zwischen ihnen schaffen.
00:03:13Also habe ich die Frame-zu-Video-Option verwendet und meine Bilder bereitgestellt.
00:03:16Um einen reibungslosen Übergang zu gewährleisten,
00:03:18müssen Sie im Prompt erwähnen,
00:03:19wie das Startbild zum Endbild führt,
00:03:21da dies dem Modell einen logischen Pfad vorgibt.
00:03:24Ihr Prompt sollte beschreiben,
00:03:25wie die Animation fließen soll,
00:03:26wie das Startbild in das Endbild übergehen soll und welchen Animationsstil Sie wünschen,
00:03:30da diese Details sicherstellen,
00:03:31dass die Bewegung gezielt erfolgt.
00:03:33Manchmal machen diese Modelle bei komplexen Aufgaben Fehler,
00:03:35daher war meine Animation beim ersten Versuch nicht richtig.
00:03:38Das generierte Video hatte sowohl die Drehrichtung als auch das Endbild völlig falsch interpretiert,
00:03:43wodurch der Übergang holprig wirkte.
00:03:44Die Lösung bestand einfach darin,
00:03:45den Prompt mit einigen notwendigen Änderungen zu wiederholen,
00:03:48um sicherzustellen,
00:03:49dass die Animation korrekt war – genau wie ich es angewiesen hatte,
00:03:51die Drehrichtung der Kamera für einen flüssigeren Übergang zu ändern.
00:03:54Danach produzierte es eine Version,
00:03:55die ich wollte,
00:03:56und die ich für mein Projekt heruntergeladen habe..
00:03:58Die Videogenerierung ist im kostenlosen Tarif nicht unbegrenzt verfügbar,
00:04:02da Videogenerierungsmodelle kostspielig sind.
00:04:04Es werden je nach Region nur 180 monatliche Credits bereitgestellt.
00:04:08Da jede Videogenerierung mit VIO 3.1 20 Credits verbraucht,
00:04:11erhalten Sie bis zu 9 Videos pro Monat.
00:04:14Da die von Flow generierten Videos im MP4-Format vorliegen und nicht direkt in Hero-Bereichen verwendet werden können,
00:04:20weil sie sich schwerer durch Scroll-Animationen steuern lassen,
00:04:23habe ich sie mit einem kostenlosen Online-Konverter in WebP umgewandelt.
00:04:26Ich habe das MP4-Video hochgeladen,
00:04:28die Konvertierungseinstellungen auf bestmögliche Qualität für animierte WebP gesetzt,
00:04:31und es wurde in ein WebP-Format konvertiert,
00:04:33das ich für mein Projekt heruntergeladen habe.
00:04:35Die Wahl von WebP ist wichtig,
00:04:37denn damit lassen sich Scroll-Interaktionen einfacher abbilden,
00:04:40da dieses Format im Web als Bild behandelt wird und keinen Media-Player-Wrapper wie andere Formate benötigt.
00:04:46Diese Dateien sind kompakter und bieten eine verbesserte Performance,
00:04:49was sie ideal für animierte Kurzinhalte macht..
00:04:52Ich habe die konvertierte WebP-Datei in das Public-Verzeichnis meines neu initialisierten Next.js-Projekts eingefügt,
00:04:58da sich dort alle Assets des Projekts befinden.
00:05:00Nachdem die Animation fertig war,
00:05:02wollte ich sie zum Hero-Bereich meiner Landing Page hinzufügen.
00:05:05Ich formuliere Prompts für Claude grundsätzlich im XML-Format,
00:05:08da ihre Modelle für das Verständnis von XML optimiert sind,
00:05:10wodurch sie strukturierte Absichten zuverlässiger parsen und über jeden Abschnitt unabhängig nachdenken können.
00:05:15Der Prompt,
00:05:16den ich Claude zum Hinzufügen der Animation gab,
00:05:18enthielt im Context-Tag den Kontext darüber,
00:05:20was ich erstellen wollte,
00:05:21wo sich die Assets für die Animation befinden und wie die Scroll-Animation funktionieren sollte,
00:05:25sowie unser Ziel.
00:05:26Ich habe alle Anforderungen in den Requirement-Tags aufgeführt,
00:05:29beschrieben,
00:05:30wie sich die Animation verhalten soll,
00:05:31in den Animation-Behavior-Tags und die Implementierungsdetails,
00:05:34Einschränkungen und die gewünschte Ausgabe direkt im Prompt in den jeweiligen Tags angegeben.
00:05:39Als ich Claude diesen Prompt gab,
00:05:40implementierte es die Animation automatisch genau so,
00:05:43wie ich es wollte.
00:05:43Obwohl unser Hero-Bereich gut aussah,
00:05:45wirkten die übrigen Komponenten wie die üblichen generischen Websites,
00:05:48die KI tendenziell generiert.
00:05:50Das lag daran,
00:05:50dass wir hochwertige Ergebnisse von einfachem CSS erwarteten,
00:05:53anstatt uns auf vorhandene schöne Komponentenbibliotheken zu verlassen..
00:05:57Es gibt mehrere UI-Bibliotheken,
00:05:59jede mit ihrem eigenen spezialisierten Stil und Design-Themen,
00:06:02aber Sie müssen die Bibliothek wählen,
00:06:03die am besten zu Ihrem Projektstil passt.
00:06:05Für meine Kamera-Landing-Page strebte ich eine Apple-Style-UI an,
00:06:08und die Bibliothek,
00:06:09die dieser Idee am nächsten kommt,
00:06:11ist Hero UI.
00:06:11Sie basiert auf Tailwind CSS und nutzt Framer Motion,
00:06:14um ihre Komponenten auf der gesamten Website zum Leben zu erwecken..
00:06:17Die Bibliothek unterstützt die meisten gängigen Frameworks wie Next.js,
00:06:21Vite und Laravel.
00:06:21Die Verwendung mit meinem bestehenden Next.js-Setup war daher einfach.
00:06:24Es gibt zwei Installationsmethoden.
00:06:26Entweder installiert man sie projektübergreifend mit allen verfügbaren Komponenten über den Installationsbefehl,
00:06:31oder man installiert einzelne Komponenten nach Bedarf,
00:06:33was ich mit Claude getan habe.
00:06:34Ich habe Claude aufgefordert,
00:06:36die vorhandenen Komponenten durch Hero UI-Komponenten zu ersetzen,
00:06:39und die Website wurde deutlich verbessert,
00:06:40was der Seite ein wesentlich professionelleres Aussehen und Gefühl verlieh.
00:06:44Nutzer entscheiden innerhalb weniger Sekunden,
00:06:46ob sie auf einer Landingpage bleiben,
00:06:47indem sie beurteilen,
00:06:48wie ansprechend die Benutzeroberfläche ist.
00:06:50Motion hilft dabei,
00:06:51die Aufmerksamkeit des Besuchers auf die Funktionen zu lenken,
00:06:54die wir ihm zeigen möchten,
00:06:55und sorgt so für eine höhere Nutzerbindung.
00:06:57Animationen von Grund auf mit reinem JavaScript zu implementieren kann herausfordernd sein,
00:07:01deshalb greife ich auf vorhandene Bibliotheken zurück,
00:07:03um den Prozess zu vereinfachen.
00:07:05Für dieses Projekt habe ich Motion.dev verwendet,
00:07:07eine kostenlose und quelloffene Bibliothek,
00:07:09die eine große Auswahl an gebrauchsfertigen Animationen bietet.
00:07:11Normalerweise würden Animationen eine manuelle Synchronisation von DOM-Updates mit Animations-Timings erfordern.
00:07:16Motion.dev abstrahiert diese Logik jedoch,
00:07:18indem es DOM-Updates intern verarbeitet.
00:07:20Es aktualisiert Komponenten automatisch,
00:07:21während der Nutzer scrollt,
00:07:23sodass Animationen reibungslos ablaufen,
00:07:24ohne dass man Scroll-Positionen manuell verfolgen muss.
00:07:27Diese Bibliothek verwendet Motion-Komponenten anstelle von Standardkomponenten.
00:07:30Diese Komponenten haben Start- und Endzustände in den Props definiert,
00:07:33und die Bibliothek übernimmt automatisch die Übergangslogik zwischen ihnen.
00:07:36Für unsere Landingpage habe ich Claude aufgefordert,
00:07:39Parallax- und Scroll-Animationen mithilfe der Bibliothek zu implementieren.
00:07:42Das Ergebnis war eine verbesserte Benutzererfahrung,
00:07:44indem die Aufmerksamkeit auf die wichtigsten Bereiche der Seite gelenkt wurde.
00:07:48Zu beschreiben,
00:07:48wie die Abschnitte einer Seite aussehen sollen,
00:07:50ist ein mühsamer Prozess.
00:07:52Es ist besser,
00:07:52sich von bestehenden Galerien inspirieren zu lassen,
00:07:54wo Menschen ihre Kreationen veröffentlichen.
00:07:56Ich habe 21st.dev verwendet,
00:07:58eine Plattform,
00:07:58die Inspiration für eine Vielzahl von UI-Komponenten bietet,
00:08:01die von mehreren Designern erstellt wurden.
00:08:03Die Komponenten basieren auf beliebten UI-Bibliotheken wie Aceternity UI,
00:08:06Prism UI,
00:08:06Coconut UI,
00:08:07Magic UI und vielen anderen.
00:08:08Bei der Suche nach Ideen bin ich auf diesen Call-to-Action-Bereich gestoßen,
00:08:11der auf meiner Landingpage großartig aussehen würde.
00:08:14Was mir an 21st.dev am besten gefällt,
00:08:15ist,
00:08:16dass ich für jede Komponente,
00:08:17die ich verwenden möchte,
00:08:18einfach einen Prompt kopieren kann,
00:08:20der speziell für KI-Coding-Agenten zugeschnitten ist.
00:08:22Ich muss Claude nicht selbst anleiten.
00:08:24Der Prompt ist umfassend strukturiert und enthält Projektanforderungen wie ShadCN- und TypeScript-Unterstützung.
00:08:29Er liefert Code mit Anweisungen für den Coding-Agenten,
00:08:31um ihn direkt in das Komponentenverzeichnis einzufügen.
00:08:34Er enthält alle notwendigen Abhängigkeiten und die Pfade,
00:08:36wo sie hinzugefügt werden sollten,
00:08:38und listet die erforderlichen NPM-Pakete zur Installation auf.
00:08:40Er enthält auch einen Implementierungsleitfaden für Ihren KI-Agenten,
00:08:43der alle Schritte beschreibt,
00:08:45die erforderlich sind,
00:08:46um die Komponente direkt in Ihre Anwendung zu integrieren und wie der Agent sie an die spezifischen Projektanforderungen anpassen sollte.
00:08:52Ich habe Claude diesen Prompt gegeben und es hat genau denselben Call-to-Action-Bereich integriert,
00:08:56für den ich den Prompt kopiert hatte.
00:08:57Es hat auch Motion aus der Motion-Bibliothek hinzugefügt,
00:09:00die wir installiert hatten,
00:09:01obwohl ich nirgendwo explizit erwähnt hatte,
00:09:03Motion hinzuzufügen.
00:09:04Ich habe auch den Footer von 21st.dev übernommen,
00:09:06obwohl der Demo-Footer Icons für GitHub und Twitter enthielt..
00:09:11Als ich Claude den kopierten Prompt gab,
00:09:13ließ es das GitHub-Icon weg,
00:09:14da es für unser Projekt nicht relevant war.
00:09:16Es hat den Footer so angepasst,
00:09:17dass nur die Icons enthalten sind,
00:09:19die mit der Kameraprodukt-Website zusammenhängen,
00:09:21und so einen Footer erstellt,
00:09:22der perfekt zu unserer Landingpage passt.
00:09:23Damit kommen wir zum Ende dieses Videos..
00:09:25Wenn Sie den Kanal unterstützen und uns helfen möchten,
00:09:28weiterhin solche Videos zu erstellen,
00:09:29können Sie dies über den Super-Danke-Button unten tun.
00:09:32Wie immer vielen Dank fürs Zuschauen,
00:09:33und wir sehen uns im nächsten Video..