00:00:00con lo poderosa que se ha vuelto la IA generativa.
00:00:02Constantemente surgen nuevas herramientas y,
00:00:04entre todas,
00:00:04Google realmente ha mejorado su juego desde que salió Gemini 3.
00:00:07Debido a esto,
00:00:08probablemente hayas visto a gente en X creando de un solo intento estas increíbles páginas de aterrizaje y diciendo que el modelo es revolucionario.
00:00:14Pero están mintiendo.
00:00:15La verdad es que necesitan usar múltiples herramientas para construir estos sitios.
00:00:18Y Google se ha vuelto loco con sus herramientas experimentales,
00:00:21que funcionan con Gemini 3 y Nano Banana.
00:00:23Pero Google no ofrece una forma de usarlas todas juntas.
00:00:26Así que vas a necesitar un flujo de trabajo completo que combine todas estas herramientas.
00:00:29Tenemos mucho de qué hablar hoy,
00:00:31ya que realmente no esperaba que funcionaran tan bien juntas.
00:00:34Las animaciones que ves en esos sitios son solo una serie de fotogramas.
00:00:37Pero si usas herramientas de IA para generar estos fotogramas,
00:00:39no obtienes resultados consistentes.
00:00:41Google resuelve esto lanzando una herramienta experimental llamada WISC,
00:00:44que está particularmente diseñada para la generación de recursos.
00:00:47Funciona con Nano Banana para la generación de imágenes.
00:00:49A menudo uso WISC para generar secuencias de imágenes para las secciones hero.
00:00:53Proporciono indicaciones con palabras simples,
00:00:55actualizo los detalles paso a paso para cada secuencia y luego uso las imágenes resultantes en las secciones hero.
00:01:01Usando todo este proceso,
00:01:02creé esta página de aterrizaje y pude implementar este genial efecto animado con la cámara.
00:01:07Para empezar,
00:01:07vamos a generar solo el primer y último fotograma de una secuencia,
00:01:10y luego crear una animación usando esos dos fotogramas clave para la sección hero.
00:01:14Pero si simplemente empiezas a dar instrucciones sin ninguna estructura,
00:01:17entonces los fotogramas clave que quieres no tendrán la misma continuidad estructural.
00:01:20Para este propósito,
00:01:21tienes que definir claramente el sujeto,
00:01:23la intención visual y el nivel de detalle que quieres en la imagen.
00:01:26WISC utiliza un marco de sujeto,
00:01:27escena y estilo para guiar la generación de imágenes,
00:01:30permitiéndote combinarlos en una única imagen nueva.
00:01:33Por eso incluí todos los detalles sobre qué tipo de cámara quería,
00:01:36cómo quería que se vieran los reflejos en la lente,
00:01:39la resolución y la profundidad de la imagen,
00:01:41y creó la imagen exactamente como lo describía la indicación.
00:01:44La imagen generada no siempre cumplirá tus expectativas.
00:01:47En cuyo caso,
00:01:48solo tienes que mencionar el cambio con palabras simples,
00:01:51y lo incorpora en una nueva imagen.
00:01:53Lo que más me gusta de WISC es que no tienes que escribir indicaciones largas y detalladas para obtener excelentes resultados.
00:01:58Esto se debe a que usa Gemini 3 como capa intermedia,
00:02:00que escribe la indicación detallada sobre tus palabras simples,
00:02:04logrando imágenes sólidas.
00:02:05Ahora surge la pregunta de por qué elegí WISC.
00:02:08Mientras que Nano Banana requiere indicaciones de texto extensas,
00:02:10y Google Mix Board está diseñado para tableros de inspiración,
00:02:13ninguno está optimizado para remezclar imágenes de forma rápida y controlada.
00:02:16La fortaleza principal de WISC radica en combinar imágenes de referencia,
00:02:19permitiéndote generar imágenes con mejor control.
00:02:21Una vez que tuve mi primer fotograma,
00:02:23quería que mi último fotograma fuera un ángulo lateral de la cámara,
00:02:26con la lente desarmada para mostrar los componentes.
00:02:28Así que le di la instrucción de generar un corte técnico,
00:02:31especificando cómo debería disponer las lentes internas en capas y cómo debería verse el fondo.
00:02:35No lo logró al primer intento.
00:02:37También desarmó la circuitería interna,
00:02:38lo cual no quería que mostrara.
00:02:40Como dije antes,
00:02:40simplemente mencionas el cambio que necesitas hacer.
00:02:42Así que le indiqué que solo mostrara las capas de la lente,
00:02:45después de lo cual generó exitosamente la imagen sin mostrar la circuitería interna.
00:02:49Ahora, WISC también admite animaciones usando el modelo VIO.
00:02:53Pero las animaciones de WISC se enfocan en animar una imagen,
00:02:55en lugar de poder conectar múltiples fotogramas clave juntos.
00:02:58Por eso usé otra herramienta llamada Google Flow.
00:03:01Flow usa Gemini para planificar la historia,
00:03:02los modelos de imagen de Google para diseñar personajes estables,
00:03:05y VIO para crear contenido de video.
00:03:07Ya había creado mis fotogramas inicial y final para la animación de la cámara,
00:03:10y ahora quería crear una transición entre ellos.
00:03:13Así que usé la opción de fotograma a video y proporcioné mis fotogramas.
00:03:16Para asegurar una transición suave,
00:03:17necesitas mencionar en el prompt cómo el fotograma inicial conduce al final,
00:03:21ya que esto proporciona al modelo una ruta lógica.
00:03:24Tu prompt debe incluir cómo quieres que fluya la animación,
00:03:26cómo debe transicionar el fotograma inicial al fotograma final y el estilo de animación,
00:03:30ya que estos detalles garantizan que el movimiento sea intencional.
00:03:33A veces estos modelos tienden a cometer errores con tareas complejas,
00:03:36así que no logró mi animación correctamente a la primera.
00:03:38El video generado obtuvo tanto la dirección del giro como el fotograma final completamente incorrectos,
00:03:43haciendo que la transición fuera incómoda.
00:03:44La solución fue simplemente re-promptear con algunos de los cambios necesarios para asegurar que la animación fuera correcta,
00:03:50tal como lo prompteé para cambiar la dirección del giro de la cámara para una transición más suave,
00:03:54después de lo cual produjo una versión que quería y que descargué para usar en mi proyecto.
00:03:58Ahora,
00:03:58la generación de video no está disponible de forma ilimitada en el nivel gratuito porque los modelos de generación de video son costosos.
00:04:04Solo proporciona 180 créditos mensuales dependiendo de la región.
00:04:08Dado que cada generación de video con VIO 3.1 usa 20 créditos,
00:04:12obtienes hasta 9 videos por mes.
00:04:14Dado que los videos generados por Flow están en formato MP4 y no se pueden usar directamente en secciones Hero porque son más difíciles de mapear a través de animaciones de scroll,
00:04:23por esta razón los convertí a WebP usando un conversor en línea gratuito.
00:04:26Subí el video MP4,
00:04:27configuré los ajustes de conversión para producir la mejor calidad de WebP animado y se convirtió a formato WebP que descargué para usar en mi proyecto.
00:04:35Elegir WebP es importante porque con esto,
00:04:37es más fácil mapear interacciones de scroll,
00:04:39ya que en la web,
00:04:40este formato se trata como una imagen que no requiere un contenedor de reproductor multimedia como lo hacen otros formatos.
00:04:46Estos archivos son más compactos y ofrecen un rendimiento mejorado,
00:04:49haciéndolos ideales para contenido animado de corta duración..
00:04:52Agregué el archivo WebP convertido al directorio público de mi proyecto Next.js recién inicializado porque aquí es donde residen todos los recursos del proyecto.
00:05:00Ahora,
00:05:01una vez que tuvimos nuestra animación lista,
00:05:02quería agregarla a la sección Hero en mi página de inicio.
00:05:05Generalmente prompteo a Claude en formato XML porque sus modelos están optimizados para entender XML,
00:05:09permitiéndoles analizar la intención estructurada de manera más confiable y razonar sobre cada sección de forma independiente.
00:05:15El prompt que le di a Claude para agregar la animación incluía contexto sobre lo que quería construir,
00:05:20dónde se encuentran los recursos para la animación y cómo debería funcionar la animación de desplazamiento y nuestro objetivo en la etiqueta de contexto.
00:05:26Incluí todos los requisitos en las etiquetas de requisitos,
00:05:29describí cómo debería comportarse la animación en las etiquetas de comportamiento de animación y especifiqué los detalles de implementación,
00:05:35restricciones y salida requerida directamente en el prompt dentro de sus respectivas etiquetas.
00:05:39Cuando le di a Claude este prompt,
00:05:41implementó automáticamente la animación exactamente como yo quería.
00:05:44Aunque nuestra sección Hero se veía bien,
00:05:46el resto de los componentes se veían como los sitios web genéricos habituales que la IA tiende a generar.
00:05:50Esto es porque esperábamos resultados de alta calidad de CSS vanilla en lugar de depender de bibliotecas de componentes hermosas existentes..
00:05:57Hay múltiples bibliotecas de UI,
00:05:59cada una con su propio estilo especializado y temas de diseño,
00:06:02pero tienes que elegir la biblioteca que mejor se adapte al estilo de tu proyecto.
00:06:06Para mi página de inicio de cámara,
00:06:08buscaba una UI estilo Apple y la biblioteca más cercana a esa idea es Hero UI.
00:06:12Está construida sobre Tailwind CSS y depende de Framer Motion para dar vida a sus componentes en todo el sitio web..
00:06:17La biblioteca es compatible con los frameworks más utilizados como Next.js,
00:06:21Vite y Laravel.
00:06:22Así que usarla con mi configuración existente de Next.js fue fácil.
00:06:25Hay dos métodos de instalación.
00:06:26Puedes instalarla en todo el proyecto con todos los componentes disponibles mediante el comando de instalación o instalar componentes individuales según sea necesario,
00:06:34que es lo que hice con Claude.
00:06:35Le pedí a Claude que reemplazara los componentes existentes con componentes de Hero UI y el sitio web mejoró significativamente,
00:06:41dándole al sitio un aspecto y sensación mucho más profesional.
00:06:44Los usuarios deciden si quedarse en una página de inicio en cuestión de segundos observando qué tan atractiva es la interfaz.
00:06:49El movimiento ayuda a dirigir la atención del visitante hacia las características que queremos que noten,
00:06:54asegurando una mayor retención de usuarios.
00:06:56Implementar animaciones desde cero usando JavaScript puro puede ser desafiante,
00:07:00así que me apoyo en bibliotecas existentes para simplificar el proceso.
00:07:03Para este proyecto,
00:07:04utilicé Motion.dev,
00:07:05una biblioteca gratuita y de código abierto que ofrece una amplia gama de animaciones listas para usar.
00:07:09Normalmente,
00:07:10las animaciones requerirían sincronizar manualmente las actualizaciones del DOM con los tiempos de animación.
00:07:15Sin embargo,
00:07:15Motion.dev abstrae esta lógica manejando las actualizaciones del DOM internamente.
00:07:19Actualiza automáticamente los componentes a medida que el usuario se desplaza,
00:07:22por lo que las animaciones se reproducen sin problemas sin necesidad de rastrear manualmente las posiciones de desplazamiento.
00:07:28Esta biblioteca usa componentes de movimiento en lugar de los estándar.
00:07:31Estos componentes tienen estados iniciales y finales definidos en las props,
00:07:35y la biblioteca maneja automáticamente la lógica de transición entre ellos.
00:07:38Para nuestra página de inicio,
00:07:39le pedí a Claude que implementara animaciones de paralaje y desplazamiento usando la biblioteca.
00:07:44Como resultado,
00:07:44la experiencia del usuario mejoró al dirigir la atención hacia las secciones clave de la página.
00:07:49Describir cómo deberían verse las secciones de una página es un proceso tedioso.
00:07:52Es mejor obtener inspiración de galerías existentes donde la gente publica sus creaciones.
00:07:56Utilicé 21st.dev,
00:07:57una plataforma que ofrece inspiración para una variedad de componentes de interfaz creados por múltiples diseñadores.
00:08:03Los componentes están construidos sobre bibliotecas de interfaz populares como Aceternity UI,
00:08:07Prism UI,
00:08:07Coconut UI,
00:08:08Magic UI y muchas otras.
00:08:09Mientras buscaba ideas,
00:08:10encontré esta sección de llamado a la acción que se vería genial en mi página de inicio.
00:08:14Lo que más me gusta de 21st.dev es que para cualquier componente que quiera usar,
00:08:18puedo simplemente copiar un prompt específicamente diseñado para agentes de codificación con IA.
00:08:22No necesito guiar a Claude yo mismo.
00:08:23El prompt está extensamente estructurado,
00:08:25incluyendo requisitos del proyecto como soporte para ShadCN y TypeScript.
00:08:29Proporciona código con instrucciones para que el agente de codificación lo pegue directamente en el directorio de componentes.
00:08:34Incluye todo el código de dependencias necesario y las rutas donde debe agregarse,
00:08:38y enumera los paquetes NPM requeridos para instalar.
00:08:40También incluye una guía de implementación para tu agente de IA,
00:08:43detallando todos los pasos necesarios para integrar el componente directamente en tu aplicación y cómo el agente debe adaptarlo a las necesidades específicas del proyecto.
00:08:51Le di este prompt a Claude y este integró exactamente la misma sección de llamado a la acción para la cual había copiado el prompt.
00:08:57También agregó movimiento desde la biblioteca motion que habíamos instalado,
00:09:00aunque no mencioné explícitamente agregar movimiento en ningún lugar.
00:09:03También obtuve el pie de página de 21st.dev,
00:09:05aunque el pie de página de demostración incluía iconos para GitHub y Twitter..
00:09:11Cuando le di a Claude el prompt copiado,
00:09:13omitió el ícono de GitHub ya que no era relevante para nuestro proyecto.
00:09:16Personalizó el pie de página para incluir solo los íconos relacionados con el sitio de productos de cámaras,
00:09:20creando un pie de página que se ajustaba perfectamente a nuestra página de inicio.
00:09:24Eso nos lleva al final de este video..
00:09:25Si quieres apoyar el canal y ayudarnos a seguir haciendo videos como este,
00:09:29puedes hacerlo usando el botón de súper gracias que aparece abajo.
00:09:32Como siempre, gracias por ver y nos vemos en el próximo..