00:00:00(música animada) - Olá a todos,
00:00:06muito obrigado por terem vindo.
00:00:12Sou a Malavika,
00:00:13e como ouviram,
00:00:13sou product manager na Vercel.
00:00:15Espero que tenham tido um ótimo dia na conferência.
00:00:18Fiquei realmente impressionada com o que vocês têm construído com nossas ferramentas de código aberto e primitivos de infraestrutura.
00:00:24Foi muito legal conhecer muitos de vocês pessoalmente pela primeira vez e ver rostos novos e também conhecidos.
00:00:31Hoje aprendemos muito sobre a nuvem de IA.
00:00:38Provavelmente já estão cansados de ouvir sobre a nuvem de IA.
00:00:43Vocês devem estar pensando,
00:00:44será que não posso tomar um drinque na happy hour?
00:00:47Mas só como lembrete,
00:00:49Vercel é uma plataforma unificada para construir,
00:00:54implantar e executar aplicações inteligentes e os agentes por trás delas.
00:01:02A missão da Vercel sempre foi abstrair a complexidade de gerenciar infraestrutura para vocês focarem em construir experiências incríveis para o usuário.
00:01:14Ao refletir sobre o sucesso em abstrair complexidade ao longo do ciclo de vida do desenvolvimento,
00:01:23fizemos um excelente trabalho ao tornar o build time muito mais fácil.
00:01:29A infraestrutura definida pelo framework significa que vocês não precisam pensar nos primitivos de infraestrutura subjacentes.
00:01:35Não há necessidade de orquestração complexa ou infraestrutura como código.
00:01:40Nós cuidamos do provisionamento de computação,
00:01:43rede,
00:01:44cache e muito mais,
00:01:45para vocês focarem na lógica da aplicação.
00:01:48Mas se pensarmos no runtime,
00:01:50ainda há muito trabalho a fazer para tornar isso tão fácil quanto o build time.
00:01:56Infelizmente,
00:01:57gerenciar uma aplicação em runtime ainda é um esforço bem exigente para os times de desenvolvimento.
00:02:06Quantos aqui na plateia tiveram que lidar com um incidente grave na última semana?
00:02:12Não vejo muitas mãos levantadas.
00:02:15Fico surpresa.
00:02:16Acho que vocês estão usando GCP ou algo assim?
00:02:20Talvez você aí na plateia.
00:02:22Deve estar se sentindo muito bem por auto-hospedar Next.js em uma VPS na Hetzner.
00:02:29Vocês acham que a nuvem não vai abater vocês.
00:02:33Mas há tanto trabalho manual associado à resposta a incidentes.
00:02:38Primeiro,
00:02:38os times precisam configurar alertas e monitores para identificar possíveis problemas.
00:02:44Essas ferramentas de monitoramento causam fadiga de alertas,
00:02:47pois os times tentam identificar problemas importantes entre todo o ruído.
00:02:52E uma vez identificado o problema,
00:02:55os times gastam horas depurando,
00:02:57tentando identificar a causa raiz e aplicar uma solução.
00:03:02Então, vamos tornar isso um pouco interativo.
00:03:08Quanto tempo vocês acham que os desenvolvedores gastam depurando um incidente?
00:03:13Quantos acham que é menos de 20% do tempo de incidente gasto em depuração?
00:03:18- Mais. - Mais?
00:03:20Ouvi dizer 80%.
00:03:22Vocês acham que é mais tipo 40%?
00:03:26Ok, alguém acha que é 60, 70%?
00:03:33Parece haver consenso.
00:03:36Na verdade,
00:03:3750% do tempo de incidente é gasto identificando a causa raiz e descobrindo quem deve resolvê-la.
00:03:46Isso é loucura.
00:03:47Em 2025,
00:03:47com IA,
00:03:48estamos gastando horas de tempo valioso de desenvolvimento depurando problemas..
00:03:54E se pudéssemos reduzir isso para segundos?
00:03:56Bem, com Vercel Agent, vocês conseguem.
00:04:01Nossos alertas de anomalia monitoram sua aplicação para atividades suspeitas.
00:04:06Sem configuração necessária.
00:04:09Assim que detectamos comportamento incomum,
00:04:12Vercel Agent investiga o problema,
00:04:14faz análise de causa raiz e diagnostica o problema em questão de segundos.
00:04:20Diferentemente de ferramentas tradicionais de observabilidade ou provedores de infraestrutura,
00:04:24temos contexto completo da sua aplicação.
00:04:26Nós a construímos,
00:04:27implantamos e estamos executando em produção.
00:04:30Mesmo não conhecendo sua aplicação tão bem quanto vocês,
00:04:34e certamente não como seu melhor engenheiro,
00:04:37estamos em posição única de oferecer uma abordagem nativa de IA para garantir confiabilidade,
00:04:43desempenho e segurança em runtime.
00:04:45As investigações do Vercel Agent se baseiam em nossa ferramenta de observabilidade nativa,
00:04:52que foi cuidadosamente desenhada para dar visibilidade ao comportamento em runtime com contexto de build time.
00:05:00Os logs de runtime oferecem visibilidade granular do comportamento da aplicação.
00:05:07Com os logs de runtime,
00:05:08vocês podem rastrear toda a vida de uma requisição HTTP à sua aplicação,
00:05:13desde o momento em que entra na rede Vercel até o ponto em que a resposta é devolvida ao cliente.
00:05:19Também fornecemos dashboards opinados já prontos,
00:05:23para vocês entenderem rapidamente a saúde da aplicação,
00:05:27identificarem problemas e otimizarem o desempenho.
00:05:32Com os alertas de anomalia recém-lançados da Vercel,
00:05:36vocês podem monitorar ativamente sua aplicação para atividades incomuns,
00:05:41identificando e resolvendo problemas rapidamente.
00:05:45E por fim,
00:05:46com nossa ferramenta de consulta,
00:05:48vocês podem explorar a grande quantidade de métricas que coletamos e exibimos da sua aplicação.
00:05:55Vocês podem criar consultas para responder a várias perguntas,
00:05:59desde quais bots estão rastreando minha aplicação até quantificar o tempo P90 até o primeiro token de vários provedores de modelo que usam na sua aplicação.
00:06:09As investigações do Vercel Agent se baseiam em todos esses recursos,
00:06:15reduzindo a necessidade de exploração manual e destacando insights chave.
00:06:22Ao pensar no futuro do Vercel Agent,
00:06:25nosso objetivo é reimaginar a forma como interagimos com ferramentas de observabilidade.
00:06:34Nossa visão é que a nuvem de IA reparará e otimizará sua aplicação,
00:06:39não apenas informará sobre problemas.
00:06:42Fundamentalmente,
00:06:44acreditamos que a nuvem de IA não deveria apenas apresentar problemas,
00:06:51mas oferecer soluções,
00:06:53recomendações,
00:06:54pull requests e ações automatizadas.
00:06:58E é esse o mundo que estamos construindo com Vercel Agent.
00:07:03Vocês podem começar com Vercel Agent hoje.
00:07:05Como ouviram,
00:07:06está em beta público,
00:07:07e estamos dando 100 dólares em créditos grátis a todos os usuários da Vercel para experimentar essas novas funcionalidades.
00:07:13Lançamos a skill de code review no mês passado,
00:07:16e está disponível para todos os usuários da Vercel.
00:07:19As investigações de Agent estão disponíveis a partir de hoje,
00:07:23e para clientes pro e enterprise que têm observability plus.
00:07:27E vocês podem visitar a aba de agent no dashboard da Vercel para começar.
00:07:33Então vou mudar um pouco de assunto.
00:07:35Quero dedicar tempo a outro tópico importante: evals.
00:07:39Quantos de vocês estão usando um produto dedicado de observabilidade de IA para evals?
00:07:44Vejo que muito poucas mãos levantadas.
00:07:48Interessante.
00:07:49Mas para quem está,
00:07:51vocês sabem que aplicações de IA são não-determinísticas.
00:07:55Por isso é muito importante que também monitore a qualidade da saída.
00:08:00Agents encadeiam uma série de passos de raciocínio,
00:08:03introduzindo ainda mais complexidade.
00:08:06E é por isso que vimos um grande ecossistema de frameworks de agents que se baseiam em open telemetry para ajudar desenvolvedores a monitorar,
00:08:15depurar e otimizar seus fluxos de agents.
00:08:17E acho que vi muito poucas mãos,
00:08:19mas quantos estão coletando traces para evals?
00:08:23Ok, vejo algumas mãos levantadas na plateia.
00:08:27Vejo algumas mãos.
00:08:27Desculpa, estou espiando por aqui.
00:08:29Está bem claro.
00:08:30Se vocês estão coletando traces usando open telemetry,
00:08:35podem enviar para qualquer destino usando Vercel drains.
00:08:40Vercel drains permite exportar todos os dados da Vercel para uma ferramenta de observabilidade de terceiros.
00:08:46Se estão usando uma ferramenta de evals de terceiros,
00:08:49podem exportar seus traces lá.
00:08:50Para facilitar para desenvolvedores executarem evals e monitorarem a qualidade do modelo,
00:08:56fizemos parceria com Brain Trust através do marketplace da Vercel.
00:09:01Com essa nova integração,
00:09:03vocês podem transmitir automaticamente traces e dados de avaliação de Vercel para Brain Trust com apenas alguns cliques.
00:09:10Mais cedo vocês devem ter ouvido falar sobre nossa integração do marketplace durante um painel com Ankur Goyal,
00:09:17founder da Brain Trust.
00:09:19Para facilitar o começo, temos um app de demonstração.
00:09:25Aqui vocês podem escanear esse código QR.
00:09:27Esse app de demo vocês podem clonar da nossa biblioteca de templates.
00:09:30É um chatbot de IA construído com Next.js,
00:09:33AISDK e AI Gateway com traces sendo enviados para Brain Trust.
00:09:38Vou dar um tempo para vocês.
00:09:39Estou no caminho?
00:09:44Vou sair do caminho.
00:09:45Ótimo.
00:09:47Como vocês podem ver,
00:09:49nosso objetivo é oferecer flexibilidade e controle sobre quais ferramentas usar.
00:09:55Enquanto trabalhamos para construir excelentes ferramentas de observabilidade nativa,
00:09:59vocês sempre terão a liberdade de enviar seus dados para onde quiserem.
00:10:03O mais importante é que vocês consigam construir excelentes experiências de usuário e transformar código imprevisível em sistemas confiáveis.
00:10:11E com isso, encerramos por hoje.
00:10:15Se vocês me encontrarem na happy hour,
00:10:17gostaria de aprender mais sobre o que estão construindo.
00:10:19Muito obrigado.
00:10:20(plateia aplaudindo) (música animada) (música animada)