00:00:00Com o avanço da codificação por IA,
00:00:01muitas coisas estão se tornando automatizadas.
00:00:03Qual o problema de mais uma coisa sair do nosso controle?
00:00:06LLMs ganharam ferramentas,
00:00:07e assim,
00:00:08grande parte do trabalho humano foi automatizada.
00:00:10Com o Puppeteer MCP, vimos testes de UI automatizados.
00:00:13Agora,
00:00:14o Ingest nos deu uma camada de monitoramento que permite que seus agentes de codificação se tornem depuradores em tempo real do código que geram.
00:00:20Eles estão fazendo isso ao lançar o MCP para o servidor de desenvolvimento do Ingest,
00:00:24que é basicamente uma versão local da sua plataforma em nuvem.
00:00:26A plataforma permite testar todas as funções que você construiu dentro do seu agente,
00:00:30e oferece uma interface visual para tudo,
00:00:32juntamente com os diferentes eventos que são executados.
00:00:35Com isso,
00:00:35você pode pedir diretamente aos seus agentes de IA,
00:00:38como Claude Code ou Cursor,
00:00:39para fazer todos os testes automatizados.
00:00:41Se a Vercel tivesse algo assim,
00:00:43sua implantação e depuração exigiriam apenas um único prompt.
00:00:46Para quem não sabe,
00:00:47Ingest é uma plataforma de orquestração de fluxo de trabalho de código aberto que permite construir fluxos de trabalho de IA confiáveis e resolve muitos problemas que vêm com isso.
00:00:55Tenho usado para construir fluxos de trabalho de agentes em nossa empresa,
00:00:58e a experiência do desenvolvedor é realmente boa.
00:01:00Com o servidor MCP, ficou ainda melhor.
00:01:03Esses fluxos de trabalho são construídos com funções assíncronas,
00:01:06e há alguns problemas para testá-las e depurá-las.
00:01:09A maioria deles é acionada por eventos externos.
00:01:11Eles são executados assincronamente em várias etapas.
00:01:13Para quem não sabe o que significa assíncrono,
00:01:16são funções que podem pausar,
00:01:18esperar algo terminar e depois continuar sem bloquear o restante.
00:01:22Essas funções fazem parte de fluxos de trabalho maiores,
00:01:24o que torna a depuração ainda mais difícil.
00:01:26Isso geralmente leva você a acionar manualmente esses eventos,
00:01:29ou pode ser necessário alternar continuamente entre seu editor de código e seu navegador.
00:01:34Você pode até ter que vasculhar os logs para entender o que realmente aconteceu com aquela função,
00:01:39ou por que ela pode ter falhado,
00:01:40ou qualquer outra coisa.
00:01:41Ou você pode até precisar recriar eventos complexos,
00:01:44ou acioná-los você mesmo para realmente testar a função.
00:01:47Mas agora,
00:01:48com a integração do MCP,
00:01:49seu agente de IA pode lidar com tudo isso automaticamente.
00:01:52Eles também tinham este artigo sobre engenharia de contexto na prática,
00:01:55onde explicaram como construíram um agente de pesquisa de IA.
00:01:58Usarei este agente para mostrar como o MCP funciona.
00:02:01No agente,
00:02:02eles implementaram a engenharia de contexto internamente,
00:02:05em vez de usá-la apenas para construí-lo,
00:02:07tanto na fase de recuperação quanto na de enriquecimento de contexto.
00:02:10Eles também explicam muito bem a diferença entre
00:02:12"context pushing"
00:02:13e
00:02:14"context pulling"
00:02:14.
00:02:14É um artigo muito interessante também,
00:02:16e talvez eu faça um vídeo sobre isso.
00:02:18Então, se você estiver interessado, comente abaixo.
00:02:20O agente é completamente de código aberto.
00:02:22Copiei o link,
00:02:23clonei,
00:02:23instalei as dependências e inicializei o Claude Code.
00:02:27Pedi para analisar a base de código e criar o claud.md.
00:02:31O artigo também especifica por que devemos usar modelos diferentes para suas respectivas forças,
00:02:35e eles implementaram agentes com LLMs separados para diferentes papéis no agente de pesquisa.
00:02:39Eles estão usando o gateway de IA com a Vercel,
00:02:42que dá acesso a mais de 100 modelos.
00:02:44Eu queria usar um único modelo.
00:02:46Usando o claud.md,
00:02:47ele atualizou a base de código e a mudou para usar a API da OpenAI.
00:02:51Após a edição,
00:02:52ele apenas me disse quais arquivos havia alterado.
00:02:54Depois disso,
00:02:55copiei a configuração para o Claude Code,
00:02:57criei um arquivo .mcp.json,
00:02:58colei,
00:02:59iniciei o aplicativo Next.js e então iniciei o servidor de desenvolvimento do Ingest,
00:03:03que você já viu.
00:03:04Depois disso,
00:03:05reiniciei o Claude Code e verifiquei se o MCP estava conectado.
00:03:09Dentro do MCP,
00:03:09há gerenciamento de eventos,
00:03:11onde ele pode acionar funções com eventos de teste e obter IDs de execução,
00:03:15além de outras funções que permitem listar e invocar funções.
00:03:19Há ferramentas de monitoramento que permitem obter o status e acesso à documentação,
00:03:23então se algo der errado com as funções do Ingest,
00:03:26não preciso mais vasculhar manualmente para descobrir o que há de errado com meu agente.
00:03:30Essas ferramentas podem automaticamente dizer ao Claude o que deu errado,
00:03:33e ele pode consertar para mim.
00:03:34Ele usou a ferramenta de envio de evento para consultar a função principal de pesquisa com a pergunta:
00:03:39"O que é engenharia de contexto?"
00:03:40Depois disso,
00:03:41ele consultou o status da execução,
00:03:43o que significa que ele perguntou repetidamente se a execução estava completa ou não.
00:03:47Então ele testou novamente e viu que todos estavam usando o nome do modelo correto e que o fluxo de trabalho ainda estava sendo executado sem problemas.
00:03:53Em suas próprias palavras,
00:03:55isso representa uma mudança fundamental na forma como estão construindo e depurando funções serverless.
00:04:00Em vez de funções serem caixas pretas que o modelo de IA apenas lê de fora,
00:04:04a IA agora pode atuar na execução e fornecer insights em tempo real.
00:04:08Esperamos que isso aconteça com outras ferramentas também,
00:04:11onde estamos dando mais autonomia à IA..
00:04:13E estou bastante animado com isso.
00:04:15Isso nos leva ao fim deste vídeo.
00:04:16Se você quiser apoiar o canal e nos ajudar a continuar fazendo vídeos como este,
00:04:20pode fazê-lo usando o botão "Super Thanks" abaixo.
00:04:23Como sempre, obrigado por assistir e até o próximo.