Transcript

00:00:00随着AI编码的不断发展,越来越多的事物实现了自动化。
00:00:03再多一件事脱离我们的掌控又何妨呢?
00:00:06大型语言模型(LLM)获得了工具,人类的许多工作也因此实现了自动化。
00:00:10借助Puppeteer MCP,我们见证了UI测试的自动化。
00:00:13现在,Ingest又提供了一个监控层,让你的编码代理能够实时调试它们生成的代码。
00:00:20他们通过发布Ingest开发服务器的MCP来实现这一点,该服务器本质上是其云平台的本地版本。
00:00:26该平台允许你测试在代理中构建的所有功能,并提供一个可视化界面,展示所有内容以及运行的各种事件。
00:00:35这样一来,你就可以直接让Claude Code或Cursor等AI代理来完成所有自动化测试。
00:00:41如果Vercel有类似的功能,他们的部署和调试将只需一个提示即可完成。
00:00:46对于不熟悉Ingest的朋友,它是一个开源的工作流编排平台,能帮助你构建可靠的AI工作流,并解决随之而来的诸多难题。
00:00:55我一直在用它在公司内部构建智能代理工作流,开发体验非常棒。
00:01:00有了MCP服务器,体验更上一层楼。
00:01:03这些工作流是基于异步函数构建的,因此在测试和调试时会遇到一些问题。
00:01:09它们大多由外部事件触发。
00:01:11它们以多步骤异步方式运行。
00:01:13对于不了解异步概念的朋友,异步函数是指那些可以暂停并等待某项任务完成,然后继续执行而不阻塞其他进程的函数。
00:01:22这些函数是大型工作流的一部分,这使得调试变得更加困难。
00:01:26这通常意味着你需要手动触发这些事件,或者需要不时地在代码编辑器和浏览器之间来回切换。
00:01:34你甚至可能需要深入日志,才能弄清楚那个单一函数到底发生了什么,它为何失败,或者其他任何问题。
00:01:41或者你可能还需要重新创建复杂的事件,甚至亲自触发它们来实际测试函数。
00:01:47但现在有了MCP集成,你的AI代理可以自动处理所有这些任务。
00:01:52他们还发表了一篇关于“实践中的上下文工程”的论文,其中详细阐述了他们如何构建一个AI研究代理。
00:01:58我将使用这个代理来演示MCP的工作原理。
00:02:01在这个代理中,他们将上下文工程直接内置其中,而不仅仅是用来构建它,这体现在其上下文检索和上下文丰富两个阶段。
00:02:10他们还非常清晰地阐释了上下文推送和上下文拉取之间的区别。
00:02:14这篇文章也非常有趣,我可能会专门为此制作一期视频。
00:02:18如果你对此感兴趣,请在下方留言。
00:02:20这个代理是完全开源的。
00:02:22我复制了链接,克隆了项目,安装了依赖项,并初始化了Claude Code。
00:02:27我让它分析代码库并生成了`claud.md`文件。
00:02:31文章还指出,我们应根据不同模型的优势来选择使用,他们已经在研究代理中为不同角色配置了独立的LLM代理。
00:02:39他们正在使用Vercel的AI网关,该网关提供了100多种模型的访问权限。
00:02:44我想使用单一模型。
00:02:46利用`claud.md`,它更新了代码库并将其切换为使用OpenAI的API。
00:02:51编辑完成后,它只告诉我更改了哪些文件。
00:02:54之后,我复制了Claude Code的配置,创建了一个`.mcp.json`文件并粘贴进去,启动了Next.js应用,然后启动了你们之前看到的Ingest开发服务器。
00:03:04接着,我重启了Claude Code,并检查了MCP是否已连接。
00:03:09在MCP内部,你可以进行事件管理,它能通过测试事件触发函数并获取运行ID,同时还具备列出和调用其他函数的功能。
00:03:19它还提供了监控工具,可以获取状态和文档访问权限。这样一来,如果Ingest函数出现问题,我就不再需要手动排查代理到底出了什么状况。
00:03:30这些工具可以自动告知Claude哪里出了问题,并能帮我修复。
00:03:34它使用“发送事件”工具,向主要研究函数提问:“什么是上下文工程?”
00:03:40之后,它轮询了运行状态,这本质上意味着它会反复查询运行是否已完成。
00:03:47随后它再次进行了测试,确认所有都使用了正确的模型名称,并且工作流依然运行顺畅。
00:03:53用他们自己的话来说,这代表了他们构建和调试无服务器函数方式的根本性转变。
00:04:00函数不再是AI模型只能从外部读取的“黑盒子”,AI现在可以参与到实际执行中,并提供实时洞察。希望未来我们也能在其他工具中看到这种趋势,赋予AI更多的自主权。
00:04:13我对此感到非常兴奋。
00:04:15今天的视频到这里就结束了。
00:04:16如果你喜欢本频道并希望我们继续制作此类视频,可以通过下方的“超级感谢”按钮来支持我们。
00:04:23一如既往,感谢大家的收看,我们下期再见!

Key Takeaway

Ingest's new MCP development server revolutionizes AI coding by enabling AI agents to autonomously debug and monitor their generated code in real-time, transforming serverless function development from a 'black box' into an interactive process.

Highlights

Ingest's new MCP (Managed Control Plane) development server enables AI coding agents to debug their generated code in real-time.

The platform offers a visual interface for testing and monitoring AI agent functions, automating UI testing and debugging processes.

Ingest is an open-source workflow orchestration platform designed to build reliable AI workflows, praised for its excellent development experience.

The MCP directly addresses the significant challenges of debugging complex, asynchronous, multi-step AI workflows that previously required extensive manual intervention.

AI agents can now autonomously trigger events, monitor function status, and identify/fix issues, eliminating the need for manual troubleshooting.

Ingest also published a paper on 'Context Engineering in Practice,' detailing their AI research agent that utilizes advanced context retrieval and enrichment.

This integration represents a fundamental shift in serverless function debugging, allowing AI models to actively participate in execution and gain real-time insights, moving beyond 'black box' functions.

Timeline

Introduction to AI Coding Automation & Ingest MCP

Discusses the increasing automation in AI coding and introduces Ingest's new monitoring layer for real-time debugging of AI-generated code.

Ingest Dev Server MCP Explained

Details the Ingest Development Server MCP as a local platform for testing and visualizing AI agent functions, enabling AI agents like Claude Code to automate testing.

What is Ingest?

Defines Ingest as an open-source workflow orchestration platform for building reliable AI workflows, with the speaker sharing positive personal experience.

Challenges of Debugging Asynchronous Workflows

Explains the difficulties in debugging asynchronous, multi-step AI workflows, including manual event triggering, tool switching, and complex event recreation.

MCP's Solution & Context Engineering

Highlights how MCP allows AI agents to automate debugging tasks and introduces Ingest's paper on 'Context Engineering in Practice' and their open-source AI research agent.

Demonstration Setup

Describes the steps to set up the demonstration, including cloning the agent, configuring Claude Code, and switching to the OpenAI API.

Exploring MCP Features & Automation

Details the process of starting the Ingest Dev Server and Claude Code, showcasing MCP's event management and monitoring tools that automate debugging.

Live Debugging with Claude Code and MCP

Illustrates the live debugging process where Claude Code uses MCP to ask questions, poll run statuses, and confirm workflow functionality.

Conclusion: A Paradigm Shift in AI Debugging

Concludes that MCP fundamentally changes how serverless functions are debugged, allowing AI to actively participate in execution and provide real-time insights, moving beyond 'black box' functions.

Outro

The speaker's closing remarks and call for support.

Community Posts

No posts yet. Be the first to write about this video!

Write about this video