Observability für die AI Cloud

VVercel
AI/미래기술창업/스타트업컴퓨터/소프트웨어

Transcript

00:00:00(Beschwingte Musik) - Hallo allerseits,
00:00:06vielen Dank,
00:00:08dass ihr heute hier seid.
00:00:12Ich bin Malavika und,
00:00:13wie ihr gehört habt,
00:00:14bin ich Produktmanagerin bei Vercel.
00:00:15Ich hoffe,
00:00:16ihr hattet einen großartigen Tag auf der Konferenz.
00:00:18Ich bin wirklich begeistert von allem,
00:00:20was ihr mit unseren Open-Source-Tools und Infrastruktur-Komponenten gebaut habt.
00:00:24Es war so schön,
00:00:25viele von euch zum ersten Mal persönlich kennenzulernen und auch neue sowie bekannte Gesichter zu sehen.
00:00:31Heute haben wir viel über die AI Cloud gelernt.
00:00:38Inzwischen seid ihr vermutlich müde,
00:00:41von der AI Cloud zu hören.
00:00:43Vielleicht habt ihr euch gedacht: Mensch,
00:00:45kann ich nicht endlich auf die Happy Hour gehen?
00:00:47Aber nur zur Erinnerung,
00:00:49falls die Botschaft noch nicht ganz gesunken ist: Vercel ist eine einheitliche Plattform zum Erstellen,
00:00:56Bereitstellen und Ausführen intelligenter Anwendungen und der dahinter stehenden Agenten.
00:01:02Versels Mission war schon immer,
00:01:05die Komplexität der Infrastrukturverwaltung zu verringern und euch zu ermöglichen,
00:01:11erstaunliche Benutzererlebnisse zu schaffen.
00:01:14Wenn wir betrachten,
00:01:16wie erfolgreich wir waren,
00:01:18die Komplexität über den gesamten Softwareentwicklungsprozess zu verringern,
00:01:24haben wir bei der Buildzeit großartige Arbeit geleistet.
00:01:29Framework-definierte Infrastruktur bedeutet,
00:01:31dass ihr euch nicht um die zugrunde liegenden Infrastruktur-Komponenten sorgen müsst.
00:01:35Es gibt keine Notwendigkeit für komplexe Orchestrierung oder Infrastructure-as-Code.
00:01:40Wir kümmern uns um Computing,
00:01:42Netzwerk,
00:01:43Caching und mehr,
00:01:44damit ihr euch auf eure Anwendungslogik konzentrieren könnt.
00:01:48Aber wenn wir die Laufzeit betrachten,
00:01:50gibt es noch viel zu tun,
00:01:52um sie genauso einfach und mühelos wie die Buildzeit zu gestalten.
00:01:56Leider ist die Verwaltung einer Anwendung zur Laufzeit immer noch sehr zeitaufwändig für Entwicklerteams.
00:02:06Wie viele von euch hier im Publikum hatten in der letzten Woche einen größeren Vorfall?
00:02:12Ich sehe nicht viele Hände nach oben gehen.
00:02:15Das wundert mich.
00:02:16Ich denke mir, benutzt ihr alle GCP oder so?
00:02:20Vielleicht du dort im Publikum.
00:02:22Du freust dich wahrscheinlich gerade,
00:02:25dass du Next.js selbst auf einem VPS bei Hetzner hostest.
00:02:29Du denkst dir, die Cloud wird mich nicht zu Fall bringen.
00:02:33Aber mit der Vorfallverwaltung ist so viel manuelle Arbeit verbunden.
00:02:38Erstens müssen Teams Alerts und Monitoring einrichten,
00:02:41um potenzielle Probleme zu identifizieren.
00:02:44Diese Monitoring-Tools führen dann wiederum zu Alert-Fatigue,
00:02:47wenn Teams versuchen,
00:02:49wichtige Signale aus dem Rauschen herauszufiltern.
00:02:52Und sobald wir ein Problem identifiziert haben,
00:02:55verbringen Teams Stunden damit,
00:02:57das Problem zu debuggen,
00:02:58die Grundursache zu ermitteln und einen Fix anzuwenden.
00:03:02Wir machen das jetzt im Publikum interaktiv.
00:03:08Wie viel Zeit verbringen Entwickler eurer Meinung nach beim Debugging eines Vorfalls?
00:03:13Wie viele von euch denken,
00:03:14dass es unter 20% der Vorfallzeit für Debugging ist?
00:03:18- Mehr. - Mehr?
00:03:20Ich habe 80% gehört.
00:03:22Also wir denken,
00:03:23es ist fast so wie,
00:03:24wer denkt,
00:03:24es sind eher 40%?
00:03:26Okay, es gibt, jemand denkt, es sind 60, 70%?
00:03:33Okay, das scheint vielleicht ein Konsens zu sein.
00:03:3650% - tatsächlich verbringen 50% der Vorfallzeit damit,
00:03:40die Grundursache zu identifizieren und herauszufinden,
00:03:44wer das Problem lösen sollte.
00:03:46Verrückt ist das,
00:03:472025 mit KI,
00:03:48und wir verbringen Stunden wertvoller Entwicklerzeit mit dem Debugging von Problemen.
00:03:54Was, wenn wir das auf Sekunden reduzieren könnten?
00:03:56Nun, mit Vercel Agent könnt ihr das.
00:04:01Unsere Anomaliemeldungen überwachen eure Anwendung auf verdächtige Aktivitäten.
00:04:06Direkt verfügbar, keine Konfiguration erforderlich.
00:04:09Sobald wir ungewöhnliches Verhalten erkennen,
00:04:12untersucht Vercel Agent das Problem,
00:04:14führt eine Ursachenanalyse durch und diagnostiziert das Problem in wenigen Sekunden.
00:04:20Im Gegensatz zu traditionellen Observability-Tools oder Infrastrukturanbietern haben wir den vollständigen Kontext eurer App.
00:04:26Wir haben sie gebaut,
00:04:27wir haben sie bereitgestellt,
00:04:28und wir führen sie in der Produktionsumgebung aus.
00:04:30Auch wenn wir eure App nicht so gut kennen wie ihr und sicher nicht so gut wie euer 10X-Ingenieur,
00:04:36sind wir einzigartig positioniert,
00:04:39um euch einen KI-nativen Ansatz für Zuverlässigkeit,
00:04:42Performance und Sicherheit zur Laufzeit zu bieten.
00:04:45Vercel Agent-Untersuchungen bauen auf unseren nativen Observability-Tools auf,
00:04:51die wir durchdacht gestaltet haben,
00:04:54um euch Einblick in das Laufzeitverhalten mit Buildzeit-Kontext zu geben.
00:05:00Laufzeit-Logs geben euch granularen Einblick in das Verhalten der Anwendung.
00:05:07Mit Laufzeit-Logs könnt ihr den Lebenszyklus einer HTTP-Anfrage an eure Anwendung verfolgen,
00:05:12von dem Moment,
00:05:13in dem sie in das Vercel-Netzwerk eindringt,
00:05:15bis zu dem Moment,
00:05:16in dem eine Antwort an den Client zurückgegeben wird.
00:05:19Wir bieten euch auch im Lieferumfang entschiedene Dashboards an,
00:05:23damit ihr schnell die Gesundheit eurer Anwendung verstehen,
00:05:28Probleme identifizieren und Performance optimieren könnt.
00:05:32Mit Versels kürzlich eingeführten Anomaliemeldungen könnt ihr eure Anwendung nun aktiv auf ungewöhnliche Aktivitäten überwachen,
00:05:41um Probleme schnell zu identifizieren und zu beheben.
00:05:45Und schließlich könnt ihr mit unserem Query-Tool die umfangreiche Menge an Metriken durchsuchen,
00:05:52die wir sammeln und auf eurer Anwendung anzeigen.
00:05:55Ihr könnt Abfragen schreiben,
00:05:57um eine Reihe von Fragen zu beantworten,
00:05:59von welche Bots meine Anwendung crawlen bis hin zur Quantifizierung der P90-Zeit bis zum ersten Token verschiedener Model-Provider,
00:06:07die ihr in eurer Anwendung verwendet.
00:06:09Vercel Agent-Untersuchungen bauen auf all diesen Funktionen auf und verringern die Notwendigkeit für manuelle Exploration und heben wichtige Erkenntnisse hervor.
00:06:22Wenn wir uns ansehen,
00:06:23was als nächstes für Vercel Agent kommt,
00:06:26ist unser Ziel,
00:06:27letztendlich die Art und Weise zu überdenken,
00:06:30wie wir mit Observability-Tools interagieren.
00:06:34Unsere Vision ist,
00:06:35dass die AI Cloud eure Anwendung repariert und optimiert,
00:06:40nicht nur über Probleme informiert.
00:06:42Grundsätzlich glauben wir,
00:06:45dass die AI Cloud euch nicht nur Probleme präsentieren sollte,
00:06:50sondern Lösungen,
00:06:52Empfehlungen,
00:06:53Pull Requests und automatisierte Aktionen geben sollte.
00:06:58Und das ist die Welt, die wir mit Vercel Agent aufbauen.
00:07:03Ihr könnt noch heute mit Vercel Agent anfangen.
00:07:05Wie ihr gehört habt,
00:07:06ist es in Public Beta,
00:07:07und wir verschenken 100 Dollar in kostenlosen Credits an alle Vercel-Nutzer,
00:07:11um diese neuen Funktionen auszuprobieren.
00:07:13Wir haben die Code-Review-Funktion letzten Monat eingeführt,
00:07:16und sie ist für alle Vercel-Nutzer verfügbar.
00:07:19Agent-Untersuchungen sind ab heute verfügbar,
00:07:22und sie sind für Pro- und Enterprise-Kunden mit Observability Plus verfügbar.
00:07:27Und ihr könnt den Agent-Tab im Vercel-Dashboard besuchen,
00:07:30um anzufangen.
00:07:33Ich werde jetzt ein wenig die Richtung wechseln.
00:07:35Ich möchte mich mit einem anderen wichtigen Thema befassen,
00:07:38und zwar mit Evals.
00:07:39Wie viele von euch nutzen ein dediziertes KI-Observability-Produkt für Evals?
00:07:44Ah, ich sehe tatsächlich sehr wenige Hände nach oben gehen.
00:07:48Interessant.
00:07:49Aber für diejenigen,
00:07:50die es tun,
00:07:51wisst ihr,
00:07:52dass KI-Anwendungen nicht-deterministisch sind.
00:07:55Es ist also sehr wichtig,
00:07:56dass wir auch die Qualität der Ausgabe überwachen.
00:08:00Agenten verknüpfen eine Reihe von Überlegungsschritten,
00:08:03was noch mehr Komplexität mit sich bringt.
00:08:06Und deshalb haben wir ein großes Ökosystem von Agent-Frameworks gesehen,
00:08:10die auf OpenTelemetry aufbauen,
00:08:12um Entwicklern dabei zu helfen,
00:08:13ihre Agent-Workflows zu überwachen,
00:08:15zu debuggen und zu optimieren.
00:08:17Und ich glaube,
00:08:18ich sah sehr wenige Hände nach oben gehen,
00:08:20aber wie viele von euch sammelt Traces für Evals?
00:08:23Okay, ich sehe ein paar Hände nach oben gehen im Publikum.
00:08:27Ich sehe ein paar Hände.
00:08:27Entschuldigung, ich schaue hier rüber.
00:08:29Es ist ziemlich hell.
00:08:30Wenn ihr Traces mit OpenTelemetry sammelt,
00:08:34könnt ihr diese Traces mit Vercel Drains an jedes Ziel exportieren.
00:08:40Vercel Drains ermöglicht es euch,
00:08:42alle eure Vercel-Daten an ein Observability-Tool eines Dritten zu exportieren.
00:08:46Wenn ihr also ein Evals-Tool eines Dritten verwendet,
00:08:48könnt ihr eure Traces dorthin exportieren.
00:08:50Um es Entwicklern wirklich einfach zu machen,
00:08:53Evals auszuführen und die Modellqualität zu überwachen,
00:08:56haben wir tatsächlich eine Partnerschaft mit BrainTrust über den Vercel Marketplace geschlossen.
00:09:01Mit dieser neuen Integration könnt ihr Traces und Evaluierungsdaten von Vercel ganz einfach automatisch zu BrainTrust streamen.
00:09:10Heute könntet ihr mehr über unsere Marketplace-Integration in einem Panel mit Ankur Goyal,
00:09:16dem Gründer von BrainTrust,
00:09:18gehört haben.
00:09:19Um es euch wirklich einfach zu machen anzufangen,
00:09:22haben wir tatsächlich eine Demo-App.
00:09:25Hier könnt ihr diesen QR-Code scannen.
00:09:27Diese Demo-App könnt ihr aus unserer Template-Bibliothek klonen.
00:09:30Es ist ein KI-Chatbot,
00:09:32der mit Next.js,
00:09:33dem AI SDK und AI Gateway gebaut wurde,
00:09:35mit Traces,
00:09:36die an BrainTrust gesendet werden.
00:09:38Ich gebe euch alle eine Sekunde.
00:09:39Oh, bin ich im Weg?
00:09:44Ich werde aus dem Weg gehen.
00:09:45Fantastisch.
00:09:47Wie ihr sehen könnt,
00:09:49ist unser Ziel,
00:09:50euch Flexibilität und Kontrolle über die Tools zu geben,
00:09:54die ihr verwendet.
00:09:55Während wir hart daran arbeiten,
00:09:57wirklich großartige native Observability-Tools zu bauen,
00:09:59werdet ihr immer die Freiheit haben,
00:10:01eure Daten dorthin zu senden,
00:10:02wo ihr wollt.
00:10:03Das Wichtigste ist,
00:10:04dass ihr großartige Benutzererlebnisse schaffen und unvorhersehbaren Code in zuverlässige Systeme verwandeln könnt.
00:10:11Und damit ist heute zu Ende.
00:10:15Wenn ihr mich auf der Happy Hour trefft,
00:10:17würde ich gerne mehr über das erfahren,
00:10:18was ihr baut.
00:10:19Vielen Dank.
00:10:20(Publikum applaudiert) (Beschwingte Musik) (Beschwingte Musik)

Key Takeaway

Vercel Agent revolutioniert die Observability für AI Cloud-Anwendungen, indem es KI-gesteuerte automatisierte Diagnose und Remediation bietet, um Entwicklerzeit bei der Vorfallverwaltung massiv zu reduzieren.

Highlights

Vercel Agent nutzt KI zur automatisierten Diagnose von Produktionsproblemen in Sekunden statt Stunden

50% der Vorfallverwaltungszeit wird für die Ursachenanalyse und Debugging aufgebracht - Vercel Agent reduziert dies erheblich

Native Observability-Tools mit Laufzeit-Logs, Anomaliemeldungen und Dashboards bieten vollständigen Kontext bei Problemen

Vercel Agent-Untersuchungen sind ab sofort verfügbar für Pro- und Enterprise-Kunden mit Observability Plus

Vision: AI Cloud sollte nicht nur Probleme berichten, sondern automatisierte Lösungen, Pull Requests und Empfehlungen bereitstellen

Partnerschaft mit BrainTrust über Vercel Marketplace ermöglicht einfache Integration für KI-Evaluationen und Qualitätsüberwachung

Vercel Drains ermöglicht flexible Datenexporte an Drittanbieter-Observability-Tools - vollständige Kontrolle und Flexibilität für Entwickler

Timeline

Einführung und Versels Mission - Vereinfachung der Infrastruktur-Komplexität

Malavika stellt sich als Produktmanagerin bei Vercel vor und eröffnet die Präsentation mit einem Überblick über Versels Kernmission. Sie erläutert, dass Vercel eine einheitliche Plattform zum Erstellen, Bereitstellen und Ausführen intelligenter Anwendungen und deren Agenten bietet. Das Unternehmen hat bei der Buildzeit große Fortschritte erzielt, indem es Framework-definierte Infrastruktur einführte, sodass Entwickler sich nicht um komplexe Orchestrierung oder Infrastructure-as-Code kümmern müssen. Allerdings betont sie, dass die Laufzeit-Verwaltung von Anwendungen immer noch sehr zeitaufwendig ist und großes Optimierungspotenzial bietet. Sie schließt mit der Feststellung, dass trotz moderner Cloud-Technologie und KI-Fortschritten die Verwaltung von Produktionsumgebungen manuell und komplex bleibt.

Das Problem der Vorfallverwaltung - Manuelle Arbeit und Alert-Fatigue

Malavika präsentiert die Herausforderungen bei der Vorfallverwaltung in modernen Anwendungen. Sie erklärt, dass Teams zunächst Monitoring-Systeme und Alerts einrichten müssen, um potenzielle Probleme zu identifizieren, was jedoch zu Alert-Fatigue führt, wenn wichtige Signale aus dem Rauschen gefiltert werden müssen. Darüber hinaus verbringen Teams nach der Problemidentifikation Stunden damit, das Problem zu debuggen, die Grundursache zu ermitteln und einen Fix anzuwenden. Mit einer interaktiven Befragung des Publikums enthüllt sie eine schockierende Statistik: 50% der Vorfallverwaltungszeit wird damit verbracht, die Grundursache zu identifizieren und herauszufinden, wer das Problem lösen sollte. Sie unterstreicht die Absurdität dieser Situation im Jahr 2025 mit fortgeschrittener KI-Technologie und wirft die provokative Frage auf: Was wenn diese Zeit auf Sekunden reduziert werden könnte?

Vercel Agent - KI-gesteuerte Anomalieerkennung und Ursachenanalyse

Malavika stellt Vercel Agent vor, die KI-gesteuerte Lösung zur Automatisierung der Vorfallverwaltung. Vercel Agent bietet Anomaliemeldungen, die Anwendungen automatisch auf verdächtige Aktivitäten überwachen, ohne dass Konfiguration erforderlich ist. Sobald ungewöhnliches Verhalten erkannt wird, untersucht der Agent das Problem automatisch, führt eine Ursachenanalyse durch und diagnostiziert das Problem in Sekunden. Sie betont den einzigartigen Vorteil von Vercel: Das Unternehmen hat den vollständigen Kontext der Anwendungen, da es sie gebaut hat, bereitgestellt hat und sie in der Produktionsumgebung ausführt. Dies ermöglicht einen KI-nativen Ansatz für Zuverlässigkeit, Performance und Sicherheit zur Laufzeit, der traditionelle Observability-Tools nicht bieten können.

Native Observability-Tools - Laufzeit-Logs, Dashboards und Query-Funktionen

Malavika beschreibt die nativen Observability-Tools, auf denen Vercel Agent aufbaut. Laufzeit-Logs bieten granularen Einblick in das Verhalten von Anwendungen und ermöglichen es Entwicklern, den Lebenszyklus einer HTTP-Anfrage zu verfolgen, von ihrem Eindringen in das Vercel-Netzwerk bis zur Rückgabe der Antwort an den Client. Vercel bietet auch vordefinierte Dashboards, die es Entwicklern ermöglichen, schnell die Gesundheit ihrer Anwendung zu verstehen und Probleme zu identifizieren. Darüber hinaus können Entwickler mit dem Query-Tool umfangreiche Datenmengen durchsuchen, um eine Vielzahl von Fragen zu beantworten - von der Identifikation von Crawling-Bots bis zur Quantifizierung der P90-Latenz verschiedener KI-Modell-Provider.

Zukunftsvision - Von Problembenachrichtigungen zu automatisierten Lösungen

Malavika präsentiert Versels ambitionierte Zukunftsvision für die AI Cloud und Observability. Das Ziel ist es, die Art und Weise, wie Entwickler mit Observability-Tools interagieren, grundlegend zu überdenken. Anstatt nur Probleme zu präsentieren, soll die AI Cloud Anwendungen reparieren und optimieren. Sie betont, dass Observability-Tools der Zukunft nicht nur Probleme, sondern auch Lösungen, Empfehlungen, Pull Requests und automatisierte Aktionen bereitstellen sollten. Dies ist das Kernkonzept, das Vercel Agent mit seinen erweiterten KI-Fähigkeiten realisieren soll. Sie unterstreicht, dass dies einen paradigmatischen Wechsel von reaktiven zu proaktiven, automatisierten Systemen darstellt.

Verfügbarkeit von Vercel Agent und Code-Review-Funktionen

Malavika informiert über die Verfügbarkeit und Zugänglichkeit der neuen Vercel Agent-Funktionen. Vercel Agent ist in Public Beta verfügbar und Vercel verschenkt 100 Dollar in kostenlosen Credits an alle Nutzer zum Ausprobieren der neuen Funktionen. Die Code-Review-Funktion wurde bereits im letzten Monat eingeführt und ist für alle Vercel-Nutzer kostenlos verfügbar. Agent-Untersuchungen sind ab sofort verfügbar und sind für Pro- und Enterprise-Kunden mit Observability Plus zugänglich. Sie weist die Zuhörer darauf hin, den Agent-Tab im Vercel-Dashboard zu besuchen, um zu beginnen. Danach wechselt sie das Thema zu KI-Evaluationen und stellt fest, dass relativ wenige Entwickler dedizierte KI-Observability-Produkte für Evaluationen nutzen.

KI-Evaluationen, OpenTelemetry und BrainTrust-Integration

Malavika behandelt das wichtige Thema KI-Evaluationen und Qualitätsüberwachung. Sie erläutert, dass KI-Anwendungen nicht-deterministisch sind und die Ausgabequalität überwacht werden muss, besonders bei Agenten, die mehrere Überlegungsschritte verknüpfen. Sie erwähnt ein wachsendes Ökosystem von Agent-Frameworks, die auf OpenTelemetry aufbauen, um Entwicklern bei der Überwachung und Optimierung ihrer Workflows zu helfen. Vercel Drains ermöglichen es, alle Daten an Drittanbieter-Observability-Tools zu exportieren. Um die Evaluierungen zu vereinfachen, hat Vercel eine Partnerschaft mit BrainTrust über den Vercel Marketplace eingegangen, die es Entwicklern ermöglicht, Traces und Evaluierungsdaten automatisch zu BrainTrust zu streamen.

Abschluss - Flexibilität, Kontrolle und Entwickler-Fokus

Malavika schließt die Präsentation ab und betont Versels Philosophie der Entwickler-Freiheit und -Kontrolle. Während Vercel hart daran arbeitet, erstklassige native Observability-Tools zu entwickeln, werden Entwickler immer die Freiheit haben, ihre Daten dorthin zu senden, wohin sie möchten. Das übergeordnete Ziel ist es, Entwicklern zu helfen, großartige Benutzererlebnisse zu schaffen und unzuverlässigen Code in zuverlässige Systeme zu verwandeln. Sie lädt die Zuhörer ein, sie bei der Happy Hour zu treffen, um mehr über ihre Projekte zu sprechen, und bedankt sich für die Aufmerksamkeit.

Community Posts

View all posts