00:00:00(Beschwingte Musik) - Hallo allerseits,
00:00:06vielen Dank,
00:00:08dass ihr heute hier seid.
00:00:12Ich bin Malavika und,
00:00:13wie ihr gehört habt,
00:00:14bin ich Produktmanagerin bei Vercel.
00:00:15Ich hoffe,
00:00:16ihr hattet einen großartigen Tag auf der Konferenz.
00:00:18Ich bin wirklich begeistert von allem,
00:00:20was ihr mit unseren Open-Source-Tools und Infrastruktur-Komponenten gebaut habt.
00:00:24Es war so schön,
00:00:25viele von euch zum ersten Mal persönlich kennenzulernen und auch neue sowie bekannte Gesichter zu sehen.
00:00:31Heute haben wir viel über die AI Cloud gelernt.
00:00:38Inzwischen seid ihr vermutlich müde,
00:00:41von der AI Cloud zu hören.
00:00:43Vielleicht habt ihr euch gedacht: Mensch,
00:00:45kann ich nicht endlich auf die Happy Hour gehen?
00:00:47Aber nur zur Erinnerung,
00:00:49falls die Botschaft noch nicht ganz gesunken ist: Vercel ist eine einheitliche Plattform zum Erstellen,
00:00:56Bereitstellen und Ausführen intelligenter Anwendungen und der dahinter stehenden Agenten.
00:01:02Versels Mission war schon immer,
00:01:05die Komplexität der Infrastrukturverwaltung zu verringern und euch zu ermöglichen,
00:01:11erstaunliche Benutzererlebnisse zu schaffen.
00:01:14Wenn wir betrachten,
00:01:16wie erfolgreich wir waren,
00:01:18die Komplexität über den gesamten Softwareentwicklungsprozess zu verringern,
00:01:24haben wir bei der Buildzeit großartige Arbeit geleistet.
00:01:29Framework-definierte Infrastruktur bedeutet,
00:01:31dass ihr euch nicht um die zugrunde liegenden Infrastruktur-Komponenten sorgen müsst.
00:01:35Es gibt keine Notwendigkeit für komplexe Orchestrierung oder Infrastructure-as-Code.
00:01:40Wir kümmern uns um Computing,
00:01:42Netzwerk,
00:01:43Caching und mehr,
00:01:44damit ihr euch auf eure Anwendungslogik konzentrieren könnt.
00:01:48Aber wenn wir die Laufzeit betrachten,
00:01:50gibt es noch viel zu tun,
00:01:52um sie genauso einfach und mühelos wie die Buildzeit zu gestalten.
00:01:56Leider ist die Verwaltung einer Anwendung zur Laufzeit immer noch sehr zeitaufwändig für Entwicklerteams.
00:02:06Wie viele von euch hier im Publikum hatten in der letzten Woche einen größeren Vorfall?
00:02:12Ich sehe nicht viele Hände nach oben gehen.
00:02:15Das wundert mich.
00:02:16Ich denke mir, benutzt ihr alle GCP oder so?
00:02:20Vielleicht du dort im Publikum.
00:02:22Du freust dich wahrscheinlich gerade,
00:02:25dass du Next.js selbst auf einem VPS bei Hetzner hostest.
00:02:29Du denkst dir, die Cloud wird mich nicht zu Fall bringen.
00:02:33Aber mit der Vorfallverwaltung ist so viel manuelle Arbeit verbunden.
00:02:38Erstens müssen Teams Alerts und Monitoring einrichten,
00:02:41um potenzielle Probleme zu identifizieren.
00:02:44Diese Monitoring-Tools führen dann wiederum zu Alert-Fatigue,
00:02:47wenn Teams versuchen,
00:02:49wichtige Signale aus dem Rauschen herauszufiltern.
00:02:52Und sobald wir ein Problem identifiziert haben,
00:02:55verbringen Teams Stunden damit,
00:02:57das Problem zu debuggen,
00:02:58die Grundursache zu ermitteln und einen Fix anzuwenden.
00:03:02Wir machen das jetzt im Publikum interaktiv.
00:03:08Wie viel Zeit verbringen Entwickler eurer Meinung nach beim Debugging eines Vorfalls?
00:03:13Wie viele von euch denken,
00:03:14dass es unter 20% der Vorfallzeit für Debugging ist?
00:03:18- Mehr. - Mehr?
00:03:20Ich habe 80% gehört.
00:03:22Also wir denken,
00:03:23es ist fast so wie,
00:03:24wer denkt,
00:03:24es sind eher 40%?
00:03:26Okay, es gibt, jemand denkt, es sind 60, 70%?
00:03:33Okay, das scheint vielleicht ein Konsens zu sein.
00:03:3650% - tatsächlich verbringen 50% der Vorfallzeit damit,
00:03:40die Grundursache zu identifizieren und herauszufinden,
00:03:44wer das Problem lösen sollte.
00:03:46Verrückt ist das,
00:03:472025 mit KI,
00:03:48und wir verbringen Stunden wertvoller Entwicklerzeit mit dem Debugging von Problemen.
00:03:54Was, wenn wir das auf Sekunden reduzieren könnten?
00:03:56Nun, mit Vercel Agent könnt ihr das.
00:04:01Unsere Anomaliemeldungen überwachen eure Anwendung auf verdächtige Aktivitäten.
00:04:06Direkt verfügbar, keine Konfiguration erforderlich.
00:04:09Sobald wir ungewöhnliches Verhalten erkennen,
00:04:12untersucht Vercel Agent das Problem,
00:04:14führt eine Ursachenanalyse durch und diagnostiziert das Problem in wenigen Sekunden.
00:04:20Im Gegensatz zu traditionellen Observability-Tools oder Infrastrukturanbietern haben wir den vollständigen Kontext eurer App.
00:04:26Wir haben sie gebaut,
00:04:27wir haben sie bereitgestellt,
00:04:28und wir führen sie in der Produktionsumgebung aus.
00:04:30Auch wenn wir eure App nicht so gut kennen wie ihr und sicher nicht so gut wie euer 10X-Ingenieur,
00:04:36sind wir einzigartig positioniert,
00:04:39um euch einen KI-nativen Ansatz für Zuverlässigkeit,
00:04:42Performance und Sicherheit zur Laufzeit zu bieten.
00:04:45Vercel Agent-Untersuchungen bauen auf unseren nativen Observability-Tools auf,
00:04:51die wir durchdacht gestaltet haben,
00:04:54um euch Einblick in das Laufzeitverhalten mit Buildzeit-Kontext zu geben.
00:05:00Laufzeit-Logs geben euch granularen Einblick in das Verhalten der Anwendung.
00:05:07Mit Laufzeit-Logs könnt ihr den Lebenszyklus einer HTTP-Anfrage an eure Anwendung verfolgen,
00:05:12von dem Moment,
00:05:13in dem sie in das Vercel-Netzwerk eindringt,
00:05:15bis zu dem Moment,
00:05:16in dem eine Antwort an den Client zurückgegeben wird.
00:05:19Wir bieten euch auch im Lieferumfang entschiedene Dashboards an,
00:05:23damit ihr schnell die Gesundheit eurer Anwendung verstehen,
00:05:28Probleme identifizieren und Performance optimieren könnt.
00:05:32Mit Versels kürzlich eingeführten Anomaliemeldungen könnt ihr eure Anwendung nun aktiv auf ungewöhnliche Aktivitäten überwachen,
00:05:41um Probleme schnell zu identifizieren und zu beheben.
00:05:45Und schließlich könnt ihr mit unserem Query-Tool die umfangreiche Menge an Metriken durchsuchen,
00:05:52die wir sammeln und auf eurer Anwendung anzeigen.
00:05:55Ihr könnt Abfragen schreiben,
00:05:57um eine Reihe von Fragen zu beantworten,
00:05:59von welche Bots meine Anwendung crawlen bis hin zur Quantifizierung der P90-Zeit bis zum ersten Token verschiedener Model-Provider,
00:06:07die ihr in eurer Anwendung verwendet.
00:06:09Vercel Agent-Untersuchungen bauen auf all diesen Funktionen auf und verringern die Notwendigkeit für manuelle Exploration und heben wichtige Erkenntnisse hervor.
00:06:22Wenn wir uns ansehen,
00:06:23was als nächstes für Vercel Agent kommt,
00:06:26ist unser Ziel,
00:06:27letztendlich die Art und Weise zu überdenken,
00:06:30wie wir mit Observability-Tools interagieren.
00:06:34Unsere Vision ist,
00:06:35dass die AI Cloud eure Anwendung repariert und optimiert,
00:06:40nicht nur über Probleme informiert.
00:06:42Grundsätzlich glauben wir,
00:06:45dass die AI Cloud euch nicht nur Probleme präsentieren sollte,
00:06:50sondern Lösungen,
00:06:52Empfehlungen,
00:06:53Pull Requests und automatisierte Aktionen geben sollte.
00:06:58Und das ist die Welt, die wir mit Vercel Agent aufbauen.
00:07:03Ihr könnt noch heute mit Vercel Agent anfangen.
00:07:05Wie ihr gehört habt,
00:07:06ist es in Public Beta,
00:07:07und wir verschenken 100 Dollar in kostenlosen Credits an alle Vercel-Nutzer,
00:07:11um diese neuen Funktionen auszuprobieren.
00:07:13Wir haben die Code-Review-Funktion letzten Monat eingeführt,
00:07:16und sie ist für alle Vercel-Nutzer verfügbar.
00:07:19Agent-Untersuchungen sind ab heute verfügbar,
00:07:22und sie sind für Pro- und Enterprise-Kunden mit Observability Plus verfügbar.
00:07:27Und ihr könnt den Agent-Tab im Vercel-Dashboard besuchen,
00:07:30um anzufangen.
00:07:33Ich werde jetzt ein wenig die Richtung wechseln.
00:07:35Ich möchte mich mit einem anderen wichtigen Thema befassen,
00:07:38und zwar mit Evals.
00:07:39Wie viele von euch nutzen ein dediziertes KI-Observability-Produkt für Evals?
00:07:44Ah, ich sehe tatsächlich sehr wenige Hände nach oben gehen.
00:07:48Interessant.
00:07:49Aber für diejenigen,
00:07:50die es tun,
00:07:51wisst ihr,
00:07:52dass KI-Anwendungen nicht-deterministisch sind.
00:07:55Es ist also sehr wichtig,
00:07:56dass wir auch die Qualität der Ausgabe überwachen.
00:08:00Agenten verknüpfen eine Reihe von Überlegungsschritten,
00:08:03was noch mehr Komplexität mit sich bringt.
00:08:06Und deshalb haben wir ein großes Ökosystem von Agent-Frameworks gesehen,
00:08:10die auf OpenTelemetry aufbauen,
00:08:12um Entwicklern dabei zu helfen,
00:08:13ihre Agent-Workflows zu überwachen,
00:08:15zu debuggen und zu optimieren.
00:08:17Und ich glaube,
00:08:18ich sah sehr wenige Hände nach oben gehen,
00:08:20aber wie viele von euch sammelt Traces für Evals?
00:08:23Okay, ich sehe ein paar Hände nach oben gehen im Publikum.
00:08:27Ich sehe ein paar Hände.
00:08:27Entschuldigung, ich schaue hier rüber.
00:08:29Es ist ziemlich hell.
00:08:30Wenn ihr Traces mit OpenTelemetry sammelt,
00:08:34könnt ihr diese Traces mit Vercel Drains an jedes Ziel exportieren.
00:08:40Vercel Drains ermöglicht es euch,
00:08:42alle eure Vercel-Daten an ein Observability-Tool eines Dritten zu exportieren.
00:08:46Wenn ihr also ein Evals-Tool eines Dritten verwendet,
00:08:48könnt ihr eure Traces dorthin exportieren.
00:08:50Um es Entwicklern wirklich einfach zu machen,
00:08:53Evals auszuführen und die Modellqualität zu überwachen,
00:08:56haben wir tatsächlich eine Partnerschaft mit BrainTrust über den Vercel Marketplace geschlossen.
00:09:01Mit dieser neuen Integration könnt ihr Traces und Evaluierungsdaten von Vercel ganz einfach automatisch zu BrainTrust streamen.
00:09:10Heute könntet ihr mehr über unsere Marketplace-Integration in einem Panel mit Ankur Goyal,
00:09:16dem Gründer von BrainTrust,
00:09:18gehört haben.
00:09:19Um es euch wirklich einfach zu machen anzufangen,
00:09:22haben wir tatsächlich eine Demo-App.
00:09:25Hier könnt ihr diesen QR-Code scannen.
00:09:27Diese Demo-App könnt ihr aus unserer Template-Bibliothek klonen.
00:09:30Es ist ein KI-Chatbot,
00:09:32der mit Next.js,
00:09:33dem AI SDK und AI Gateway gebaut wurde,
00:09:35mit Traces,
00:09:36die an BrainTrust gesendet werden.
00:09:38Ich gebe euch alle eine Sekunde.
00:09:39Oh, bin ich im Weg?
00:09:44Ich werde aus dem Weg gehen.
00:09:45Fantastisch.
00:09:47Wie ihr sehen könnt,
00:09:49ist unser Ziel,
00:09:50euch Flexibilität und Kontrolle über die Tools zu geben,
00:09:54die ihr verwendet.
00:09:55Während wir hart daran arbeiten,
00:09:57wirklich großartige native Observability-Tools zu bauen,
00:09:59werdet ihr immer die Freiheit haben,
00:10:01eure Daten dorthin zu senden,
00:10:02wo ihr wollt.
00:10:03Das Wichtigste ist,
00:10:04dass ihr großartige Benutzererlebnisse schaffen und unvorhersehbaren Code in zuverlässige Systeme verwandeln könnt.
00:10:11Und damit ist heute zu Ende.
00:10:15Wenn ihr mich auf der Happy Hour trefft,
00:10:17würde ich gerne mehr über das erfahren,
00:10:18was ihr baut.
00:10:19Vielen Dank.
00:10:20(Publikum applaudiert) (Beschwingte Musik) (Beschwingte Musik)