Von der Alpha-Phase zur Umsetzung: Wie AISDK5 uns beim Aufbau eines KI-nativen CRM geholfen hat

VVercel
Internet TechnologySmall Business/StartupsComputing/Software

Transcript

00:00:00(beschwingte Musik) - Hallo,
00:00:04vielen Dank,
00:00:06dass wir hier sein dürfen.
00:00:11Ich bin Jack und zusammen mit meiner Kollegin Nikita,
00:00:14die gleich hier herauskommt,
00:00:15haben wir Lightfield entwickelt,
00:00:17ein KI-natives CRM.
00:00:19Wir begannen im Januar mit der Nutzung des AI SDK V4 und stiegen sofort auf V5 um,
00:00:24als es im Juni in Alpha ging.
00:00:26Heute möchten wir euch zeigen,
00:00:27wie wir ein Produktionssystem aufgebaut haben,
00:00:30in dem KI-Agenten sicheren Lese- und Schreibzugriff auf Kundendaten haben,
00:00:34wie wir Human-in-the-Loop-Workflows handhaben,
00:00:36und welche architektonischen Entscheidungen das alles ermöglicht haben.
00:00:40Wir werden euch die Muster zeigen,
00:00:42die wir entdeckt haben,
00:00:43die Trade-offs,
00:00:43die wir eingegangen sind,
00:00:44und wie das AI SDK uns geholfen hat,
00:00:46schnell voranzukommen,
00:00:47ohne uns in eine Sackgasse zu manövrieren.
00:00:49Aber zuerst: Warum waren CRMs kaputt,
00:00:52und warum ist das wichtig?
00:00:54Also, wer kennt sich mit CRMs aus?
00:00:59Vielleicht?
00:01:00Ein paar Engineers?
00:01:01Ja, also, so sollte es ablaufen, richtig?
00:01:03Du fängst an, mit Kunden zu sprechen.
00:01:05Vielleicht bist du ein Gründer, der Sales macht.
00:01:07Oder du bist im Sales-Team.
00:01:10Anfangs scheint es machbar.
00:01:11Du erinnerst dich an jeden.
00:01:13Jedes Gespräch ist frisch in deinem Gedächtnis.
00:01:16Dann kommen 10 Kunden,
00:01:1820,
00:01:1850 dazu,
00:01:19und jemand aus deinem Sales-Team fragt: "Hey,
00:01:22was hat Sarah von Acme über unsere Preise gesagt?
00:01:26Hatte sie Bedenken bezüglich des Enterprise-Plans?" Also,
00:01:29jetzt durchsuchst du Slack.
00:01:31Du durchsuchst deine E-Mails.
00:01:32Du durchsuchst Google Docs.
00:01:34Vielleicht die Zoom-Aufzeichnung,
00:01:36die noch nicht transkribiert wurde.
00:01:38Schließlich findest du es versteckt in einem Thread von vor zwei Wochen,
00:01:41aber dann merkst du,
00:01:42dass du dein Spreadsheet nie aktualisiert hast.
00:01:44Also kaufst du dir ein CRM.
00:01:47Es verspricht,
00:01:47deine einzige Informationsquelle zu sein,
00:01:49wird aber nur zu noch einem Ort,
00:01:50an dem du vergisst,
00:01:51es zu aktualisieren.
00:01:52Und hier liegt das Problem.
00:01:54Traditionelle CRMs wurden vor Jahrzehnten mit der fundamentalen Annahme gebaut,
00:01:58dass Menschen manuelle Dateneingaben vornehmen.
00:02:01Sie geben dir diese starren Felder und vordefinierten Schemata,
00:02:05aber der tatsächliche Kontext,
00:02:07die Nuancen deiner Gespräche,
00:02:08die sind in deiner E-Mail,
00:02:10Slack,
00:02:10in Notizen von Meetings – überall verteilt.
00:02:13Und das CRM wird nur zu einem Reporting-Tool für deinen VP of Sales,
00:02:17nicht etwas,
00:02:18das dir beim Verkaufen hilft.
00:02:20Also dachten wir: Es muss einen besseren Weg geben.
00:02:22Was wäre, wenn das System sich einfach alles merken könnte?
00:02:25Was wäre,
00:02:25wenn es alles intelligent erfasst und in deinem Namen handeln könnte?
00:02:30Das ist Lightfield.
00:02:31Lightfield denkt das CRM neu.
00:02:35Es ist ein System aus Gedächtnis und Handlung für Startups.
00:02:39Es hat automatische Erfassung.
00:02:41Gespräche,
00:02:42Meetings,
00:02:43E-Mails – alles wird erfasst und strukturiert,
00:02:47ganz ohne manuelle Eingabe.
00:02:50Es hat verlustfreies Gedächtnis.
00:02:52Wir unterstützen Schemalisten und anpassbare Schemata.
00:02:54Du musst nicht wissen,
00:02:55was du tracken willst,
00:02:56oder dir einen Berater nehmen,
00:02:57um es für dich einzurichten.
00:02:58Und es verwandelt Gedächtnis in Handlung.
00:03:02Lightfield nutzt diesen erfassten Kontext – sowohl die strukturierten als auch die konversationalen Daten – um Anschluss-E-Mails zu entwerfen,
00:03:08Erkenntnisse hervorzuheben und Workflows für dich zu automatisieren.
00:03:11Traditionell waren CRMs für Sales-Teams zum Verfolgung von Verkaufsabschlüssen gebaut,
00:03:16aber weil Lightfield alle diese Gesprächsdaten erfasst und strukturiert,
00:03:21wird es wirklich mächtig für jeden,
00:03:23der Kundenkontex merken und darauf reagieren muss.
00:03:26Was waren die meistgewünschten Funktionen aus den Onboardings der letzten Woche?
00:03:31Customer-Success-Teams,
00:03:32die Muster in Support-Gesprächen verstehen.
00:03:35Gleiches System,
00:03:36andere Fragen,
00:03:36aber alles wird von dieser Gedächtnisschicht ermöglicht.
00:03:40Das ist das Produkt.
00:03:41Lass mich dir zeigen, wie es aussieht.
00:03:43Hier ist ein Beispiel: Ich frage einen Lightfield-Agenten.
00:03:48Wir fragen: Finde fünf stalled Opportunities und schreib eine personalisierte E-Mail für jede.
00:03:55Der Agent kann durch alle deine Kundeninformationen suchen,
00:04:00gebaut auf dem AI SDK.
00:04:02Er kann verstehen,
00:04:03was stalled Opportunities sind,
00:04:05und kann diese Informationen dann nutzen,
00:04:08um anpassbare E-Mails an all diese Personen zu schreiben.
00:04:23Hier ist ein Beispiel.
00:04:25Und dann können Nutzer jetzt diese E-Mail für dich absenden.
00:04:29Wie funktioniert das alles?
00:04:34Lass uns gehen und durch das sprechen,
00:04:36was hinter den Kulissen passiert.
00:04:37Ein Nutzer führt eine Aktion aus.
00:04:39Das könnte eine Chat-Nachricht sein.
00:04:41Das könnte ein externes Ereignis sein,
00:04:43wie ein Trigger – eine E-Mail oder das Ende eines Meetings.
00:04:47Der Agent bekommt sofort Kontext.
00:04:50Wo ist der Nutzer in der App?
00:04:52Was haben sie in letzter Zeit gemacht?
00:04:54Und was ist ihre Absicht?
00:04:55Welche Tools sind ihnen verfügbar?
00:04:57Dann kommt Lightfield ins Spiel.
00:04:59Es sucht nach relevanten Daten,
00:05:01nimmt Maßnahmen im CRM vor und aktualisiert Datensätze und Antworten.
00:05:05Das alles passiert durch dieselbe einheitliche Datenschicht,
00:05:09die die UI betreibt.
00:05:10Lass mich dir zeigen, wie wir das machen.
00:05:11Hier ist die Architektur, die das alles möglich macht.
00:05:15Drei verschiedene Schnittstellen hier.
00:05:19UI für Menschen,
00:05:20Agenten für natürliche Sprache und Workflow-Jobs für Automatisierung.
00:05:26Und hier ist der Knackpunkt.
00:05:27Sie interagieren alle durch dieselbe einheitliche Schicht: Domain-Objekte.
00:05:32Sie haben die gleichen Berechtigungen.
00:05:33Der Agent hat die gleichen Berechtigungen wie der Nutzer,
00:05:36der den Agenten aufruft.
00:05:37Die gleiche Geschäftslogik und die gleichen Datenzugriffsmuster.
00:05:41Es gibt keine separate Agent-API mit anderen Regeln oder limitiertem Zugriff.
00:05:46Also bringen wir Speicher von verschiedenen Systemen zusammen.
00:05:51Strukturierte Daten,
00:05:52Objektspeicher und indexiert auf verschiedenen Suchplattformen.
00:05:57Also bieten wir die gleichen Fähigkeiten und die gleiche Schnittstelle an.
00:06:01Ein Prinzip,
00:06:02das wir zum Aufbau unserer Plattform nutzen,
00:06:08ist Agent-UI-Parität.
00:06:10Wenn ein Nutzer etwas aufrufen kann,
00:06:12kann es ein Agent auch aufrufen.
00:06:14Vollen Lese-,
00:06:15Erstell- und Aktualisierungszugriff auf alle Daten.
00:06:19Die gleichen Berechtigungen,
00:06:20die gleiche Sichtbarkeit,
00:06:22die gleichen Operationen.
00:06:24Es ist eine Produkt- und architektonische Wahl,
00:06:26die wir von Tag eins getroffen haben.
00:06:28Deswegen ist KI-nativ von Grund auf besser als Agenten auf Legacy-Systemen draufzutacken.
00:06:34Agenten in Lightfield handeln in deinem Namen mit den gleichen Berechtigungen durch die gleiche Datenschicht,
00:06:41die die UI betreibt.
00:06:42Sie sind einfach eine weitere Schnittstelle zu deinen Daten.
00:06:44Also,
00:06:45wenn wir Tools zum Aufbau von Lightfield ausgewählt haben,
00:06:48brauchten wir Primitive,
00:06:49die uns nicht in verschiedene Architekturen für Agenten versus Nutzer zwingen würden.
00:06:54Diese Einschränkung beeinflusste unseren ganzen Stack,
00:06:56auch das AI-Framework,
00:06:57das wir wählten.
00:06:58Und für uns gilt: Im Jahr 2025 hat niemand das komplette Playbook zum Aufbau von KI-Produkten,
00:07:09richtig?
00:07:10Also optimieren wir für Lerngeschwindigkeit statt Perfektion.
00:07:14Wir testen dieses Konzept selbst mit Lightfield.
00:07:19Wenn unsere Engineering-Teams ein Kundenprobleme verstehen müssen,
00:07:22müssen sie nicht durch das CRM navigieren.
00:07:25Sie können einfach danach fragen.
00:07:26Natürliche Sprache ist wirklich die Schnittstelle,
00:07:32die wir dort haben wollen.
00:07:35Das AI SDK gab uns die Flexibilität,
00:07:38das zu iterieren,
00:07:39ohne alles umzuschreiben.
00:07:41Aber der Schlüssel war die Denkweise.
00:07:43Wir konzentrierten uns auf den Aufbau von Funktionen und die Lösung echter Probleme,
00:07:47nicht auf Kampf mit Frameworks oder Überengineering von Abstraktionen.
00:07:50Der Schlüssel hier ist: Schnell vorgehen und schnell lernen.
00:07:53Wir kamen immer wieder zu diesem Zitat zurück.
00:08:02"Duplikation ist viel billiger als die falsche Abstraktion"
00:08:07von Sandy Metz.
00:08:08Und ich denke,
00:08:09das ist sehr präsent beim Aufbau von KI-Produkten heute.
00:08:13Es ist sehr schnell, jetzt Software schnell zu bauen.
00:08:17Es ist sogar schneller als noch vor einem Jahr.
00:08:19Und sicherzustellen,
00:08:20dass das richtige Framework existiert,
00:08:22ist wirklich wichtig.
00:08:23Und die falsche Abstraktion zu haben kann noch teurer sein.
00:08:27Also, lass uns darüber mehr in der Praxis sprechen.
00:08:34Also,
00:08:35als wir Lightfield gebaut haben,
00:08:37begannen wir,
00:08:39das AI SDK im Januar dieses Jahres zu entwickeln.
00:08:43Also nutzten wir es zum Unterstützen von Modellwechsel und begannen,
00:08:50die streamText-Primitive zu nutzen.
00:08:54Und so konnten wir frühe Tasks in wenigen Wochen an spezifische Agenten versenden.
00:08:58Also begannen wir,
00:08:59immer mehr Agenten und immer mehr Chat-Features zu bauen.
00:09:04Und im Juni 2025 begannen wir,
00:09:06die useChat-API einzuführen,
00:09:09speziell wegen der custom Transport-Optionen,
00:09:13die veröffentlicht wurden.
00:09:16Das Wichtige hier ist,
00:09:19dass wir das AI SDK von V4 zu Alpha V5 angenommen haben.
00:09:25Also,
00:09:26es klingt,
00:09:27als würde V6 bald veröffentlicht,
00:09:29und wir glaube ziemlich nahtlos mit schnellem Vorankommen.
00:09:34Wir haben intern einen Witz,
00:09:36dass wir eine Funktion identifizieren,
00:09:39die wir vom AI SDK brauchen,
00:09:41und am nächsten Tag sehen wir einen Tweet vom AI-SDK-Team.
00:09:46Und heute Morgen erfahren wir,
00:09:48dass Nico einen Agenten hat,
00:09:49der diese Tweets generiert.
00:09:51Es ist also ziemlich lustig, das zu sehen.
00:09:53Das ist genau das, was du von einem Framework willst.
00:09:57Es wächst mit dir,
00:09:58statt dich zu zwingen,
00:09:59umzuschreiben oder zu verlangsamen.
00:10:00Hier ist ein Beispiel von Lightfield in Aktion.
00:10:05Im Chat hier tippe ich eine Frage,
00:10:10was ist nächstes für diesen Account?
00:10:16Was hat Jordan Lee in unserem letzten Call gesagt?
00:10:19Beachten Sie, was der Nutzer nicht tun musste.
00:10:21Er musste nicht sagen,
00:10:23das Account ist Streamlined Protocol,
00:10:26oder speziell nach einem bestimmten Meeting fragen.
00:10:30Wir nutzten das AI SDK zum Aufbau dieser Funktion,
00:10:34die wir Adaptive Context Building nennen.
00:10:37Sie bietet Signale vom Nutzer kombiniert mit intelligenter Retrieval um herauszufinden,
00:10:43was tatsächlich für das zählt.
00:10:45Also,
00:10:45lass mich einige Beispiele teilen,
00:10:47wie wir das SDK dazu nutzen.
00:10:49Das SDK hat eine API namens Data Parts und wir nutzen das,
00:10:54um Signale vom Client an den Server bereitzustellen,
00:10:59der den Kontext aufbaut.
00:11:01Wir können auf dem Client verschiedene Entities nutzen und verschiedene Signale mit der Data-Parts-API bereitstellen und dann das fully on the Server hydratisieren.
00:11:11Ich werde meine Kollegin Nikita sprechen lassen,
00:11:14um mehr darüber zu erzählen,
00:11:16wie wir Data Parts nutzen,
00:11:17um mehr Funktionen aufzubauen.
00:11:19(beschwingte Musik)
00:11:24(beschwingte Musik) - Vielen Dank, Jack.
00:11:28Also,
00:11:29ein weiteres ähnliches Beispiel wie Adaptive Context Building ist,
00:11:33wie wir Dateien in den Chat-Thread injizieren.
00:11:35Das AI SDK bietet uns wirklich einen einfachen Weg,
00:11:39das zu tun.
00:11:39Wir können einfach die sendMessage-Funktion vom useChat-Hook nutzen,
00:11:44die Benutzeranfrage und die Dateiliste bereitstellen und es funktioniert mit jedem Provider sofort.
00:11:50Aber das bringt praktische Bedenken bezüglich der Skalierbarkeit auf.
00:11:54Zum Beispiel,
00:11:55wie stellen wir sicher,
00:11:56dass wir vermeiden,
00:11:57diese Daten direkt in der Datenbank zu speichern,
00:12:00wenn wir die Dateien direkt codieren?
00:12:01Wenn wir S3-URLs nutzen,
00:12:03wie stellen wir sicher,
00:12:04dass wir nicht versehentlich private Nutzerdaten der Öffentlichkeit preisgeben?
00:12:09Unsere Lösung dafür ist,
00:12:11dass der Client stattdessen dem Backend eine interne ID sendet,
00:12:16die sich auf die hochgeladene Datei in unserem eigenen Datenspeicher bezieht.
00:12:21Im Backend iterieren wir durch alle Datei-Parts und ersetzen diese internen Identifizierer mit signierten S3-URLs.
00:12:30Das ermöglicht es externen LM-Providern,
00:12:32diese angehängten Dateien immer noch zu sehen,
00:12:35aber die Ablaufzeit auf den signierten URLs verhindert nicht autorisierten Zugriff.
00:12:41Ein weiteres Beispiel,
00:12:43wie wir Nutzerdaten in Lightfield schützen,
00:12:46ist durch dieses Konzept von kontextualen Tool-Sammlungen.
00:12:50Wann immer ein Nutzer mit Lightfields Chat-Produkt interagiert,
00:12:55konstruieren wir dynamisch ein Tool-Set,
00:12:57das spezifisch für den Nutzer ist.
00:13:00Wir injizieren diese Abhängigkeiten direkt in die Tools.
00:13:03Zum Beispiel,
00:13:04in diesem Datenabruf-Tool injizieren wir die Nutzer-IDs direkt in das Tool selbst.
00:13:11Das LLM gibt niemals direkt Abfragen an die Datenbank aus.
00:13:15Es geht immer durch die gleiche einheitliche Datenschicht,
00:13:19auf die der Nutzer durch die restliche CRM-Schnittstelle zugreifen würde.
00:13:23Also haben wir diese Designphilosophie,
00:13:27Parität zwischen der CRM-UI und den Agent-Fähigkeiten zu bewahren.
00:13:34Wenn Nutzer CRM-Entities wie Accounts,
00:13:36Opportunities und Contacts durch diese Modal-Schnittstelle in der UI erstellen können,
00:13:42wollen wir,
00:13:43dass sie das gleiche durch die Chat-Schnittstelle tun können.
00:13:48Das LLM kann einen Tool-Call ausführen,
00:13:50um diese Accounts zu erstellen und wird ein Formular mit den gleichen Inputs rendern,
00:13:54die in der Nutzer-Interface gezeigt werden.
00:13:57Wir haben das gebaut,
00:13:58indem wir die Human-in-the-Loop-Abstraktionen des AI SDK genutzt haben.
00:14:03Der Weg,
00:14:04das grundsätzlich funktioniert,
00:14:05ist,
00:14:06dass wenn das LLM einen Tool-Call ausführt,
00:14:09der Bestätigung braucht,
00:14:10forwarded dieser Tool-Call an den Front-End-Client.
00:14:13Der Client rendert eine Schnittstelle und hängt ein Tool-Resultat an,
00:14:18je nach Nutzer-Aktion.
00:14:20Im Back-End,
00:14:21direkt bevor wir diesen Output ans LLM schicken,
00:14:25führen wir die Funktionen aus,
00:14:27je nachdem,
00:14:28was der Nutzer eingereicht hat.
00:14:31Ein Schema,
00:14:32das beschreibt,
00:14:33wie wir das getan haben,
00:14:35wird hier gezeigt.
00:14:37Also die initiale Eingabe des Nutzers ist dieser Tool-Call.
00:14:43Das LLM schlägt ein Set von Input-Werten vor,
00:14:46in diesem Fall ein Array von Items,
00:14:48die Account-Namen und deren Domains darstellen.
00:14:51Nach der Bearbeitung der Werte durch den Nutzer wird die Ausgabe die bearbeiteten Werte des Nutzers zusammen mit einem zusätzlichen Feld,
00:14:59das anzeigt,
00:15:00ob sie dieses besondere Item genehmigt haben.
00:15:03Nach der tatsächlichen Funktionsausführung hängen wir dieses Resultat dem Tool-Output an,
00:15:09bevor es zum LLM gesendet wird.
00:15:11Zum Beispiel,
00:15:12war die Account-Erstellung erfolgreich oder ist sie aus irgendeinem Grund fehlgeschlagen,
00:15:17wie vielleicht,
00:15:17dass der Account bereits im CRM existiert?
00:15:19Das gibt dem LLM volle Sichtbarkeit in die History der Interaktion.
00:15:26Es kann den gesamten Flow sehen,
00:15:29die ursprünglichen vorgeschlagenen Werte und die Outputs.
00:15:33Das gibt ihm die Fähigkeit,
00:15:35angemessen die nächsten Schritte vorzuschlagen.
00:15:38Also haben wir auch diese Designphilosophie,
00:15:41den Nutzer in die Lage zu versetzen,
00:15:43das CRM nach ihren Bedürfnissen zu formen.
00:15:45Jedes Business hat einzigartige Aspekte an sich und einzigartige Verkaufsprozesse.
00:15:52Wir wollen,
00:15:53dass du das CRM anpassen kannst und deine Erfahrung mit dem Agenten anpassen kannst,
00:15:57um deine spezifischen Bedürfnisse zu treffen.
00:16:00Innerhalb von Lightfield kannst du ein benutzerdefiniertes Datenmodell für jedes der CRM-Entities konstruieren.
00:16:08Zum Beispiel,
00:16:09wenn du ein B2B Business-Produktivitätstool bist,
00:16:12das sein Coding-Tool an Startups verkaufen will,
00:16:15interessierst du dich vielleicht besonders dafür,
00:16:18den Tech-Stack deines Kunden,
00:16:19die Größe des Engineering-Teams und vielleicht gegenseitige Investoren,
00:16:23die du mit ihnen hast,
00:16:25zu tracken.
00:16:26Innerhalb von Lightfield kannst du all diese typisierten Felder spezifizieren.
00:16:30Und du kannst spezifizieren,
00:16:33wie der Agent diese Felder in seinen Prozessen nutzen soll.
00:16:38Du kannst zusätzliche Anweisungen über die Bedeutungen dieser Felder bereitstellen und wie es diese Felder beim Aktualisieren in den verschiedenen Hintergrund-Workflows nutzen soll.
00:16:48Zum Beispiel,
00:16:49wenn du ein Feld erstellt hast,
00:16:51kannst du den Agenten bitten,
00:16:54es durch tiefe Recherche im Web zu füllen und diese Felder für alle Accounts in deinem System anzureichern.
00:17:03Oder du kannst ihn bitten,
00:17:04durch Durchsuchen deiner CRM-Datensätze zu füllen,
00:17:07welche deine Meeting-Transkripte,
00:17:09E-Mails und andere Interaktionen mit dem Account enthalten.
00:17:13Der Weg,
00:17:13das im Backend aussieht,
00:17:16ist,
00:17:16dass wir dieses Tool zur Laufzeit erstellen,
00:17:21mit einem Schema,
00:17:22das auf deiner Unternehmens-Konfiguration basiert.
00:17:28Das tatsächliche Tool-Schema selbst wird aus dieser Datenbank abgeleitet.
00:17:32Und wenn das LLM Werte vorschlägt,
00:17:33validieren wir die Typen,
00:17:35um sicherzustellen,
00:17:36dass sie diesem Schema entsprechen.
00:17:38Das ermöglicht es uns,
00:17:39diese wirklich flexiblen und hochzuverlässigen Tools zu bauen.
00:17:42Innerhalb von Lightfield kannst du auch diesen Wissensbereich konfigurieren,
00:17:48wo du das LLM mit zusätzlichem Kontext über dein Business bereitstellen kannst.
00:17:53Du kannst Informationen über die Produkte deines Unternehmens bereitstellen und auch Anweisungen bereitstellen,
00:18:01wie das LLM Hintergrund-Workflows ausführen soll,
00:18:04wie Meeting-Vorbereitung.
00:18:06Vor jedem Meeting bereitet Lightfield ein Dokument für dich vor,
00:18:11das dich auf die Diskussion vorbereitet.
00:18:15Es wird die Hauptteilnehmer und zusätzliche Informationen über sie auflisten.
00:18:19Es wird Informationen über den besonderen Account auflisten,
00:18:23mit dem du das Meeting hast,
00:18:25und auch andere wichtige Diskussionspunkte.
00:18:27Nach dem Meeting wird es Folgeaktionen vorschlagen und vorgeschlagene Field-Aktualisierungen basierend auf dem,
00:18:34was ihr diskutiert habt.
00:18:35All diese grundlegenden Bausteine kommen zusammen,
00:18:39um neue,
00:18:39mächtige Fähigkeiten zu freizuschalten.
00:18:42Weil Lightfield den vollständigen Kontext all deiner Verkaufsinteraktionen hat und einen hohen Grad an angepasstem Wissen hat,
00:18:50kann es mit dir zusammenarbeiten,
00:18:52um schnell E-Mails von hoher Qualität in deinem Namen zu generieren.
00:18:56Zum Beispiel,
00:18:57nach einem Meeting kannst du dieses Tool nutzen,
00:19:00um auf deinen Google Calendar zuzugreifen und deine Verfügbarkeit zu sehen.
00:19:05Wenn dieses Entwurf-E-Mail-Artefakt generiert wird,
00:19:08kann es angemessen Folgezeiten vorschlagen basierend auf deinen bisherigen Diskussionen.
00:19:14Diese Entwurf-E-Mails sind immer noch hinter Nutzer-Genehmigung stehen,
00:19:18also kannst du sicher sein,
00:19:19dass der LLM-Agent niemals Handlungen ohne deine explizite Genehmigung vornehmen wird.
00:19:25Diese Folgeaktionen und E-Mail-Entwürfe werden für dich vorbereitet und werden dich mit Benachrichtigungen für senden,
00:19:32um sicherzustellen,
00:19:33dass du bei jedem Deal,
00:19:34an dem du arbeitest,
00:19:35auf dem Laufenden bleibst.
00:19:37Alles klar,
00:19:38zurück zu dir,
00:19:40Jack,
00:19:40um das alles zusammenzubringen.
00:19:43- Ja.
00:19:46(Publikum applaudiert) Also, danke, Nikita.
00:19:53Also,
00:19:54die Kernprinzipien,
00:19:55die wir entdeckt haben,
00:19:56während wir Lightfield mit dem AI SDK gebaut haben.
00:19:59Prinzip eins: Agent-UI Sichere Parität.
00:20:03Von Tag eins durchdacht.
00:20:05Agenten brauchen vollen Lese- und Schreibzugriff durch die gleiche Datenschicht,
00:20:08die Menschen nutzen.
00:20:09Baue keine separate Agent-API.
00:20:11Du wirst am Ende mehrere Systeme pflegen,
00:20:13und keiner wird sich komplett anfühlen.
00:20:15Prinzip zwei: Schnelle Iteration statt perfekter Abstraktion.
00:20:19Optimiere für Lerngeschwindigkeit früh,
00:20:21nicht Perfektion von Anfang an.
00:20:23Wir hatten ähnlich aussehenden Code über Chat-Agenten,
00:20:26API-Features und Hintergrund-Workflows.
00:20:28Ein wenig Duplikation ist wirklich billiger als die falsche Abstraktion,
00:20:32besonders wenn sich Konventionen bilden.
00:20:35Prinzip drei: Human-in-the-Loop-Workflows,
00:20:38denen Nutzer vertrauen.
00:20:41Menschen müssen die Kontrolle behalten,
00:20:43besonders bei hochstaked Interaktionen.
00:20:45Wir haben die Tool-Schicht unterbrochen.
00:20:48Der Agent sieht den ursprünglichen Vorschlag,
00:20:50die Bearbeitungen des Nutzers und das Ausführungsergebnis.
00:20:53Volle Transparenz, volle Geschichte.
00:20:56Das ist das, was Vertrauen verdient.
00:20:58Prinzip vier: Programmierbare Systeme von Nutzern und Agenten.
00:21:02Echte Kunden brauchen angepasste Datenmodelle.
00:21:04Jedes Business trackt Dinge anders.
00:21:07Sowohl Nutzer als auch Agenten können neue Felder definieren,
00:21:10und das System kann sich daran anpassen.
00:21:13Das bedeutet,
00:21:13dein Produkt passt sich an,
00:21:15wie Kunden ihre Daten strukturieren,
00:21:17nicht umgekehrt.
00:21:18Es ist komplexer,
00:21:19das zu bauen,
00:21:19aber es ist der Unterschied zwischen einem Produkt,
00:21:22das Menschen ertragen,
00:21:23und einem,
00:21:23das sie nicht missen können.
00:21:24Wir würden gern hören,
00:21:26was du baust und welche Muster du entdeckst.
00:21:28Komm nachher vorbei oder schau dir lightfield.app an,
00:21:32um diese Prinzipien in Aktion zu sehen.
00:21:34Danke.
00:21:35(beschwingte Musik)

Key Takeaway

Lightfield zeigt, dass erfolgreiche KI-native Produkte von Anfang an mit Agent-UI-Parität entworfen werden müssen, wobei Agenten volle Datenzugriffskontrolle haben und durch vertrauenswürdige Human-in-the-Loop-Workflows kontrolliert werden.

Highlights

Lightfield ist ein KI-natives CRM, das automatisch Kundengespräche erfasst, strukturiert und durch KI-Agenten intelligent nutzt statt manuelle Dateneingabe zu erfordern

Agent-UI-Parität ist ein Kernprinzip: Agenten haben denselben Lese- und Schreibzugriff auf Kundendaten wie menschliche Nutzer durch die gleiche einheitliche Datenschicht

Das AI SDK V5 ermöglichte Lightfield schnelle Iteration ohne grundlegende Umstrukturierung, mit Funktionen wie Data Parts für intelligente Kontextaufbau und benutzerdefinierten Transports

Human-in-the-Loop-Workflows geben Nutzern vollständige Kontrolle und Transparenz: Sie sehen ursprüngliche Vorschläge, Änderungen und Ausführungsergebnisse bevor Agenten handeln

Programmierbare Datenmodelle erlauben Unternehmen, angepasste Felder zu definieren, die von UI und Agenten gleichermaßen verwendet werden, ohne starre vordefinierte Schemata

Das Prinzip 'Duplikation ist billiger als falsche Abstraktion' führt zu schnellerem Lernen bei der KI-Produktentwicklung statt früher Überengineering

Adaptive Context Building nutzt SDK-Funktionen, um Nutzersignale mit intelligenter Datenabfrage zu kombinieren und automatisch relevanten Kontext bereitzustellen

Timeline

Einführung und Problemstellung bei traditionellen CRMs

Jack und Nikita stellen Lightfield vor, ein KI-natives CRM-System, das auf dem AI SDK V4 und V5 aufgebaut wurde. Sie identifizieren das zentrale Problem traditioneller CRMs: Sie wurden mit der Annahme manueller Dateneingabe konzipiert und werden zu Reporting-Tools für VP-Vertreter statt echte Verkaufsunterstützung. Das konkrete Szenario zeigt, wie Vertriebsteams bei wachsenden Kundenbasen Schwierigkeiten haben, Informationen zu finden, die über E-Mails, Slack, Zoom-Aufzeichnungen und Notizen verteilt sind. Der traditionelle Ansatz von starren Feldern und vordefinierten Schemata erfasst nicht die Nuancen echter Kundengespräche, weshalb CRM-Daten oft veraltet bleiben.

Lightfield-Lösung: KI-natives Gedächtnis und Handlung

Lightfield löst das Problem durch drei Kernkomponenten: automatische Erfassung (Gespräche, Meetings und E-Mails werden ohne manuelle Eingabe strukturiert), verlustfreies Gedächtnis mit anpassbaren Schemata und die Umwandlung von Gedächtnis in Handlung. Das System nutzt erfasste strukturierte und konversationale Daten, um Anschluss-E-Mails zu entwerfen, Erkenntnisse hervorzuheben und Workflows zu automatisieren. Im Gegensatz zu traditionellen CRMs, die nur auf Sales-Teams ausgerichtet sind, wird Lightfield wirklich leistungsstark für jeden, der Kundenkontexte merken und darauf reagieren muss, einschließlich Customer-Success-Teams. Die Lösung basiert auf einer einheitlichen Gedächtnisschicht, die verschiedene Fragen und Use Cases unterstützt und damit die Leistungsfähigkeit des Systems vervielfacht.

Praktische Demonstration: Agent-Funktionalität und Architektur

Jack zeigt eine Live-Demo, in der ein Lightfield-Agent fünf stalled Opportunities findet und personalisierte E-Mails für jeden schreibt, alles basierend auf AI SDK-Funktionen. Die Architektur nutzt drei verschiedene Schnittstellen (UI für Menschen, Agenten für natürliche Sprache und Workflow-Jobs für Automatisierung), die alle durch die gleiche einheitliche Schicht von Domain-Objekten interagieren. Das Kernprinzip ist, dass Agenten die exakt gleichen Berechtigungen, Geschäftslogik und Datenzugriffsmuster wie Nutzer haben, ohne separate Agent-APIs mit eingeschränktem Zugriff. Dies ermöglicht es Lightfield, von Anfang an KI-nativ zu sein, statt KI-Fähigkeiten nachträglich zu Legacy-Systemen hinzuzufügen.

AI SDK Integration und Implementierungsphilosophie

Jack erläutert die Implementierungsphilosophie: Im Jahr 2025 hat niemand das komplette Playbook für KI-Produktentwicklung, daher optimiert Lightfield für Lerngeschwindigkeit statt Perfektion. Das Team begann im Januar mit AI SDK V4 und stieg schnell auf Alpha V5 um, als es im Juni veröffentlicht wurde, ohne dass grundlegende Umstrukturierungen notwendig waren. Das Schlüsselprinzip ist der zentralen These von Sandy Metz: 'Duplikation ist viel billiger als die falsche Abstraktion'. Das Team kam zu diesem Zitat immer wieder zurück bei der Entdeckung, dass schnelle Iteration und schnelle Lernfähigkeit wichtiger sind als frühes Überengineering, besonders in der schnelllebigen KI-Produktentwicklung. Das AI SDK gab Lightfield die notwendige Flexibilität, um zu iterieren, ohne alles umzuschreiben.

Data Parts API und Adaptive Context Building

Jack erklärt die Adaptive Context Building-Funktion, die Lightfield mit dem AI SDK entwickelt hat: Ein Nutzer kann eine einfache Frage stellen wie 'Was ist nächstes für diesen Account?' ohne Account-Name oder Meeting-Details anzugeben, und das System versteht automatisch den Kontext. Die Data Parts API des SDK wird verwendet, um Signale vom Client an den Server zu senden, wo der Kontext dynamisch aufgebaut wird, indem verschiedene Entities und Signale kombiniert werden. Der Vorteil ist, dass Nutzer nicht explizit spezifizieren müssen, welche Daten relevant sind; intelligente Retrieval-Mechanismen kombiniert mit Nutzersignalen ermitteln automatisch, was zählt. Diese Funktion demonstriert, wie das AI SDK die technische Grundlage für intelligent kontextabhängige Agent-Interaktionen bietet.

Datensicherheit und kontextuelle Tool-Sammlungen

Nikita präsentiert, wie Lightfield Nutzerdaten durch mehrschichtige Sicherheitsmaßnahmen schützt. Beim Injizieren von Dateien in Chat-Threads sendet der Client interne IDs statt direkter Dateien oder S3-URLs; das Backend ersetzt diese mit signierten S3-URLs mit Ablaufzeitlimits, was verhindert, dass externe LM-Provider unbegrenzten Zugriff erhalten. Die Konzept der kontextualen Tool-Sammlungen dynamisiert Tool-Sets je Nutzer: Nutzer-IDs werden direkt in Tools injiziert, sodass LLMs nie direkt Datenbankabfragen ausgeben, sondern immer durch die gleiche Datenschicht gehen, auf die der Nutzer über die UI zugreifen würde. Dies gewährleistet, dass Agent-Fähigkeiten nicht über Nutzer-Berechtigungen hinausgehen und dass alle Datenoperationen die gleichen Sicherheitsregeln befolgen.

Human-in-the-Loop-Workflows und angepasste Datenmodelle

Nikita erläutert, wie Lightfield Parität zwischen CRM-UI und Agent-Fähigkeiten bewahrt: Wenn Nutzer Entities wie Accounts durch die UI erstellen können, können Agenten das gleiche über Chat tun, mit menschlicher Genehmigung. Das Human-in-the-Loop-System funktioniert so, dass das LLM Tool-Calls ausführt, diese zum Frontend weitergeleitet werden, Nutzer sie bearbeiten können und Lightfield vor dem Senden an das LLM sowohl die Bearbeitungen als auch die Ausführungsergebnisse anhängt. Dies gibt dem LLM vollständige Sichtbarkeit und die Fähigkeit, angemessen nächste Schritte vorzuschlagen. Lightfield ermöglicht auch angepasste Datenmodelle: Jedes Business kann typisierten Felder für CRM-Entities definieren, und der Agent wird angewiesen, diese Felder in seinen Prozessen zu nutzen und durch Web-Recherche oder CRM-Daten zu füllen.

Konfigurierbare Wissensbasen und automatische Folgeaktionen

Nikita zeigt, wie Konfigurierbare Wissensbasen Lightfield mit zusätzlichem geschäftsspezifischen Kontext versorgen: Informationen über Unternehmensprodukte und Anweisungen für Hintergrund-Workflows wie Meeting-Vorbereitung. Vor jedem Meeting bereitet Lightfield ein Dokument vor, das die Teilnehmer, Account-Informationen und Diskussionspunkte auflistet, und nach dem Meeting schlägt es Folgeaktionen und Field-Aktualisierungen vor. Das System kann hochwertige Entwurf-E-Mails generieren, die auf vollständigem Kontext und hohem Grad von angepasstem Wissen basieren, mit Funktionen wie automatischem Vorschlag von Follow-up-Zeiten basierend auf Google Calendar-Verfügbarkeit. Diese Entwürfe stehen unter Nutzer-Genehmigung, sodass der LLM-Agent niemals ohne explizite Zustimmung handelt.

Kernprinzipien und Abschlusserkennt­nisse

Jack fasst die vier Kernprinzipien zusammen, die bei der Entwicklung von Lightfield entdeckt wurden: (1) Agent-UI sichere Parität von Tag eins – Agenten brauchen vollen Zugriff durch die gleiche Datenschicht wie Menschen, nicht separate Agent-APIs; (2) Schnelle Iteration statt perfekter Abstraktion – Lerngeschwindigkeit früh ist wichtiger als frühe Perfektion; (3) Human-in-the-Loop-Workflows, denen Nutzer vertrauen – volle Transparenz mit Sichtbarkeit aller Vorschläge, Bearbeitungen und Ergebnisse; (4) Programmierbare Systeme von Nutzern und Agenten – echte Kunden brauchen angepasste Datenmodelle, die sich an ihre Strukturierung anpassen statt umgekehrt. Jack betont, dass dies der Unterschied zwischen einem Produkt ist, das Menschen ertragen, und einem, das sie nicht missen können, und lädt die Zuschauer ein, diese Prinzipien bei Lightfield in Aktion zu sehen.

Community Posts

View all posts