Wie man seinen AI-Agenten einfängt - aka "Evaluation and Observability"
26.06.2026
|
13:00
-
14:00
Uhr
Zugangslink wird nur angezeigt, wenn du für das Event angemeldet bist
Sprache:
Englisch
Du baust AI-Agenten – aber woher weißt du, ob sie wirklich funktionieren?
LLM-basierte Systeme sind nicht deterministisch: Gleicher Input, unterschiedlicher Output. Das macht klassisches Testing unbrauchbar. Evaluation und Observability sind die Werkzeuge, mit denen du deine KI-Agenten zuverlässig in Produktion bringst.
In diesem Webinar zeigt Alex Key (Panoriq), wie du:
- Agent-Verhalten systematisch evaluierst – nicht nur vibes-basiert, sondern mit klaren Metriken
- Observability für LLM-Pipelines aufsetzt, um zu verstehen, was dein Agent tatsächlich tut
- Typische Fehlerquellen erkennst, bevor sie bei Nutzern aufschlagen
- Evaluation in deinen Entwicklungsprozess integrierst
Für wen: Entwickler:innen und Tech Leads, die mit LangChain, LangGraph oder ähnlichen Frameworks AI-Agents bauen und den Schritt von Prototyp zu Production-ready machen wollen.
Format: Live-Demo mit echten Beispielen, keine Slides-Schlacht.
Empfohlen für: CTOs, Product Manager, Product Leader, Developers
Veranstaltet von
The Agent Native Product
Ich unterstütze B2B Software-Firmen dabei, ihre Produkte AI-Native neu aufzubauen.
Alex Key
alex.key@kawunu.comEmpfohlene Events
Wie man seinen AI-Agenten einfängt - aka "Evaluation and Observability"
26.06.2026
|
13:00
-
14:00
Uhr