Fortgeschrittene KI-Entwicklung
Von RAG-Pipelines über Agentenarchitekturen bis zur skalierbaren Produktion
Der Prototyp läuft — und jetzt? Wer KI-Anwendungen produktiv betreiben will, stößt schnell auf Herausforderungen jenseits des ersten Proof of Concept: Welche Vector-Datenbank passt zum Use Case? Wie wählt man das richtige Embedding-Modell? Wie baut man robuste Agenten, die auch bei komplexen Aufgaben zuverlässig arbeiten? Und wie behält man Kosten, Latenz und Qualität im Griff, wenn die Nutzerzahlen steigen?
In diesem dreitägigen, intensiven Workshop vertiefen erfahrene Entwickler ihre Kenntnisse in allen Bereichen, die den Unterschied zwischen einem PoC und einer produktionsreifen KI-Anwendung ausmachen. Von Advanced RAG-Techniken über Agentenarchitekturen mit LangGraph bis zu Tracing, Monitoring und Cost Optimization — dieser Workshop liefert das Handwerkszeug für den professionellen Betrieb von KI-Systemen.
Mehrwert
- Tiefgang statt Überblick: Detaillierte Auseinandersetzung mit Architekturentscheidungen, die in der Praxis den Unterschied machen.
- Produktionsfokus: Skalierung, Performance-Tuning, Kostenoptimierung und Monitoring — alles, was nach dem PoC kommt.
- Hands-on mit realen Szenarien: Benchmarking von Modellen und Datenbanken, Aufbau komplexer Pipelines und Debugging von Agenten am konkreten Beispiel.
- Erfahrungsaustausch: Moderierte Diskussionen zu Architekturentscheidungen und Lessons Learned aus realen Projekten.
Inhalt
- Modelle & Modellauswahl: Vergleich und Bewertung von LLMs und Embedding-Modellen — Benchmarks, Kosten-Nutzen-Analyse und Auswahlkriterien für unterschiedliche Einsatzszenarien.
- Vector-Datenbanken im Vergleich: Architektur, Stärken und Grenzen von Lösungen wie Qdrant, Weaviate, Pinecone, pgvector und Chroma — wann welche Datenbank die richtige Wahl ist.
- Vector-Indizes & Performance-Tuning: Indextypen (HNSW, IVF, PQ), Tuning-Parameter, Retrieval-Qualität vs. Latenz und Strategien für große Datenmengen.
- Advanced RAG-Techniken: Hybrid Search, Re-Ranking, Query Decomposition, Hypothetical Document Embeddings (HyDE), Parent-Child-Chunking und Evaluation von RAG-Pipelines.
- Ingestion-Pipelines: Robuste Datenaufbereitung von der Extraktion über Chunking-Strategien bis zur Anreicherung mit Metadaten — skalierbar und automatisiert.
- Agentenarchitekturen: Multi-Agent-Systeme, zustandsbasierte Graphen mit LangGraph, Tool-Orchestrierung, Fehlerbehandlung und Planungsstrategien für komplexe Aufgaben.
- Tracing & Monitoring: Observability für KI-Anwendungen — Tracing von LLM-Calls, Evaluation von Antwortqualität und Aufbau von Dashboards für den laufenden Betrieb.
- Skalierung & Deployment: Architekturmuster für lastfähige KI-Anwendungen, Caching-Strategien, asynchrone Verarbeitung und Infrastructure-as-Code.
- Cost Optimization: Token-Verbrauch analysieren und steuern, Modell-Routing, Caching, Batching und wirtschaftlicher Vergleich von Cloud- vs. Self-Hosted-Modellen.
Zielgruppe
- Senior Softwareentwickler mit ersten KI-Projekterfahrungen
- Software-Architekten, die KI-Systeme für den produktiven Betrieb auslegen
- ML-Engineers und Data-Engineers, die ihre Anwendungen skalieren wollen
Vorbedingung
- Erfahrung in der Entwicklung von LLM-basierten Anwendungen (z. B. RAG, Chatbots, Agenten)
- Sicherer Umgang mit Python oder einer vergleichbaren Sprache
- Grundkenntnisse in LangChain oder ähnlichen Frameworks sind empfehlenswert
Format & Umfang
- Dauer: 3 Tage (jeweils 09:00 – 17:00 Uhr)
- Format: Interaktive Inhouse-Schulung vor Ort
- Teilnehmerzahl: 6 bis 10 Teilnehmer
- Methodik: Architektur-Workshops, Live-Coding, Benchmarking-Sessions, Pair-Programming und moderierte Diskussionen
Materialien
- Umfassende Präsentationsfolien als digitales Nachschlagewerk
- Vorbereitetes GitHub-Repository mit Beispiel-Pipelines, Benchmarks und Konfigurationen
- Entscheidungsmatrizen für Modell- und Datenbankauswahl
- Kuratierte Linkliste mit weiterführenden Ressourcen
- Alle Materialien werden dauerhaft digital zur Verfügung gestellt
