Beschreibung
In diesem Kurs erfahren Sie, wie Sie große Sprachmodelle wie GPT oder LLaMA im Unternehmensumfeld betreiben. Sie automatisieren LLM-Workflows, steuern APIs und binden LLMs mit LangChain oder eigenen Modulen in produktive Prozesse ein.
Dabei berücksichtigen Sie Datenschutz, Monitoring, Versionierung und Prompt-Management - und entwickeln Strategien für stabile, sichere und kontrollierbare KI-Anwendungen.
Seminarinhalt
Einführung in LLMOps
- Unterschiede zu MLOps
- Typische Herausforderungen im produktiven Einsatz
LLM-Architekturen und Deployment-Strategien
- Hosted APIs vs. On-Premise
- Modellwahl und Infrastruktur
Tooling und Frameworks
- LangChain, BentoML, FastAPI, Docker
- Model- und Prompt-Management
Monitoring und Logging
- Antwortqualität, Prompt-Auswertung, LLM-Observability
- Tools: Weights & Biases, LangSmith, OpenTelemetry
Sicherheit und Compliance
- Datenschutz, Auditierbarkeit, Governance-Regeln
Kostenkontrolle und Skalierung
- Token-Tracking, Caching, Request-Management
Beispielprojekt
- Aufbau einer LLM-basierten Anwendung mit Logging, Prompt-Debugging und Monitoring
Voraussetzungen
Gute Kenntnisse in Python, API-Nutzung und Container-Technologien. Erfahrungen mit DevOps-Tools, ML-Pipelines oder Cloud-Umgebungen sind hilfreich.
Zielgruppe
Das Seminar richtet sich an technische Fachkräfte, die den produktiven Einsatz von Sprachmodellen verantworten - in Entwicklung, Betrieb oder Architektur.
Firmenseminar
Dieses Thema bieten wir auch individualisiert für Sie oder Ihr Unternehmen an – ob als Inhouse Schulung bei Ihnen vor Ort, online oder in unseren bundesweiten Schulungsräumen.
In einem Vorab-Gespräch mit unseren Trainern gehen wir auf Ihre Wünsche ein und besprechen Ziele, Inhalte und Dauer der Schulung.
Jetzt kostenlos und unverbindlich anfragen:
(*Pflichtfelder)