← Zur Kursübersicht
LLM Gateway Fundamentals
Kapitel 1 von 8

LLM Gateway Fundamentals

Was ein LLM Gateway macht, wann du einen brauchst und wie du Model Prism Schritt für Schritt aufbaust. Ideal für alle, die neu in der Thematik sind.

Was ist ein LLM Gateway?

Ein LLM Gateway ist ein zentraler Proxy-Service, der zwischen deinen Anwendungen und den Large Language Model APIs sitzt. Statt dass jede Anwendung direkt mit OpenAI, Anthropic oder anderen Anbietern kommuniziert, läuft der gesamte LLM-Traffic durch das Gateway.

Das klingt zunächst wie eine unnötige Komplexitätsschicht — aber mit wachsenden Teams und steigendem LLM-Einsatz wird ein Gateway schnell unverzichtbar.

Was ein Gateway für dich erledigt

  • Kostenkontrolle: Zentrales Token-Tracking und Budget-Limits pro Team oder Projekt
  • API Key Management: Ein Gateway-Key statt dutzende Anbieter-Keys in verschiedenen Services
  • Routing: Automatische Auswahl des optimalen Modells je nach Anfrage
  • Observability: Vollständiges Logging aller LLM-Calls an einem Ort
  • Rate Limiting: Schutz vor ungewollten Kosten-Explosionen
  • Failover: Automatischer Wechsel auf Backup-Provider bei Ausfällen

Wann brauchst du ein Gateway?

Ein LLM Gateway lohnt sich, sobald eines der folgenden Szenarien zutrifft:

  • Mehrere Teams oder Services nutzen LLMs — und du möchtest Kosten pro Team sehen
  • Du arbeitest mit mehreren LLM-Anbietern und willst nicht in jedem Service einzeln konfigurieren
  • Compliance erfordert Logging aller KI-Interaktionen
  • Du möchtest Routing-Strategien einsetzen, ohne Code in allen Services zu ändern
  • Du hast Kunden oder externe Partner, die LLM-Zugang brauchen (Multi-Tenant)

Model Prism — unser Open-Source Gateway

In diesem Kurs bauen wir zusammen auf Basis von Model Prism, dem Open-Source LLM Gateway von ohara.systems. Model Prism ist:

  • OpenAI-API-kompatibel (Drop-in, kein Code-Umbau nötig)
  • Self-hosted mit Docker oder Kubernetes
  • MIT-lizenziert
  • Production-ready mit Multi-Tenancy, RBAC und Cost-Tracking

Kursstruktur

Dieser Kurs besteht aus 8 Kapiteln:

  1. Einführung (dieses Kapitel) — Was ist ein Gateway, wann brauchst du es?
  2. Architektur verstehen — Wie Model Prism intern funktioniert
  3. Installation & Setup — Docker Compose, Erstkonfiguration
  4. Erste Anfragen — Das Gateway mit einem echten LLM-Call testen
  5. Tenants & API Keys — Mehrere Teams isolieren
  6. Routing konfigurieren — Regeln und Auto-Routing einrichten
  7. Kosten im Blick — Cost Tracking aktivieren und verstehen
  8. In die Produktion — Deployment-Strategien und Monitoring

Los geht's — klicke auf "Weiter" für Kapitel 2.