Einstieg
Schnellstart
Dieser Guide bringt dich in unter 5 Minuten zu einem laufenden Model Prism Gateway. Du brauchst Docker und mindestens einen LLM-Provider-API-Key.
Voraussetzungen
- Docker & Docker Compose (v2+)
- Mindestens ein API Key: OpenAI, Anthropic, Mistral oder ein lokales Ollama-Setup
- Port 8080 frei (konfigurierbar)
Schritt 1 — Docker Compose herunterladen
curl -O https://raw.githubusercontent.com/ohara-systems/model-prism/main/docker-compose.yml Schritt 2 — Konfiguration
cat > .env <<EOF
# LLM Provider Keys
OPENAI_API_KEY=sk-...
ANTHROPIC_API_KEY=sk-ant-... # optional
# Admin-Zugang
PRISM_ADMIN_KEY=your-very-secure-admin-key
# Datenbank (SQLite für lokale Dev, Postgres für Prod)
PRISM_DB_URL=sqlite:///data/prism.db
EOF Schritt 3 — Starten
docker compose up -d
docker compose logs -f # Logs verfolgen Nach wenigen Sekunden ist das Gateway erreichbar unter http://localhost:8080.
Schritt 4 — Erster API Call
Model Prism ist ein Drop-in-Ersatz für die OpenAI API. Du kannst jedes bestehende OpenAI-SDK nutzen — einfach die Base-URL ändern:
# Mit curl
curl http://localhost:8080/v1/chat/completions \
-H "Authorization: Bearer your-admin-key" \
-H "Content-Type: application/json" \
-d '{
"model": "gpt-4o-mini",
"messages": [
{"role": "user", "content": "Hello from Model Prism!"}
]
}' # Mit dem OpenAI Python SDK
from openai import OpenAI
client = OpenAI(
base_url="http://localhost:8080/v1",
api_key="your-admin-key"
)
response = client.chat.completions.create(
model="auto", # automatisches Routing
messages=[{"role": "user", "content": "Hello!"}]
)
print(response.choices[0].message.content) Schritt 5 — Admin UI
Model Prism kommt mit einer eingebauten Admin-UI unter http://localhost:8080/admin.
Hier kannst du Tenants anlegen, API Keys verwalten und Routing-Regeln konfigurieren.