Einstieg

Schnellstart

Dieser Guide bringt dich in unter 5 Minuten zu einem laufenden Model Prism Gateway. Du brauchst Docker und mindestens einen LLM-Provider-API-Key.

Voraussetzungen

  • Docker & Docker Compose (v2+)
  • Mindestens ein API Key: OpenAI, Anthropic, Mistral oder ein lokales Ollama-Setup
  • Port 8080 frei (konfigurierbar)

Schritt 1 — Docker Compose herunterladen

curl -O https://raw.githubusercontent.com/ohara-systems/model-prism/main/docker-compose.yml

Schritt 2 — Konfiguration

cat > .env <<EOF
# LLM Provider Keys
OPENAI_API_KEY=sk-...
ANTHROPIC_API_KEY=sk-ant-...   # optional

# Admin-Zugang
PRISM_ADMIN_KEY=your-very-secure-admin-key

# Datenbank (SQLite für lokale Dev, Postgres für Prod)
PRISM_DB_URL=sqlite:///data/prism.db
EOF

Schritt 3 — Starten

docker compose up -d
docker compose logs -f  # Logs verfolgen

Nach wenigen Sekunden ist das Gateway erreichbar unter http://localhost:8080.

Schritt 4 — Erster API Call

Model Prism ist ein Drop-in-Ersatz für die OpenAI API. Du kannst jedes bestehende OpenAI-SDK nutzen — einfach die Base-URL ändern:

# Mit curl
curl http://localhost:8080/v1/chat/completions \
  -H "Authorization: Bearer your-admin-key" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "gpt-4o-mini",
    "messages": [
      {"role": "user", "content": "Hello from Model Prism!"}
    ]
  }'
# Mit dem OpenAI Python SDK
from openai import OpenAI

client = OpenAI(
    base_url="http://localhost:8080/v1",
    api_key="your-admin-key"
)

response = client.chat.completions.create(
    model="auto",  # automatisches Routing
    messages=[{"role": "user", "content": "Hello!"}]
)
print(response.choices[0].message.content)

Schritt 5 — Admin UI

Model Prism kommt mit einer eingebauten Admin-UI unter http://localhost:8080/admin. Hier kannst du Tenants anlegen, API Keys verwalten und Routing-Regeln konfigurieren.

Was kommt als nächstes?