Erste Schritte

Von Null zur ersten signierten Antwort in 10 Minuten

Fünf kurze Schritte. Kein Upgrade nötig. Free Tier deckt alles in dieser Anleitung ab.

  1. 1. Registrieren

    Gehe zu /account/signup und erstelle einen kostenlosen Account. E-Mail + Passwort. Keine Kreditkarte.

  2. 2. Lucairn API-Schlüssel erzeugen

    Auf /account/dashboard klickst du API-Schlüssel erstellen. Du bekommst einen lcr_live_*-Schlüssel — sofort kopieren, er wird nur einmal gezeigt. Das ist dein Gateway-Auth-Schlüssel.

  3. 3. Upstream-LLM-Schlüssel besorgen

    Lucairn proxiert dein bevorzugtes LLM. Free Tier ist BYOK — bring deinen eigenen Anthropic-, OpenAI-, Gemini- oder Mistral-Schlüssel mit. Hol dir einen unter console.anthropic.com oder platform.openai.com.

  4. 4. Ersten Call senden

    Ersetze lcr_live_... und sk-ant-... durch deine echten Schlüssel. Die Response ist identisch zu einem direkten Anthropic-Call — Lucairn ist transparent auf der Leitung — plus ein metadata.dsa_compliance-Block mit der Cert-URL.

  5. 5. Zertifikat ansehen

    Jeder erfolgreiche Call erzeugt ein Lucairn-Zertifikat — Ed25519-signierter Nachweis, was redigiert wurde, welche Sandbox geantwortet hat, plus ein Content-Hash. Free Tier bekommt eine öffentliche HTML-Zusammenfassung. Pro und Enterprise holen das vollständige JSON-Zertifikat.

  6. 6. Offline verifizieren (optional)

    Ein Zertifikat ist eine in sich geschlossene Ed25519-signierte Payload. Hol den Witness-Public-Key von /.well-known/veil-keys.json und verifiziere mit einer beliebigen Ed25519-Library. Die Python- und TypeScript-SDKs liefern einen verify_certificate-Helper.

Dein erster Call

curl https://gateway.lucairn.eu/v1/messages \
  -H "Authorization: Bearer lcr_live_..." \
  -H "X-Upstream-Key: sk-ant-..." \
  -H "Content-Type: application/json" \
  -d '{
    "model": "claude-sonnet-4-6",
    "max_tokens": 256,
    "messages": [
      {"role": "user", "content": "Classify this ticket: customer email is [email protected]"}
    ]
  }'

Zertifikat öffnen

# The response includes metadata.dsa_compliance.certificate_url.
# Open it in any browser, or fetch the public summary:
curl https://gateway.lucairn.eu/api/v1/veil/certificate/<request_id>/summary

Verifizieren

# Anyone can verify a certificate against the public witness key:
curl https://gateway.lucairn.eu/.well-known/veil-keys.json
# Or use the public verify page in the browser:
# https://lucairn.eu/en/verify

Was im Free Tier heute funktioniert

Lucairn deckt die langweiligen 90 % von LLM-Workloads ab — Text rein, Text raus, mit Redaktions-Nachweis. Ein paar Edge Cases (Multimodal, Tool-Call-DLP, Prompt-Caching) stehen noch auf der Roadmap. Lies die Matrix, bevor du dich produktiv darauf verlässt.

  • Text-Nachrichten über /v1/messages (Anthropic-SDK-Form)

    Drop-in für das Anthropic-SDK. base_url tauschen, Code bleibt.

  • Text-Nachrichten über /v1/chat/completions (OpenAI-SDK-Form)

    Drop-in für das OpenAI-SDK. Selbes Bearer-Auth-Muster.

  • Multi-Provider-Routing über /api/v1/proxy/messages

    Provider pro Request: Claude / OpenAI / Gemini / Mistral / Self-Hosted.

  • Streaming-Antworten (SSE)

    !

    Anthropic /v1/messages und OpenAI /v1/chat/completions weisen stream:true mit HTTP 400 ab (Per-Chunk-DLP-Lücke). Das Lucairn-native /api/v1/proxy/messages liefert SSE nur, wenn STREAMING_ENABLED=true am Gateway gesetzt ist. Default-Deployment hat das aus — Roadmap.

  • Re-Linkage im Free Tier

    ✕ Roadmap

    Free-Tier-Responses enthalten Platzhalter. Pro und Enterprise können automatisches Re-Linking serverseitig aktivieren.

  • DLP für Tool- / Function-Call-Argumente

    ✕ Roadmap

    Tool-Definitionen und Function-Call-Argumente werden heute nicht bereinigt. PII aus Tools heraushalten.

  • Bild- / Datei- / Audio-Anhänge

    ✕ Roadmap

    Multimodale Inputs haben noch keine Lucairn-Pipeline-Abdeckung.

Tool-DLP und Multimodal-Bereinigung stehen auf der Roadmap. Abonniere das Changelog für Ship-Termine. Zum Changelog.

Nächste Schritte

Möchten Sie das in Aktion sehen?

Vereinbaren Sie einen Termin — wir gehen gemeinsam durch Ihren Anwendungsfall.