OpenAI-SDK-Einrichtungsanleitung

Verbinde das OpenAI SDK mit Lucairn in 2 Minuten

1

API-Schlüssel bereithalten

Du brauchst zwei Schlüssel: deinen DSA-API-Schlüssel (von Lucairn) und deinen OpenAI-API-Schlüssel (von platform.openai.com). Falls du noch keinen DSA-Schlüssel hast, registriere dich unter /account/signup.

2

base_url im OpenAI-Client setzen

Richte das OpenAI SDK (oder jedes OpenAI-kompatible Tool — Cursor, Continue, eigene Skripte) auf das Lucairn-Gateway. Übergib deinen DSA-Schlüssel als api_key und deinen OpenAI-Schlüssel im X-Upstream-Key-Header. Snippets unten für Python, TypeScript und cURL.

3

Anfrage senden

Verwende jedes Modell, das die OpenAI Chat Completions API unterstützt — gpt-4o, gpt-4o-mini, o1-mini. Lucairn fängt jede Anfrage ab, bereinigt sie, isoliert sie und signiert sie, bevor sie an OpenAI weitergeleitet wird.

4

Mit dem cURL-Snippet verifizieren

Führe den cURL-Befehl unten aus, um die Verbindung zu prüfen. Eine erfolgreiche Antwort enthält einen "metadata.dsa_compliance"-Block mit einer Lucairn-Zertifikats-URL — dein kryptographischer Nachweis darüber, was bereinigt wurde.

Python
from openai import OpenAI

client = OpenAI(
    api_key="lcr_live_...",                         # Lucairn API key
    base_url="https://gateway.lucairn.eu/v1",       # Lucairn Gateway
    default_headers={"X-Upstream-Key": "sk-..."},   # OpenAI key
)

response = client.chat.completions.create(
    model="gpt-4o",
    messages=[{"role": "user", "content": "Classify this ticket: ..."}],
)
TypeScript
import OpenAI from "openai";

const client = new OpenAI({
  apiKey: "lcr_live_...",                         // Lucairn API key
  baseURL: "https://gateway.lucairn.eu/v1",       // Lucairn Gateway
  defaultHeaders: { "X-Upstream-Key": "sk-..." }, // OpenAI key
});

const response = await client.chat.completions.create({
  model: "gpt-4o",
  messages: [{ role: "user", content: "Classify this ticket: ..." }],
});
cURL (verifizieren)
curl https://gateway.lucairn.eu/v1/chat/completions \
  -H "Authorization: Bearer lcr_live_..." \
  -H "X-Upstream-Key: sk-..." \
  -H "Content-Type: application/json" \
  -d '{
    "model": "gpt-4o",
    "messages": [{"role": "user", "content": "Say hello."}]
  }'

So funktioniert es

  • Jede Nachricht wird vor Erreichen von OpenAI auf personenbezogene Daten (Namen, E-Mails, Adressen, medizinische Begriffe) geprüft.

  • Erkannte PII werden durch sichere Platzhalter ersetzt. OpenAI sieht keine echten personenbezogenen Daten.

  • Im Developer-Tier enthalten Antworten Platzhalter, damit dein Code keine echten personenbezogenen Daten empfängt. Pro- und Enterprise-Tier können automatische Rückverknüpfung zu den Originalwerten aktivieren.

  • Für jede Anfrage wird ein Lucairn-Zertifikat erstellt — kryptographischer Nachweis der Bereinigung.

  • Streaming (stream:true) wird auf /v1/chat/completions noch nicht unterstützt — setze stream=false vorerst. Der Grund ist eine Per-Chunk-DLP-Scan-Lücke, durch die unbereinigte Tokens den Client erreichen könnten, bevor die nachgelagerte Redaktion greift.

Funktionsumfang

Bevor du das Snippet oben in eine Produktiv-App einfügst: prüfe, was der OpenAI-kompatible Proxy heute wirklich abdeckt. Wir benennen die echten Lücken — keine leeren Versprechen.

  • Nicht-streaming Chat Completions (stream:false)

    Vollständige PII-Bereinigung + signiertes Lucairn-Zertifikat pro Anfrage.

  • System-Prompts

    Die System-Message wird zusammen mit den User-Turns end-to-end bereinigt.

  • Multi-Turn-Konversationen

    Jeder Turn wird bereinigt; ein Zertifikat pro Anfrage.

  • Streaming-Antworten (stream:true / SSE)

    ✕ Roadmap

    Wird am Gateway mit HTTP 400 streaming_not_supported abgewiesen. Per-Chunk-DLP-Scan ist auf der Roadmap; vorher dürfen unbereinigte Tokens den Client nicht erreichen.

  • Tool-Calls / Function Calling (tools, tool_choice)

    ✕ Roadmap

    Tool-Definitionen und Tool-Call-Argumente werden heute nicht bereinigt. Tool-Inputs über diesen Endpoint zu senden ist unsicher — nutze die DSA Proxy API für explizites Field-Routing oder warte auf das Roadmap-Update.

  • Prompt-Caching

    ✕ Roadmap

    Jede Anfrage wird unabhängig verarbeitet, damit der Per-Call-Nachweis gültig bleibt. Keine Cache-Wiederverwendung über Requests hinweg.

  • Embeddings / Bild- / Audio-Endpoints

    ✕ Roadmap

    Heute wird nur /v1/chat/completions geproxyt. Andere OpenAI-Endpoints haben keine Lucairn-Pipeline-Abdeckung — sende dort keine PII durch.

Streaming und Tool-Call-DLP sind auf der Roadmap. Abonniere das Changelog für Ship-Termine. Zum Changelog.

Möchten Sie das in Aktion sehen?

Vereinbaren Sie einen Termin — wir gehen gemeinsam durch Ihren Anwendungsfall.