OpenAI-SDK-Einrichtungsanleitung
Verbinde das OpenAI SDK mit Lucairn in 2 Minuten
API-Schlüssel bereithalten
Du brauchst zwei Schlüssel: deinen DSA-API-Schlüssel (von Lucairn) und deinen OpenAI-API-Schlüssel (von platform.openai.com). Falls du noch keinen DSA-Schlüssel hast, registriere dich unter /account/signup.
base_url im OpenAI-Client setzen
Richte das OpenAI SDK (oder jedes OpenAI-kompatible Tool — Cursor, Continue, eigene Skripte) auf das Lucairn-Gateway. Übergib deinen DSA-Schlüssel als api_key und deinen OpenAI-Schlüssel im X-Upstream-Key-Header. Snippets unten für Python, TypeScript und cURL.
Anfrage senden
Verwende jedes Modell, das die OpenAI Chat Completions API unterstützt — gpt-4o, gpt-4o-mini, o1-mini. Lucairn fängt jede Anfrage ab, bereinigt sie, isoliert sie und signiert sie, bevor sie an OpenAI weitergeleitet wird.
Mit dem cURL-Snippet verifizieren
Führe den cURL-Befehl unten aus, um die Verbindung zu prüfen. Eine erfolgreiche Antwort enthält einen "metadata.dsa_compliance"-Block mit einer Lucairn-Zertifikats-URL — dein kryptographischer Nachweis darüber, was bereinigt wurde.
from openai import OpenAI
client = OpenAI(
api_key="lcr_live_...", # Lucairn API key
base_url="https://gateway.lucairn.eu/v1", # Lucairn Gateway
default_headers={"X-Upstream-Key": "sk-..."}, # OpenAI key
)
response = client.chat.completions.create(
model="gpt-4o",
messages=[{"role": "user", "content": "Classify this ticket: ..."}],
)import OpenAI from "openai";
const client = new OpenAI({
apiKey: "lcr_live_...", // Lucairn API key
baseURL: "https://gateway.lucairn.eu/v1", // Lucairn Gateway
defaultHeaders: { "X-Upstream-Key": "sk-..." }, // OpenAI key
});
const response = await client.chat.completions.create({
model: "gpt-4o",
messages: [{ role: "user", content: "Classify this ticket: ..." }],
});curl https://gateway.lucairn.eu/v1/chat/completions \
-H "Authorization: Bearer lcr_live_..." \
-H "X-Upstream-Key: sk-..." \
-H "Content-Type: application/json" \
-d '{
"model": "gpt-4o",
"messages": [{"role": "user", "content": "Say hello."}]
}'So funktioniert es
Jede Nachricht wird vor Erreichen von OpenAI auf personenbezogene Daten (Namen, E-Mails, Adressen, medizinische Begriffe) geprüft.
Erkannte PII werden durch sichere Platzhalter ersetzt. OpenAI sieht keine echten personenbezogenen Daten.
Im Developer-Tier enthalten Antworten Platzhalter, damit dein Code keine echten personenbezogenen Daten empfängt. Pro- und Enterprise-Tier können automatische Rückverknüpfung zu den Originalwerten aktivieren.
Für jede Anfrage wird ein Lucairn-Zertifikat erstellt — kryptographischer Nachweis der Bereinigung.
Streaming (stream:true) wird auf /v1/chat/completions noch nicht unterstützt — setze stream=false vorerst. Der Grund ist eine Per-Chunk-DLP-Scan-Lücke, durch die unbereinigte Tokens den Client erreichen könnten, bevor die nachgelagerte Redaktion greift.
Funktionsumfang
Bevor du das Snippet oben in eine Produktiv-App einfügst: prüfe, was der OpenAI-kompatible Proxy heute wirklich abdeckt. Wir benennen die echten Lücken — keine leeren Versprechen.
| Funktion | Heute aktiv | Hinweise |
|---|---|---|
| Nicht-streaming Chat Completions (stream:false) | ✓ | Vollständige PII-Bereinigung + signiertes Lucairn-Zertifikat pro Anfrage. |
| System-Prompts | ✓ | Die System-Message wird zusammen mit den User-Turns end-to-end bereinigt. |
| Multi-Turn-Konversationen | ✓ | Jeder Turn wird bereinigt; ein Zertifikat pro Anfrage. |
| Streaming-Antworten (stream:true / SSE) | ✕ Roadmap | Wird am Gateway mit HTTP 400 streaming_not_supported abgewiesen. Per-Chunk-DLP-Scan ist auf der Roadmap; vorher dürfen unbereinigte Tokens den Client nicht erreichen. |
| Tool-Calls / Function Calling (tools, tool_choice) | ✕ Roadmap | Tool-Definitionen und Tool-Call-Argumente werden heute nicht bereinigt. Tool-Inputs über diesen Endpoint zu senden ist unsicher — nutze die DSA Proxy API für explizites Field-Routing oder warte auf das Roadmap-Update. |
| Prompt-Caching | ✕ Roadmap | Jede Anfrage wird unabhängig verarbeitet, damit der Per-Call-Nachweis gültig bleibt. Keine Cache-Wiederverwendung über Requests hinweg. |
| Embeddings / Bild- / Audio-Endpoints | ✕ Roadmap | Heute wird nur /v1/chat/completions geproxyt. Andere OpenAI-Endpoints haben keine Lucairn-Pipeline-Abdeckung — sende dort keine PII durch. |
Nicht-streaming Chat Completions (stream:false)
✓Vollständige PII-Bereinigung + signiertes Lucairn-Zertifikat pro Anfrage.
System-Prompts
✓Die System-Message wird zusammen mit den User-Turns end-to-end bereinigt.
Multi-Turn-Konversationen
✓Jeder Turn wird bereinigt; ein Zertifikat pro Anfrage.
Streaming-Antworten (stream:true / SSE)
✕ RoadmapWird am Gateway mit HTTP 400 streaming_not_supported abgewiesen. Per-Chunk-DLP-Scan ist auf der Roadmap; vorher dürfen unbereinigte Tokens den Client nicht erreichen.
Tool-Calls / Function Calling (tools, tool_choice)
✕ RoadmapTool-Definitionen und Tool-Call-Argumente werden heute nicht bereinigt. Tool-Inputs über diesen Endpoint zu senden ist unsicher — nutze die DSA Proxy API für explizites Field-Routing oder warte auf das Roadmap-Update.
Prompt-Caching
✕ RoadmapJede Anfrage wird unabhängig verarbeitet, damit der Per-Call-Nachweis gültig bleibt. Keine Cache-Wiederverwendung über Requests hinweg.
Embeddings / Bild- / Audio-Endpoints
✕ RoadmapHeute wird nur /v1/chat/completions geproxyt. Andere OpenAI-Endpoints haben keine Lucairn-Pipeline-Abdeckung — sende dort keine PII durch.
Streaming und Tool-Call-DLP sind auf der Roadmap. Abonniere das Changelog für Ship-Termine. Zum Changelog.
Möchten Sie das in Aktion sehen?
Vereinbaren Sie einen Termin — wir gehen gemeinsam durch Ihren Anwendungsfall.