Sehen Sie Ihre Daten durch Lucairn fließen.
Live, mit Ihrem eigenen LLM-Schlüssel.
Datei hochladen. Provider wählen. Eigenen Schlüssel mitbringen (BYOK). Sehen Sie zu, wie die Pipeline Ihre Anfrage pseudonymisiert, weiterleitet, bezeugt und zertifiziert — Schritt für Schritt. Keine Screenshots. Kein Screen-Sharing. Ihre Daten bleiben in Ihrem Browser.
Sechs Schritte.
Echte Pipeline. Echtes Zertifikat.
Dieselben sechs Schritte laufen in der zugangsgeschützten Sandbox-App. Jeder Schritt zeigt Status, Latenz und die Rohantwort — mit einer JSON-Schublade, wenn Sie das Detail auf Wire-Ebene sehen möchten.
Hochladen & Parsen
Browserseitiges Parsen von CSV, JSON, Excel, PDF, Klartext oder Markdown — bis 4 MB. Nur der extrahierte Text erreicht unsere Server.
Sanitisieren (L1+L2)
Presidio NER plus heuristische Regeln plus Known-Entity-Matching. Identifikatoren werden durch stabile Platzhalter ersetzt, bevor etwas anderes läuft.
ID Bridge
Platzhalter werden von einem separaten Dienst auf opake Tokens abgebildet. Die Bridge hält das Mapping; nachgelagerte Dienste sehen die Originalwerte nie.
Sandbox A → KI → Sandbox B
Der tokenisierte Prompt geht in Sandbox A; erreicht das LLM über Ihren BYOK-Schlüssel; die Antwort wird über Sandbox B zurückverlinkt. Beim Streaming wird der ≤24-Byte-Relink-Puffer für Chunk-Grenzen live sichtbar.
Witness zusammenbauen
Claim-Kette plus Sanitizer-Manifest plus TSA-Zeitstempel plus Rekor-Inklusionsbeleg — vom Witness-Dienst zusammengestellt und signiert.
Zertifikat
Ein signiertes, zeitgestempeltes, verankertes Zertifikat, das jeder unter /verify prüfen kann. Der Beleg, dass Ihre KI-Anfrage tatsächlich Ende-zu-Ende pseudonymisiert wurde.
Was das nicht ist.
Sagen wir gleich vorweg.
Keine Screenshot-Tour.
Ihre Datei, Ihr Schlüssel, echte Pipeline. Dieselben Code-Pfade, die zahlende Kunden bedienen, bedienen diese Demo.
Keine Trainingsdaten.
Nichts, was Sie hochladen, trainiert irgendetwas. Ihre Datei verlässt den Browser nicht; nur der extrahierte Text geht an das Gateway und wird im Arbeitsspeicher verarbeitet — nicht als Trainingsmaterial gespeichert.
Kein Free-Tier.
Auf Einladung, solange wir uns auf den Produktivbetrieb vorbereiten. Marc Schülke (Gründer) prüft jede Anfrage persönlich.
Ihr LLM-Schlüssel bleibt im Browser.
Ihr LLM-API-Schlüssel verbleibt nur in Ihrem Browser-Tab — er wird mit jeder Anfrage direkt an das Gateway gesendet, nie protokolliert oder auf unseren Servern gespeichert.
Rate-Limit für die Demo.
Begrenzt auf 30 Inferenzläufe pro Session und Stunde sowie 200 insgesamt — damit die Demo für alle nutzbar bleibt.
Auf Einladung.
Marc prüft jede Anfrage.
Wir öffnen die Sandbox für eine kleine Gruppe an Evaluierungs-Interessenten. Wenn Ihr Team ein LLM-Projekt unter regulatorischem Druck betreibt — klinisch, finanziell, juristisch, agentisch — füllen Sie das Anfrageformular aus. Marc Schülke (Gründer) prüft jede Anfrage persönlich und meldet sich innerhalb von 1–3 Werktagen per E-Mail.