Der Chat-Button unten rechts auf dieser Website führt zu einem KI-Assistenten. Er beantwortet Fragen zu KI, Daten & APIs, Prozessautomatisierung und meinen Dienstleistungen – basierend auf Informationen, die ich ihm zur Verfügung gestellt habe. In diesem Beitrag dokumentiere ich die technische Umsetzung und die Überlegungen zum Datenschutz.
Ausgangslage und Anforderungen
Die Idee: Ein Chatbot, der häufige Fragen beantwortet und meine Expertise demonstriert – ohne dass ich selbst rund um die Uhr erreichbar sein muss. Vergleichbar mit einem gut geschulten Mitarbeiter am Empfang, der Standardfragen beantworten kann und bei komplexeren Anliegen an die richtige Stelle verweist.
Meine Anforderungen waren:
- Datenschutz: Server in der EU, Auftragsverarbeitungsvertrag (AVV) verfügbar
- Kontrolle: Ich bestimme, welche Informationen der Chatbot nutzt und wie er antwortet
- Kosten: Planbar und verhältnismäßig, auch bei vielen Anfragen
- Integration: Nahtlose Einbindung in meine bestehende Website
Die Wahl fiel auf LangDock [1], einen deutschen Anbieter mit Sitz in Berlin. Die Server stehen in der EU, ein AVV ist standardmäßig verfügbar, und die Kosten liegen bei unter einem Euro pro Monat für tausende Anfragen.
Technische Architektur
Das Problem: Browser-Sicherheit
Moderne Browser verhindern aus Sicherheitsgründen, dass Websites direkt mit fremden Servern kommunizieren (Cross-Origin Resource Sharing, CORS). LangDock blockiert entsprechend direkte Anfragen aus dem Browser – eine sinnvolle Schutzmaßnahme. Die Lösung: Ein Zwischenschritt über meinen eigenen Server (gehostet in der EU). Der Browser sendet die Anfrage an meine Website, diese leitet sie an LangDock (ebenfalls EU) weiter und gibt die Antwort zurück. So bleibt der API-Schlüssel – das “Passwort” für die LangDock-Schnittstelle – auf meinem Server und ist für Besucher nicht einsehbar.
Der Datenfluss
- Besucher tippt Frage in das Chat-Fenster
- Die Frage wird an meine Website gesendet (
/api/chat) - Mein Server fügt den API-Schlüssel hinzu und leitet an LangDock weiter
- LangDock verarbeitet die Anfrage mit dem konfigurierten KI-Modell
- Die Antwort wird als Datenstrom zurückgesendet (Wort für Wort)
- Der Besucher sieht die Antwort im Chat-Fenster
Dieser Aufbau ist Standard für KI-Anwendungen im Web. Er stellt sicher, dass vertrauliche Zugangsdaten niemals den Browser erreichen.
Wissensbasis und Antwortverhalten
Der Chatbot erfindet nichts. Er greift auf eine Wissensbasis zurück – Texte, die ich ihm zur Verfügung gestellt habe. Diese Technik nennt sich “Retrieval-Augmented Generation” (RAG): Die KI sucht zuerst in den hinterlegten Dokumenten nach relevanten Informationen und formuliert daraus eine Antwort.
Für meinen Chatbot habe ich zwei Arten von Inhalten hinterlegt:
Website-Inhalte:
- Beschreibungen meiner Dienstleistungen
- Informationen zu meinem Hintergrund
- Tool-Empfehlungen und Blog-Artikel
Fachliche Recherchen:
- KI-Grundlagen (Retrieval-Augmented Generation, Agenten, Prompting)
- Daten & APIs (Webhooks, Datenbanken, API-Sicherheit)
- DSGVO und Datenschutz im Gesundheitswesen
- Automatisierung (Workflows, No-Code-Tools)
Die Dokumente sind strukturiert aufgebaut: klare Überschriften, kurze Absätze, Tabellen für Vergleiche. Das verbessert die Qualität der Antworten, weil die KI relevante Abschnitte besser findet.
Sicherheitsmaßnahmen
Ein öffentlich zugänglicher Chatbot erfordert besondere Vorsicht. Ohne Schutzmaßnahmen könnte er manipuliert werden, um unerwünschte Inhalte zu generieren oder interne Informationen preiszugeben.
Regelwerk für den Assistenten
Die System-Instruktionen definieren, wie der Chatbot sich verhalten soll:
- Thematische Eingrenzung: Nur Fragen zu KI, Daten & APIs, Prozessautomatisierung und meinen Dienstleistungen
- Verweigerung sensibler Themen: Keine medizinischen oder pharmazeutischen Ratschläge – stattdessen Verweis auf persönlichen Kontakt
- Längenbegrenzung: Maximal fünf Sätze pro Antwort
- Manipulationsschutz: Versuche, die Rolle zu ändern oder System-Instruktionen auszulesen, werden erkannt und abgelehnt
Technische Schutzmaßnahmen
- Rate Limiting: Maximal eine Anfrage pro Sekunde pro Besucher verhindert Missbrauch
- Keine Speicherung: Konversationen werden nicht dauerhaft gespeichert
- Eingabevalidierung: Ungewöhnlich lange oder formatierte Eingaben werden gefiltert
Datenschutz-Dokumentation
| Aspekt | Umsetzung |
|---|---|
| Rechtsgrundlage | Berechtigtes Interesse (Art. 6 Abs. 1 lit. f DSGVO) |
| Auftragsverarbeitung | AVV mit LangDock abgeschlossen |
| Serverstandort | Deutschland (EU) |
| Transparenz | Kennzeichnung als “KI-Assistent” |
| Hinweise | Aufforderung, keine sensiblen Daten einzugeben |
| Dokumentation | Eigener Abschnitt in der Datenschutzerklärung |
Hinweis: Ich bin keine Juristin. Diese Dokumentation basiert auf meiner Recherche und Einschätzung. Für rechtsverbindliche Aussagen empfehle ich die Konsultation eines Fachanwalts.
Aufwand und Kosten
Die Implementierung hat etwa einen halben Tag gedauert – von der Recherche über die technische Umsetzung bis zur Konfiguration des Antwortverhaltens.
Laufende Kosten:
- LangDock: Ca. 0,50–1,00 € pro Monat bei normaler Nutzung
- Server: Bereits vorhanden (Website-Hosting)
Der größte Aufwand liegt nicht in der Technik, sondern in der sorgfältigen Formulierung der System-Instruktionen und der Zusammenstellung der Wissensbasis.
Fazit
Ein KI-Chatbot ist technisch keine große Hürde mehr. Die eigentliche Arbeit liegt in den Randbedingungen: Datenschutz, Sicherheit, sinnvolle Eingrenzung der Fähigkeiten. Für Unternehmen im Gesundheitsbereich – wo Datenschutz besonders relevant ist – zeigt dieses Projekt: Es ist möglich, KI-Funktionen datenschutzkonform anzubieten. Es erfordert aber eine bewusste Auseinandersetzung mit den rechtlichen und technischen Anforderungen.
Quellen
[1] LangDock GmbH. (2026). EU-native AI platform for businesses. https://langdock.com
[2] Astro. (2026). The web framework for content-driven websites. https://astro.build
[3] Railway. (2026). The cloud that takes the complexity out of shipping software. https://railway.app