Einblicke · 2026-02-16
ChatGPT in der Kanzlei & Praxis: Wann Sie gegen § 203 StGB verstoßen (und die legale Alternative)

🔒 Compliance-Risiko: Cloud-KI + Klardaten = unnötiges Berufsrisiko
Lassen Sie uns nicht drumherum reden: Sie nutzen ChatGPT. Oder jemand in Ihrer Praxis, Kanzlei oder Ihrem Team tut es. Vielleicht für Arztbriefe, vielleicht für Recherche, vielleicht nur, um eine E-Mail umzuformulieren. Und ja — wahrscheinlich haben dabei schon Namen, Aktenzeichen oder Diagnosen das Haus verlassen.
Das ist kein Kavaliersdelikt. Das ist § 203 StGB.
Das Problem: Ihre Daten auf fremden Servern
Wenn Sie einen Sachverhalt in ChatGPT eintippen, passiert Folgendes: Der Text wird an OpenAI-Server übertragen. Diese stehen in den USA. Punkt.
Für einen Privatmenschen, der sich ein Rezept generieren lässt: egal. Für Sie als Arzt, Praxisleitung oder Anwalt: ein Berufsrisiko.
§ 203 Abs. 1 StGB stellt das unbefugte Offenbaren fremder Geheimnisse unter Strafe — bis zu einem Jahr Freiheitsstrafe oder Geldstrafe. „Offenbaren" heißt nicht, dass Sie es an die Presse geben. Es reicht, dass ein Dritter technisch Zugriffauf die Information hat. Und OpenAI ist ein Dritter. Ein amerikanischer Dritter, der unter dem CLOUD Act zur Herausgabe von Daten verpflichtet werden kann.
Klartext: Wenn Sie den Namen eines Mandanten und dessen Sachverhalt in ChatGPT eingeben, haben Sie dieses Geheimnis offenbart. Nicht vielleicht. Nicht theoretisch. Juristisch.
Die Rechtslage — ohne Juristendeutsch
Drei Säulen machen Ihnen das Leben schwer:
§ 203 StGB (Schweigepflicht). Betrifft Ärzte, Anwälte, Steuerberater, Apotheker — alle Berufsgeheimnisträger. Die Norm schützt nicht nur „sensible" Daten, sondern jede Information, die Ihnen im Rahmen der Berufsausübung anvertraut wurde.
DSGVO Art. 44 ff. (Drittlandübermittlung). Personenbezogene Daten dürfen nur unter strengen Voraussetzungen in Drittländer übermittelt werden. Das letzte Framework (Privacy Shield) hat der EuGH 2020 gekippt (Schrems II, C-311/18).
Berufsrecht. § 43a BRAO (Anwälte), § 9 MBO-Ä (Ärzte) — die Verschwiegenheitspflicht ist zusätzlich standesrechtlich verankert.
Drei Rechtsgebiete. Alle zeigen in dieselbe Richtung: Cloud-KI mit Klardaten ist tabu.
Die Lösung: Kappen Sie das Kabel
Sie müssen nicht auf KI verzichten. Sie müssen nur aufhören, Ihre Daten zu verschicken.
Ein lokales Large Language Model (LLM) läuft auf Hardware in Ihren Räumlichkeiten. Oder auf einem Server, den Sie kontrollieren. Keine Cloud. Keine API-Calls nach Kalifornien. Keine Drittlandübermittlung.
- Ihre Eingaben bleiben bei Ihnen. Kein Byte verlässt Ihr Netzwerk.
- Kein Dritter hat Zugriff. Weder OpenAI, noch Microsoft, noch die NSA.
- § 203 StGB ist kein Thema mehr. Sie offenbaren nichts, weil niemand mithört.
- DSGVO-Drittlandtransfer entfällt. Die Daten bewegen sich nicht.
Der Unterschied ist nicht die Intelligenz. Der Unterschied ist die Infrastruktur.
Was ein lokales LLM wirklich kann — und warum das alles verändert
Sicherheit ist der Grund, warum Sie auf ein lokales System wechseln müssen. Aber es ist nicht der Grund, warum Sie es wollen werden. Wenn die Daten bei Ihnen bleiben, können Sie der KI endlich alles geben: Akten, Befunde, Korrespondenz, Fallhistorien.
Ihre gesamte Datenbasis — durchsuchbar in Sekunden
Praxis: „Bei welchen Diabetikern hat sich der HbA1c in den letzten sechs Monaten verschlechtert?" Kanzlei: „Welche Kündigungsschutzklagen vor dem ArbG München waren erfolgreich — und warum?" Eine Frage, eine belastbare Antwort.
Muster erkennen, die Menschen übersehen
Ein Mensch sieht eine Akte. Eine KI sieht tausend gleichzeitig. Genau dadurch entstehen Frühwarnsignale und strategische Muster, die im Tagesgeschäft untergehen.
Automatische Dokumentenerstellung
- Arztbrief-Entwürfe aus Befunden und Anamnese
- Schriftsatz-Entwürfe mit Verweisen auf Fallhistorie und Rechtsprechung
- Verdichtete Gutachtenzusammenfassungen
- Vertragsprüfungen mit markierten Risikoklauseln
Wissensmanagement statt Wissensverfall
Ein lokales KI-System konserviert Erfahrungswissen. Es macht es abfragbar, durchsuchbar und für neue Mitarbeitende nutzbar.
Was Sie jetzt tun sollten
Hören Sie auf, ChatGPT heimlich zu nutzen und zu hoffen, dass es keiner merkt. Das ist keine Strategie, das ist russisches Roulette mit Ihrer Zulassung.
Prüfen Sie stattdessen, ob ein lokales KI-System in Ihre Arbeitsabläufe passt. Die Technik ist reif. Die Hardware ist bezahlbar. Der rechtliche Rahmen ist eindeutig.
→ Nächster Schritt: Was ist RAG? Wie Ihre KI ein fotografisches Gedächtnis für Ihre Akten bekommt
FAQ für Praxen, Kanzleien und sensible Teams
Ist ChatGPT mit pseudonymisierten Daten automatisch sicher?
Nicht automatisch. Pseudonymisierung reduziert Risiko, ersetzt aber keine vollständige rechtliche Bewertung und kein sauberes Berechtigungskonzept.
Wann ist ein lokales LLM der sinnvollste Weg?
Immer dann, wenn Sie regelmäßig mit Patienten-, Mandanten- oder anderen vertraulichen Daten arbeiten und Datenabfluss praktisch ausschließen wollen.
Was bringt das wirtschaftlich?
Weniger manuelle Vorarbeit, schnellere Dokumentenprozesse und geringeres Compliance-Risiko. Das spart Zeit und reduziert Folgekosten durch Fehler oder unsaubere Tool-Nutzung.
Externe Quellen
Nächster Schritt: Lokale KI für Arztpraxen
Sicher von ChatGPT-Unsicherheit zu DSGVO-konformen Praxis-Workflows
Wir zeigen Ihnen in 30 Minuten, wie lokale KI in Ihrer Praxis mit echten Dokumenten läuft — ohne Cloud-Klardaten.
Related Reads
Hinweis: Dieser Beitrag stellt keine Rechtsberatung dar. Bei konkreten Fragen zur Zulässigkeit von KI-Tools in Ihrer Kanzlei oder Praxis konsultieren Sie bitte einen Fachanwalt für IT-Recht bzw. Ihren Datenschutzbeauftragten.