Einblicke · 2026-02-24
Was kostet lokale KI wirklich? So berechnen Praxen und Kanzleien ihren Hardware-Bedarf

Ihre Mitarbeitenden nutzen KI längst.
Nicht in einem Pilotprojekt. Nicht in einem offiziellen Prozess. Sondern zwischen zwei Terminen, schnell im Browser, mit ChatGPT oder Claude. Und ja, dabei landen Mandatsdaten und Patientendaten im Prompt. Das passiert täglich in Kanzleien und Praxen.
Für Berufsgeheimnisträger ist das kein kleines Datenschutzthema, sondern ein reales Haftungsrisiko. §203 StGB und DSGVO sind keine Theorie. Sie gelten auch dann, wenn die Eingabe nur "kurz zum Zusammenfassen" gedacht war.
Viele Teams reagieren darauf mit Verboten. Das funktioniert nicht. Wer den Nutzen von KI im Alltag erlebt hat, sucht sich einen Weg. Der sinnvolle Weg ist ein anderer: eine lokale, DSGVO-konforme KI-Umgebung, die Ihr Team tatsächlich nutzen darf.
Dann kommt sofort die nächste Blockade: "Das kostet doch ein Vermögen." Genau hier liegt der Denkfehler.
Lokale KI ist oft deutlich günstiger als gedacht
In vielen Köpfen bedeutet lokale KI: Serverraum, sechsstellige Investition, monatelanges IT-Projekt. Die Realität ist nüchterner.
Für viele typische Workflows in kleinen und mittleren Kanzleien und Praxen reicht ein sauber dimensioniertes Setup im unteren bis mittleren fünfstelligen Bereich. Teilweise deutlich darunter. Nicht geschenkt, aber weit entfernt von den Fantasiezahlen, die oft im Raum stehen.
Vor allem im Vergleich zum Risiko wirkt die Rechnung plötzlich klar. Ein einziger Datenschutzvorfall mit sensiblen Daten kostet Vertrauen, Zeit, Nerven und Geld. Eine belastbare lokale Infrastruktur kostet ebenfalls Geld, aber sie reduziert das Risiko strukturell und schafft kontrollierbare Prozesse.
Ein Hardware-Rechner ersetzt keine Detailplanung. Er liefert den ersten belastbaren Korridor. Genau das brauchen Entscheider am Anfang.
Was die Kosten wirklich treibt
Die meisten Fehleinschätzungen entstehen, weil Teams auf das falsche Kriterium schauen. Nicht der Hype bestimmt den Preis, sondern Ihr Lastprofil.
1) Use Case und Modellklasse
Dokumentenanalyse, Schriftsatzprüfung, interne Wissensabfrage oder E-Mail-Unterstützung belasten Systeme unterschiedlich. Je höher Qualitätsanspruch und Kontextlänge, desto höher der Hardware-Bedarf.
2) Gleichzeitige Nutzer
Zwei Anwälte mit sporadischer Nutzung sind kein Thema. 25 Mitarbeitende, die parallel Akten prüfen, sind ein anderes Lastbild. Hardware wird an Spitzenlast geplant, nicht am Tagesdurchschnitt.
3) Reaktionszeit
Wer intern drei bis fünf Sekunden akzeptiert, kommt günstiger weg. Wer ein bis zwei Sekunden als Standard will, braucht mehr GPU-Leistung und mehr Reserve.
4) Daten-Sensitivität und Compliance
Wenn Sie mit Mandatsdaten oder Patientendaten arbeiten, brauchen Sie klare Zugriffstrennung, Protokollierung und lokale Datenhaltung. Diese Anforderungen sind Pflicht und beeinflussen Architektur und Kosten direkt.
5) Dokumentmenge und Dokumentlänge
500 kurze Dokumente im Monat sind technisch leicht. Zehntausende lange Dokumente mit Anhängen erzeugen konstant hohe Last. Token-Volumen, Parallelität und Speicherdurchsatz entscheiden dann über die Systemgröße.
Konkrete Preisbereiche aus der Praxis
Der Rechner liefert keine Fantasiepreise, sondern realistische Korridore. Zwei typische Beispiele:
Beispiel 1: Einzelpraxis oder kleine Kanzlei
- Use Case: Dokumentanalyse, E-Mail-Vorlagen, interner Assistent
- Nutzer: 2 bis 5 gleichzeitig
- Reaktionszeit: 3 bis 5 Sekunden akzeptabel
- Daten: hochsensibel, vollständig lokal
Typische Konfiguration:
- Apple-Option: Mac Studio, je nach Lastprofil M3 Max oder M3 Ultra
- NVIDIA-Option: Workstation mit RTX 4080 oder RTX 4090
Typischer Kostenrahmen Hardware: Starter bis Größe S - etwa 4.000 bis 9.000 Euro
Das deckt in vielen Teams den produktiven Alltag ab. Wer an dieser Stelle zu klein einkauft, zahlt später über Wartezeit, Frust und Nachrüstung.
Beispiel 2: Mittelgroße Kanzlei oder MVZ
- Use Case: anspruchsvolle Legal- oder Medical-Workflows, Backoffice-Automation, Wissenssuche
- Nutzer: 15 bis 40 gleichzeitig
- Reaktionszeit: 1 bis 2 Sekunden Ziel
- Dokumente: hoher Durchsatz, lange Inhalte
Typische Konfiguration:
- Apple-Option: mehrere Mac-Studio-Knoten für definierte Lastsegmente
- NVIDIA-Option: Server oder Workstation mit zwei RTX 6000 Ada oder vergleichbarer Infrastruktur
Typischer Kostenrahmen Hardware: Pro bis Enterprise, Größe M bis L - etwa 18.000 bis 95.000 Euro
Die Spanne ist groß, weil Lastprofile in diesem Segment stark auseinandergehen. Genau deshalb brauchen Sie eine erste Berechnung auf Basis Ihrer echten Nutzung.
Der klügere Schritt statt pauschalem Verbot
Sie lösen das KI-Thema nicht mit einer Rundmail, die ChatGPT untersagt. Sie lösen es mit einer sicheren Alternative, die im Alltag schneller hilft als Schattennutzung im Browser.
Der Hardware-Rechner ist dafür der Startpunkt. Kein Angebot, keine endgültige Architektur, keine Garantie auf den Euro genau. Aber ein sauberer erster Korridor, mit dem Sie intern entscheiden können: Ist das wirtschaftlich, ist das technisch machbar, und welcher Aufbau passt zu unserem Betrieb.
Wenn Sie heute schon wissen, dass Ihr Team KI nutzt, dann verschieben Sie die Kostenfrage nicht. Rechnen Sie sie durch - und vergleichen Sie sie mit dem Risiko, das bereits im Haus ist.
Nächster Schritt
Bedarf in 2 Minuten berechnen
Spielen Sie Ihr reales Lastprofil durch und sehen Sie schwarz auf weiß, was Ihre lokale KI-Umgebung kostet.