Viele Schweizer Kanzleien haben KI längst auf der Agenda – aber zwischen «wir sollten das angehen» und einem funktionierenden Einsatz im Kanzleialltag liegt meist mehr als ein Toolabonnement. Dieser Leitfaden beschreibt, worauf es beim Einführen von KI in einer Anwaltskanzlei wirklich ankommt: rechtliche Rahmenbedingungen, sinnvolle Einstiegspunkte und praktische Schritte für Teams, die keinen monatelangen Rollout planen wollen.
Warum die KI-Einführung in Schweizer Kanzleien anders läuft
In Deutschland und der EU gibt es mit dem EU AI Act seit Februar 2025 eine Kompetenzpflicht für Unternehmen, die KI einsetzen (Art. 4 EU AI Act). Schweizer Kanzleien sind davon nicht direkt betroffen – aber wer mit EU-Mandantschaft arbeitet oder Daten in EU-Systemen verarbeitet, kommt an den Grundprinzipien nicht vorbei.
Relevanter für den Schweizer Kontext ist das Datenschutzgesetz (DSG), das seit September 2023 gilt. Es verlangt unter anderem, dass Personendaten nur zweckgebunden bearbeitet werden und dass bei der Beauftragung externer Auftragsverarbeiter entsprechende Verträge bestehen. Wer KI-Tools einsetzt, die Daten in die USA übertragen, braucht eine belastbare Rechtsgrundlage – oder ein Tool, das darauf verzichtet.
Dazu kommt das anwaltliche Berufsrecht. Das Berufsgeheimnis nach Art. 13 BGFA gilt ohne Ausnahme für Mandatsdaten. Das bedeutet: KI-Tools, die Vertragsinhalte oder Schriftsätze an externe Server senden, müssen vertraglich und technisch so gesichert sein, dass eine unbefugte Offenbarung ausgeschlossen ist.
Was vor der Toolauswahl kommt
Der häufigste Fehler bei der KI-Einführung ist, mit dem Tool zu beginnen. Bevor ein Anbieter evaluiert wird, lohnen sich drei Fragen:
Welche Prozesse kosten tatsächlich am meisten Zeit? Vertragsanalyse, Recherche, Proofreading und Due-Diligence-Extraktion sind klassische Kandidaten. Mandatsverwaltung oder Fristenüberwachung sind es seltener – dort braucht es andere Systemkategorien.
Welche Daten werden dabei verarbeitet? Enthält der Prozess Mandatsdaten, besondere Personendaten oder Geschäftsgeheimnisse, gelten höhere Anforderungen an Hosting, Vertragsgestaltung und Zugriffskontrolle.
Wer trägt die Verantwortung für die Outputs? KI-Outputs ersetzen keine anwaltliche Prüfung. Sie beschleunigen den Weg dahin. Wer das intern klar kommuniziert, vermeidet spätere Haftungsrisiken.
Diese Fragen sollten in eine interne KI-Richtlinie münden – auch eine kurze, einseitige Version ist besser als keine. Sie legt fest, welche Informationen in welche Tools fliessen dürfen und wie Outputs zu behandeln sind.
Datenschutz und Sicherheitsanforderungen konkret
Für Anwaltskanzleien gelten bei der KI-Einführung besonders strenge Anforderungen. Folgende Punkte sind vor Vertragsschluss mit einem KI-Anbieter zu prüfen:
Hosting und Datenstandort
Wo werden die Daten verarbeitet? Schweizer und EU-Hosting ist datenschutzrechtlich deutlich einfacher handhabbar als US-Hosting. Bei US-Anbietern droht trotz Standardvertragsklauseln ein Restrisiko durch US-Zugriffsgesetze (z. B. CLOUD Act).
Datenretention und Trainingsnutzung
Werden Kanzleidaten für das Training von KI-Modellen verwendet? Wenn ja, ist das mit dem Mandatsgeheimnis kaum vereinbar. Anbieter mit echter Zero-Data-Retention-Policy und ohne Human Review geben hier mehr Rechtssicherheit.
CASUS, eine Schweizer Legal-AI-Plattform, hostet alle Daten in der Schweiz und der EU, überträgt keine Daten in die USA und betreibt weder Human Review noch Datenretention. Das vereinfacht die datenschutzrechtliche Einordnung für Schweizer Kanzleien erheblich.
Welche Anwendungsfälle den grössten Nutzen bringen
Nicht alle KI-Einsatzmöglichkeiten sind für Kanzleien gleichermassen geeignet. Die folgende Übersicht zeigt, wo der Aufwand-Nutzen-Faktor am günstigsten ist:
Vertragsanalyse und Risk Review
Das Durcharbeiten eines 40-seitigen Vertrags auf Haftungsklauseln, Kündigungsfristen und unausgewogene Formulierungen dauert ohne Unterstützung Stunden. Mit einem strukturierten KI-Review lassen sich Risiken nach Schweregrad (niedrig / mittel / hoch) priorisieren und direkt mit Formulierungsoptionen verknüpfen.
CASUS' Risk & Quality Review erkennt die Vertragsparteien, analysiert Risiken aus Partei-Perspektive und liefert Verbesserungsvorschläge, die direkt in Microsoft Word übernommen werden können – ohne Copy-Paste.
Benchmark gegen interne Standards
Wer regelmässig ähnliche Vertragstypen bearbeitet (NDA, SPA, DPA), profitiert von einem automatisierten Abgleich gegen ein internes Playbook. So werden fehlende Klauseln, unvollständige Regelungen oder Abweichungen vom Standard sofort sichtbar – einschliesslich eines prozentualen Übereinstimmungswerts.
Der Benchmark-Workflow von CASUS erlaubt genau das: Dokument gegen eigenes Playbook oder etablierte Best Practices prüfen und Lücken mit einem Klick schliessen.
Juristische Recherche
Strukturierte Ersteinschätzungen auf Basis von Gesetzen und Rechtsprechung kosten viel Zeit, wenn sie manuell erarbeitet werden. CASUS' Legal Research durchsucht über 660'000 kantonale und bundesgerichtliche Entscheide sowie Gesetzesartikel und liefert quellenbasierte, nachvollziehbare Outputs – direkt im Chat, ohne dass Entscheide einzeln geöffnet werden müssen.
Due Diligence und Massenauswertung
Bei M&A-Transaktionen oder Compliance-Reviews mit vielen Dokumenten ist die manuelle Extraktion von Klauseln ineffizient. Der AI Data Room ermöglicht den Upload von Dutzenden oder Hunderten von Dokumenten und die Extraktion definierter Felder in eine Tabelle – geeignet für Klauselmatrizen, Haftungsvergleiche oder Datenschutz-Audits.
Proofreading vor Versand
Ein Schriftsatz mit einem falschen Querverweis oder einer fehlenden Definition wirkt unprofessionell. Das Proofread-Modul prüft Schweizer Schreibweise, Terminologiekonsistenz, Cross-References, Definitionen und Platzhalter – ohne den juristischen Inhalt zu verändern.
Pilotprojekt: Wie ein sinnvoller Einstieg aussieht
Ein 90-Tage-Pilotprojekt ist für die meisten Kanzleien realistischer als ein grosser Rollout. Die Grundstruktur:
Wochen 1–2: Prozessauswahl und Datenschutzprüfung abschliessen. Tool auswählen und kostenlose Tesphase oder Pilotprojekt starten.
Wochen 3–8: Tool im echten Arbeitsumfeld testen – mit tatsächlichen Dokumenten, nicht mit Demos. Erfahrungen dokumentieren: Was spart Zeit? Wo braucht es Nachkorrektur? Was ist der effektive Zeitaufwand pro Anwendungsfall?
Wochen 9–12: Auswertung. Lohnt sich der Weiterbetrieb? Welche Prozesse sollen ausgeweitet werden? Welche Prompting-Regeln oder internen Guidelines braucht das Team?
Ein realistisches Erwartungsmanagement ist dabei wichtig: KI-Tools beschleunigen und strukturieren – sie ersetzen keine anwaltliche Beurteilung. Wer das intern klar macht, vermeidet Enttäuschungen und reduziert Haftungsrisiken.
Was eine interne KI-Richtlinie enthalten sollte
Auch für kleine Kanzleien lohnt sich ein kurzes internes Regelwerk. Mindestinhalt:
Welche Kategorien von Daten dürfen in welche Tools?
Wer ist verantwortlich für die Qualitätskontrolle von KI-Outputs?
Wie werden KI-Outputs in Schriftsätzen oder Beratungsdokumenten gekennzeichnet?
Welche Tools sind freigegeben, welche nicht?
Eine einseitige Policy ist besser als ein 30-seitiges Dokument, das niemand liest.
CASUS für Schweizer Kanzleien
Wer den Einstieg in KI-gestützte Vertragsarbeit sucht, kann CASUS kostenlos testen. Die Plattform läuft direkt in Microsoft Word oder im Browser, alle Daten bleiben in der Schweiz oder der EU, und es gibt keine Datenretention und kein Human Review. Mehr zur Datensicherheit unter /security.
FAQ
Was muss eine Schweizer Kanzlei vor der KI-Einführung rechtlich prüfen?
Mindestens zwei Punkte: erstens, wo die Daten gehostet werden (Schweiz/EU ist aus Berufsgeheimnisgrüssen deutlich unkomplizierter als US-Hosting); zweitens, ob der Anbieter Daten für Modell-Training verwendet, was mit dem Mandatsgeheimnis in der Regel nicht vereinbar ist.
Ist der EU AI Act für Schweizer Kanzleien relevant?
Der EU AI Act gilt nicht direkt für Schweizer Unternehmen ohne EU-Niederlassung. Kanzleien, die regelmässig mit EU-Mandantschaft arbeiten oder in EU-Systemen Daten verarbeiten, sollten die Grundprinzipien – insbesondere die Kompetenzpflicht nach Art. 4 – aber kennen und intern berücksichtigen.
Können KI-Outputs direkt in Schriftsätzen verwendet werden?
KI-Outputs sind Arbeitshilfen, keine fertigen Rechtstexte. Sie beschleunigen die Analyse, den Entwurf und die Recherche – aber jede Verwendung in einem Schriftsatz oder einer Beratung erfordert anwaltliche Prüfung und Verantwortungsübernahme.
Welche Anwendungsfälle eignen sich für den Einstieg?
Vertragsanalyse (Risk Review), Proofreading und strukturierte Rechtsrecherche sind klassische Einstiegspunkte, weil der Zeitgewinn unmittelbar messbar ist und die Qualität der Outputs gut kontrollierbar bleibt.
Wie lange dauert die Einführung eines KI-Tools in einer Kanzlei?
Ein strukturierter Pilot mit einem spezialisierten Legal-AI-Tool lässt sich in zwei bis vier Wochen aufsetzen – Datenschutzprüfung, Toolauswahl und erste Testphase inklusive. Ein kanzleiweiter Rollout dauert länger, ist aber für die meisten Kanzleien nicht der sinnvolle erste Schritt.
Was kostet «Shadow AI» und warum ist sie ein Problem?
Shadow AI bezeichnet die nicht genehmigte Nutzung von KI-Tools durch Mitarbeitende, oft über private oder kostenlose Konten bei allgemeinen Anbietern. Das Risiko: Mandatsdaten können in Systemen landen, die nicht durch einen AVV abgesichert sind, was sowohl datenschutzrechtlich als auch berufsrechtlich heikel ist.
Wie unterscheidet sich CASUS von allgemeinen KI-Tools wie ChatGPT?
CASUS ist auf juristische Dokumentenarbeit spezialisiert, hostet Daten ausschliesslich in der Schweiz und der EU, überträgt keine Daten in die USA und betreibt kein Human Review und keine Datenretention. Allgemeine KI-Tools wie ChatGPT sind nicht auf das Schweizer Anwaltsrecht ausgerichtet und erfüllen die datenschutzrechtlichen Anforderungen für Kanzleien in der Regel nicht ohne zusätzliche Konfiguration.
Braucht eine Kanzlei eine interne KI-Policy?
Ja – auch eine kurze. Sie legt fest, welche Tools erlaubt sind, welche Daten verarbeitet werden dürfen und wer für die Qualitätskontrolle von KI-Outputs verantwortlich ist. Ohne diese Grundlage ist ein geregelter, haftungssicherer KI-Einsatz kaum möglich.







