CASUS Logo
Casus Logo

CASUS Blog

ChatGPT für Verträge? 10 Punkte, die du vor dem Einsatz klären musst

Veröffentlicht am

30. Dezember 2025

von

Celeste Urech

Céleste Urech

|

Co-Founder & CTO

Viele Teams testen ChatGPT inzwischen auch für die Vertragsarbeit – oft aus Zeitdruck, oft aus Neugier. Und ja: Für allgemeine Formulierungen, erste Strukturideen oder das Zusammenfassen nicht vertraulicher Inhalte kann das hilfreich sein. Sobald aber vertrauliche Mandats- oder Unternehmensdokumente ins Spiel kommen, wird es heikel. Dann zählt nicht nur „funktioniert es?“, sondern vor allem: Darf ich das? Ist es sicher? Was passiert mit meinen Daten?

Dieser Beitrag ist eine praxisnahe Checkliste, die du vor dem Einsatz klären solltest – unabhängig davon, ob du in einer Kanzlei oder in einer Rechtsabteilung arbeitest.

Warum diese Fragen so wichtig sind

Verträge sind selten „nur Text“. In ihnen stecken vertrauliche Geschäftsgeheimnisse, Verhandlungspositionen, strategische Details, personenbezogene Daten und oft Informationen, die unter besonderer Vertraulichkeit stehen. Wenn solche Inhalte in ein Tool wandern, dessen Datenflüsse und Speicherlogik du nicht sauber erklären kannst, entsteht ein Risiko, das sich später kaum noch einfangen lässt – weder organisatorisch noch rechtlich.

Zudem sind öffentliche KI-Tools nicht dafür gebaut, juristische Verantwortlichkeiten abzubilden. Ein Vertrag kann nicht „ungefähr richtig“ geprüft werden: Selbst kleine Fehlannahmen (falsche Kündigungsfrist, übersehene Haftungsausnahme, falsche Rechtswahl) können spürbare Folgen haben. Deshalb sollte der Maßstab bei Legal-AI-Nutzung immer sein: Kontrolle vor Komfort.

Die 10 Punkte, die du vor dem Einsatz klären musst

1) Welche Inhalte sind überhaupt „vertraulich“ – und wer definiert das?

Bevor du über Tools sprichst, brauchst du intern eine klare Definition: Was gilt bei euch als vertraulich? Ist es nur Mandatsinhalt bzw. Vertragsinhalt? Oder auch Metadaten, Namen, Beträge, Gegenparteien, interne Kommentare, Anlagen? In der Praxis scheitert sichere KI-Nutzung selten an Technik, sondern daran, dass Teams unterschiedlich einschätzen, was „schon okay“ ist.

2) Werden Daten gespeichert – und wenn ja: wo und wie lange?

Die zentrale Frage ist nicht, ob ein Tool „AI“ macht, sondern ob und wie es Daten speichert. Viele Systeme loggen Eingaben zumindest temporär (z. B. zur Fehleranalyse), manche halten Inhalte länger vor oder speichern Konversationen im Account. Das kann – je nach Inhalt – schon zu viel sein.

Kläre deshalb: Gibt es Speicherungen? Gibt es eine „History“? Gibt es Retention? Und vor allem: Kann man das vertraglich und technisch ausschließen? Eine gute Sicherheitsseite sollte genau diese Punkte transparent beantworten.

3) Wo findet die Verarbeitung statt?

Viele denken bei Datenschutz nur an „wo liegen die Daten“. Mindestens genauso wichtig ist aber: wo werden sie verarbeitet. Besonders relevant ist das bei Drittstaatentransfers, Subprozessoren und Cloud-Setups. Selbst wenn ein Anbieter „EU“ sagt, kann es Subdienstleister geben, die es komplizierter machen.

Pragmatische Regel: Du solltest in einem Satz erklären können, in welchem Land gespeichert wird, in welchem Raum verarbeitet wird, und ob Daten in Drittstaaten gelangen können oder nicht. Wenn du das nicht kannst, ist das Risiko für vertrauliche Verträge meist zu hoch.

4) Werden Inhalte für Training genutzt – oder sind „Zero-Data-Retention“ Vereinbarungen möglich?

Das ist der Klassiker: „Wir nutzen keine Daten fürs Training“ kann vieles bedeuten. Manche Anbieter trainieren nicht, speichern aber trotzdem Logs. Andere speichern gar nichts, verarbeiten nur in Echtzeit und löschen sofort. Wieder andere schließen Training aus, aber nicht zwingend Aufbewahrung in bestimmten Fällen.

Was du brauchst, ist Klarheit auf zwei Ebenen:

  1. Training: Werden Nutzerdaten zur Modellverbesserung verwendet?

  2. Retention: Werden Inputs/Outputs irgendwo gehalten oder geloggt?

Gerade für Kanzleien ist diese Unterscheidung wichtig, weil es nicht nur um „Training“, sondern auch um Vertraulichkeit und Nachvollziehbarkeit geht.

5) Wie steht es um das Anwaltsgeheimnis?

Wenn du in einem Umfeld arbeitest, in dem Berufsgeheimnis, Anwaltsgeheimnis oder vergleichbare Schutzpflichten gelten, brauchst du besonders strenge Standards. Das Problem ist weniger „AI“ an sich, sondern die fehlende Kontrolle über Dritte: Wer könnte Zugriff haben? Welche Datenflüsse existieren? Welche Logs?

Ein guter Grundsatz lautet: Wenn du ein Tool nicht so betreiben kannst, dass Inhalte weder bei Dritten landen noch dauerhaft gespeichert werden, dann ist es für Mandatsdokumente meist ungeeignet. Und selbst wenn es technisch möglich wäre, brauchst du eine klare interne Policy, damit das nicht an einzelnen Personen hängt.

6) Welche technischen Schutzmaßnahmen gibt es wirklich?

„Verschlüsselt“ ist schnell gesagt. Entscheidend ist: Was genau ist verschlüsselt – und wann? Wie ist Zugriff geregelt? Gibt es Rollen/Rechte? Gibt es Mandantentrennung (Multi-Tenant vs. Single-Tenant)? Kann ein Admin Inhalte sehen?

Du musst nicht jedes Detail selbst bewerten können, aber du solltest die richtigen Fragen stellen und verlässliche Antworten bekommen. Bei vertrauenswürdigen Legal-AI-Setups sind genau diese Themen transparent dokumentiert oder auf Anfrage sauber nachweisbar.

7) Was passiert bei Fehlern – und wie stellst du Qualität sicher?

ChatGPT kann überzeugend formulieren und trotzdem falsch liegen. Deshalb brauchst du einen Qualitätsmechanismus, der unabhängig vom Tool funktioniert. In der Praxis bewährt sich eine „Belegpflicht“: Jede relevante Aussage muss auf eine konkrete Textstelle verweisen. Wenn ein Tool keine saubere Zitierlogik ermöglicht, wird die Verifikation mühsam – und das erhöht das Risiko, dass Fehler durchrutschen.

Außerdem solltest du klären, wie ihr mit Unsicherheit umgeht: Wird Unklarheit markiert? Werden offene Punkte als Fragen dokumentiert? Oder entsteht eine scheinbar fertige Antwort, die zu früh als „richtig“ akzeptiert wird?

8) Dürfen Mitarbeitende das Tool überhaupt nutzen – und wie verhinderst du Shadow IT?

Viele Probleme entstehen nicht durch „eine große Entscheidung“, sondern durch 20 kleine: Ein Associate lädt schnell ein Dokument hoch, ein Praktikant testet einen Prompt, jemand nutzt private Accounts. Das passiert besonders dann, wenn es kein offizielles Tool gibt oder die Regeln unklar sind.

Wenn du KI sinnvoll nutzen willst, musst du Innovation ermöglichen – aber kontrolliert. Dazu gehört ein offizieller Prozess: Was ist erlaubt, was nicht, welche Tools sind freigegeben, und wie wird das kommuniziert? Eine knappe interne Guideline (eine Seite) ist oft wirkungsvoller als ein 20-seitiges Policy-Dokument.

9) Wie sieht die rechtliche/vertragliche Grundlage aus?

Hier wird es formal, aber wichtig: Wenn du ein KI-Tool professionell einsetzen willst, brauchst du meist eine saubere vertragliche Basis – inklusive Auftragsverarbeitung, technischer und organisatorischer Maßnahmen, Subprozessor-Listen und klarer Aussagen zur Datenverarbeitung

Das ist kein Selbstzweck. Es ist die Grundlage dafür, dass du im Zweifel erklären kannst, warum der Einsatz verantwortungsvoll war. Wenn dein Setup das nicht hergibt, dann ist es eher ein Experiment als ein Prozess.

10) Was ist dein „sicherer Use Case“ für den Start?

Nicht alles muss sofort „voll KI“ werden. Viele Teams starten sinnvollerweise mit einem begrenzten, risikoarmen Use Case. Beispiel: Erst mit anonymisierten oder nicht vertraulichen Dokumenten, dann mit Standardverträgen ohne besonders sensible Anhänge, und erst später mit komplexen Mandatsdokumenten.

Definiere dafür eine klare Pilotphase: ein Vertragstyp, ein Team, ein Zeitraum, ein Qualitätsstandard. Das reduziert Risiko und erhöht die Chance, dass KI im Alltag wirklich produktiv wird.

Was du daraus ableiten kannst

Wenn du nach diesen 10 Punkten ein klares Bild hast, ergibt sich meistens eine einfache Entscheidung: Entweder du nutzt ein Tool nur für unkritische Inhalte – oder du brauchst eine Lösung, die für vertrauliche Verträge gebaut ist. In der Praxis ist das oft der Punkt, an dem Teams von „öffentlichen“ Tools weggehen und Richtung kontrollierter, geschlossener Legal-AI-Umgebungen wechseln.

Wenn du dich tiefer mit den Punkten Speicherung, Verarbeitung, Retention und Training beschäftigen willst, schau dir gern unsere Seite zu Sicherheit bei CASUS an oder kontaktiere uns.

Fazit

ChatGPT ist beeindruckend – aber bei vertraulichen Verträgen zählt nicht die beste Formulierung, sondern die beste Kontrolle. Wenn du die 10 Punkte oben sauber beantwortest, hast du eine klare Grundlage für eine sichere Entscheidung: entweder bewusst eingeschränkt nutzen oder auf ein Setup wechseln, das Vertraulichkeit, Governance und Datenflüsse professionell abbildet.

FAQ

„Darf ich Verträge in ChatGPT hochladen?“

Das hängt nicht nur von Gesetzen ab, sondern vor allem von deiner internen Policy, dem Schutzbedarf der Daten und den tatsächlichen Datenflüssen des Tools. Ohne Klarheit über Speicherung/Retention und Zugriff ist es bei vertraulichen Dokumenten meist keine gute Idee.

„Reicht Anonymisieren?“

Anonymisieren kann helfen, ist aber in der Praxis fehleranfällig. Vertragsdetails lassen sich oft indirekt rückschließen (Branche, Beträge, Gegenparteien, Projektname). Wenn es wirklich sensibel ist, ist ein kontrolliertes Setup meist der bessere Weg.

„Was ist der wichtigste Punkt?“

Wenn du nur einen prüfst: Retention/Storage + Training. Das entscheidet in vielen Fällen, ob ein Einsatz überhaupt vertretbar ist.

Casus Logo

Verträge auf Autopilot. Mit CASUS.

Capterra Logo
Innosuisse Logo
Venture Kick Logo
HSG Spin Off Logo

Copyright ©2025 CASUS Technologies AG — All rights reserved.

Linkedin Icon
Youtube Icon
Casus Logo

Verträge auf Autopilot. Mit CASUS.

Capterra Logo
Innosuisse Logo
Venture Kick Logo
HSG Spin Off Logo

Copyright ©2025 CASUS Technologies AG — All rights reserved.

Linkedin Icon
Youtube Icon
Casus Logo

Verträge auf Autopilot. Mit CASUS.

Capterra Logo
Innosuisse Logo
Venture Kick Logo
HSG Spin Off Logo

Copyright ©2025 CASUS Technologies AG — All rights reserved.

Linkedin Icon
Youtube Icon