Warum Ihr Legal Intake AI Agent erst funktioniert, nachdem Sie den Kontext korrigiert haben

Darin LaFramboise
December 11, 2025

Rechtsteams benötigen nicht mehr Mitarbeiter, um zu skalieren, sie benötigen eine Hebelwirkung. Maßgeschneiderte KI-Agenten (wie benutzerdefinierte GPTs) können sich wiederholende Arbeiten in Bezug auf Rechtsfragen, die Interpretation von Richtlinien und die Triage übernehmen, sodass sich Anwälte auf das eigentliche Urteilsvermögen konzentrieren können. Diese Agenten funktionieren jedoch nur, wenn sie in einem sauberen, kontrollierten Kontext arbeiten. Ohne Kontrolle veralteter oder widersprüchlicher rechtlicher Inhalte wird KI zu einem Risikomultiplikator statt zu einem Kraftmultiplikator. Kontext-Governance ist nicht optional, sie ist die Grundlage für vertretbare juristische KI.

Jede neue Produkteinführung, jede Lieferantenbeziehung, jede regulatorische Änderung oder Marktexpansion erhöht die Komplexität. Im Laufe der Zeit häuft sich diese Komplexität nicht nur im Arbeitsvolumen, sondern auch im Speicher an. Entscheidungen werden getroffen, Ausnahmen werden gewährt, Leitlinien entwickeln sich weiter, und all das wird irgendwo niedergeschrieben. Irgendwann erreichen Rechtsteams einen Punkt, an dem sie nicht mehr überfordert sind von Arbeit, aber durch Wiederholung. Dieselben Fragen tauchen immer wieder auf. Dieselben Interpretationen müssen überarbeitet werden. Dieselben Risiken werden neuen Interessenträgern, die die Vorgeschichte nicht kennen, erneut erklärt.

Das Versprechen und die Reibung von KI in Rechtsteams

KI scheint für die Aufnahme von Gesetzen und die Unterstützung durch Regulierungsbehörden hervorragend geeignet zu sein. Die Arbeit ist textlastig, musterbasiert und durch Richtlinien und Präzedenzfälle eingeschränkt. Theoretisch sollte ein persönlicher Rechtsberater in der Lage sein, Routinefragen zu beantworten, Probleme mit höherem Risiko angemessen zu behandeln und institutionelles Wissen zu bewahren, ohne den erfahrenen Anwalt zu erschöpfen.

In der Praxis geraten viele frühe Versuche ins Stocken oder scheitern. Nicht weil die Modelle unzureichend sind. Moderne Sprachmodelle sind mehr als in der Lage, politische Maßnahmen zu interpretieren, Entscheidungen zusammenzufassen und durch regulatorische Logik zu argumentieren. Sie geraten ins Stocken, weil die Informationsumgebung nicht dafür konzipiert wurde, dass Maschinen darüber nachdenken können.

In der Praxis ein echtes legales Aufnahmemittel

Stellen Sie sich ein mittelständisches Technologieunternehmen mit einem schlanken internen Rechtsteam vor. Die Rechtsabteilung erhält einen stetigen Strom von Fragen: Bewertungen von Anbietern, Marketinggenehmigungen, Bedenken hinsichtlich des Datenschutzes. „Wurde das schon einmal genehmigt?“ Anfragen und Randfälle, bei denen eine schnelle Plausibilitätsprüfung erforderlich ist.

Die Unternehmensleitung beschließt, ein maßgeschneidertes legales Aufnahmemittel zu testen. Der Agent ist mit der vorhandenen Wissensdatenbank des Unternehmens, den rechtlichen Atlassian Confluence-Bereichen, Atlassian Jira-Tickets, historischen Leitlinien, Richtliniendokumenten und früheren Entscheidungen verbunden. Auf den ersten Blick sieht es vielversprechend aus. Der Agent reagiert schnell. Es zitiert Dokumente. Es klingt selbstbewusst.

Aber etwas fühlt aus.

Einige Antworten beziehen sich auf Richtlinien, die vor Monaten ersetzt wurden. Andere geben Hinweise an, die als vorübergehender Charakter gedacht waren. Gelegentlich widerspricht der Bevollmächtigte dem, was die Rechtsführung als gängige Praxis betrachtet. Offensichtlich ist nichts falsch, und genau das ist das Problem.

Für ein Rechtsteam ist Inkonsistenz ein Risiko.

Das Vertrauen schwindet schnell und die Nutzung sinkt genauso schnell.

Das eigentliche Problem war nicht der Agent

Das Team stellt schließlich fest, dass sich der Agent nicht schlecht benimmt. Es tut genau das, wofür es konzipiert wurde: Argumentieren über den Kontext, der ihm gegeben wurde. Das Problem ist, dass sich der rechtliche Kontext im Laufe der Zeit still und leise verschlechtert hat. Entwürfe wurden nie entfernt. Alte Leitlinien blieben neben neuen Richtlinien bestehen. Frühere Ausnahmen sahen aus wie ein Präzedenzfall. Interne Diskussionen fanden neben genehmigten Standards statt. Aus menschlicher Sicht war der Unterschied offensichtlich. Aus Sicht einer Maschine war dies nicht der Fall. Die KI weiß nicht, welche Dokumente „nicht mehr zählen“. Sie weiß nur, was sie sehen kann. An diesem Punkt pausiert das Team den Agenten und behebt das eigentliche Problem.

Reinigen des Kontextfensters

Bevor das Aufnahmemittel erneut eingesetzt wird, konzentriert sich das Rechtsteam auf die Unternehmensführung. Verwenden Manager für die Aufbewahrung von Inhalten, sie identifizieren veraltete und veraltete rechtliche Inhalte, wenden Aufbewahrungsregeln für alte Eintrittskarten an und klassifizieren eindeutig, welche Dokumente maßgeblich sind und welche historischen Referenzen es gibt. Leitlinienentwürfe und interne Diskussionen werden aus der Sicht der KI entfernt. Nur aktuelle, genehmigte Richtlinien und Entscheidungen bleiben im Geltungsbereich.

Nichts am Modell ändert sich, nichts an den Eingabeaufforderungen ändert sich, nur die Kontext-Fenster tut.

Wenn der Agent anfängt, sich legal zu verhalten

Nach dem erneuten Einsatz fühlt sich das Aufnahmemittel anders an.

Wenn ein Interessenvertreter fragt, ob für einen neuen Anbieter eine rechtliche Überprüfung erforderlich ist, verweist der Vertreter auf den aktuellen Risikorahmen und stellt dieselben klärenden Fragen wie ein Anwalt. Wenn das Marketing nach Kundenangeboten fragt, zitiert der Vermittler die aktuelle Richtlinie, nicht den Entwurf des letzten Jahres. Wenn ein Produktteam eine Frage zum Datenschutz stellt, stuft der Agent das Risiko korrekt ein und leitet nur die wirklich sensiblen Fälle an einen Berater weiter. Wiederholte Fragen mit geringem Risiko werden sofort geklärt. Anfragen mit mittlerem Risiko kommen teilweise vorbereitet an. Probleme mit hohem Risiko werden eskaliert, wobei der Kontext bereits zusammengefasst ist.

Legal wurde nicht aus dem Prozess entfernt. Es wurde vor unnötigen Wiederholungen geschützt.

Was tatsächlich skaliert

Die größte Veränderung ist nicht die Geschwindigkeit. Es ist die Körperhaltung.

Hochrangige Anwälte sind nicht mehr bei jeder Frage die erste Verteidigungslinie. Bei Neuorganisationen und Teamwechseln geht kein institutionelles Wissen mehr verloren. Die Antworten sind konsistent, vertretbar und entsprechen der aktuellen Politik. Am wichtigsten ist, dass das Rechtsteam dem System vertraut, weil es den Informationen vertraut, auf denen es basiert.

Die Lektion, die die meisten Teams auf die harte Tour lernen

Maßgeschneiderte KI-Agenten reduzieren das rechtliche Risiko nicht von sich aus. Die Unternehmensführung tut es.

KI macht einfach die Qualität Ihrer Informationsumgebung auf Gedeih und Verderb sichtbar. Für Rechts- und Regulierungsteams stellt sich nicht die Frage, ob KI Teil des Workflows sein wird. Das ist es bereits. Die Frage ist, ob es das Urteilsvermögen verstärkt oder stillschweigend untergräbt. Die Teams, die das richtig machen, beginnen an einem unglamourösen Ort: beim Aufräumen des Kontextfensters. Hier wird Skalierung sicher und die KI wird zu einem Verbündeten, nicht zu einer Belastung.

Übernehmen Sie noch heute die Kontrolle über Ihre Daten