Por qué su agente de IA de admisión legal solo trabaja después de corregir el contexto

Darin LaFramboise
December 11, 2025

Los equipos legales no necesitan más personal para escalar, sino que necesitan aprovechar. Los agentes de inteligencia artificial personalizados (como los GPT personalizados) pueden absorber el trabajo repetitivo de información legal, interpretación de políticas y clasificación, lo que permite a los abogados centrarse en el juicio real. Sin embargo, estos agentes solo funcionan si actúan en un contexto limpio y gobernado. Sin controlar el contenido legal obsoleto o conflictivo, la IA se convierte en un multiplicador de riesgos en lugar de en un multiplicador de fuerza. La gobernanza del contexto no es opcional, es la base de una IA legal defendible.

Cada lanzamiento de un nuevo producto, relación con el proveedor, cambio regulatorio o expansión del mercado añade complejidad. Con el tiempo, esa complejidad se acumula no solo en el volumen de trabajo, sino también en la memoria. Se toman decisiones, se conceden excepciones, la orientación evoluciona y todo se anota en alguna parte. Con el tiempo, los equipos legales llegan a un punto en el que ya no se sienten abrumados por trabajo, pero por repetición. Las mismas preguntas surgen una y otra vez. Es necesario reiterar las mismas interpretaciones. Los mismos riesgos se vuelven a explicar a las nuevas partes interesadas que desconocen la historia.

La promesa y la fricción de la IA en los equipos legales

La IA parece especialmente adecuada para la admisión legal y el apoyo regulatorio. El trabajo está repleto de textos, se basa en patrones y está limitado por políticas y precedentes. En teoría, un asesor legal especializado debería ser capaz de responder a las preguntas rutinarias, abordar adecuadamente las cuestiones de mayor riesgo y preservar el conocimiento institucional sin agotar a los abogados principales.

En la práctica, muchos intentos iniciales se estancan o fracasan. No porque los modelos sean insuficientes. Los modelos lingüísticos modernos son más que capaces de interpretar las políticas, resumir las decisiones y razonar a través de la lógica reguladora. Se detienen porque el entorno de la información no se diseñó para que las máquinas razonaran.

Un verdadero agente de admisión legal, en la práctica

Piense en una empresa de tecnología de tamaño mediano con un equipo legal interno reducido. El departamento legal recibe un flujo constante de preguntas: reseñas de proveedores, aprobaciones de marketing, cuestiones de privacidad, «¿se ha aprobado esto anteriormente?» solicitudes y casos extremos de productos que requieren una revisión rápida de su estado de salud.

Los líderes deciden poner a prueba un agente de admisión legal personalizado. El agente está conectado a la base de conocimientos existente de la empresa, a los espacios legales de Atlassian Confluence, a las entradas de Atlassian a Jira, a las guías históricas, a los documentos de política y a las decisiones anteriores. Al principio, parece prometedor. El agente responde rápidamente. Cita documentos. Suena confiado.

Pero algo se siente apagado.

Algunas respuestas hacen referencia a políticas que se reemplazaron hace meses. Otras dan a conocer directrices que pretendían ser temporales. Ocasionalmente, el agente contradice lo que los líderes legales consideran una práctica establecida. Obviamente, nada está mal, y ese es precisamente el problema.

Para un equipo legal, la incoherencia es un riesgo.

La confianza se erosiona rápidamente y el uso cae con la misma rapidez.

El verdadero problema no era el agente

El equipo finalmente se da cuenta de que el agente no se está portando mal. Está haciendo exactamente lo que fue diseñado para hacer: razonar sobre el contexto en el que se le dio. El problema es que el contexto legal, con el tiempo, se ha degradado silenciosamente. Los borradores nunca se eliminaron. La antigua orientación perduró junto con la nueva política. Las excepciones anteriores parecían un precedente. Las discusiones internas tuvieron lugar junto a las normas aprobadas. Desde una perspectiva humana, la diferencia era evidente. Desde la perspectiva de una máquina, no lo era. La IA no sabe qué documentos «ya no cuentan». Solo sabe lo que puede ver. En ese momento, el equipo detiene al agente y soluciona el problema real.

Limpiar la ventana de contexto

Antes de volver a desplegar el agente de admisión, el equipo legal se centra en la gobernanza. Utilizando Gestor de retención de contenido, identifican el contenido legal obsoleto y obsoleto, aplican reglas de retención a las entradas antiguas y clasifican claramente qué documentos son fidedignos y cuáles son referencias históricas. El borrador de la guía y el debate interno se eliminan de la visibilidad de la IA. Solo las políticas y decisiones actuales y aprobadas permanecen en el ámbito de aplicación.

Nada sobre el modelo cambia, nada sobre las instrucciones cambia, solo el ventana de contexto hace.

Cuando el agente comienza a comportarse como un legal

Una vez redistribuido, el agente de admisión se siente diferente.

Cuando una parte interesada pregunta si se requiere una revisión legal para un nuevo proveedor, el agente hace referencia al marco de riesgo actual y hace las mismas preguntas aclaratorias que haría un abogado. Cuando el departamento de marketing pregunta por las cotizaciones de los clientes, el agente cita la política activa, no el borrador del año pasado. Cuando un equipo de producto plantea una cuestión de privacidad, el agente clasifica el riesgo correctamente y solo dirige los casos realmente delicados a un abogado. Las preguntas de bajo riesgo que se repiten se resuelven de inmediato. Las solicitudes de riesgo medio llegan parcialmente preparadas. Los problemas de alto riesgo se agravan y el contexto ya está resumido.

Lo legal no se ha eliminado del proceso. Se ha protegido de la repetición innecesaria.

Qué realmente escalado

El mayor cambio no es la velocidad. Es postura.

Los abogados de alto nivel ya no son la primera línea de defensa para cada pregunta. El conocimiento institucional deja de filtrarse durante las reorganizaciones y los cambios de equipo. Las respuestas son consistentes, defendibles y están alineadas con la política actual. Lo que es más importante, el equipo legal confía en el sistema porque confía en la información en la que se basa.

La lección que la mayoría de los equipos aprenden por las malas

Los agentes de IA personalizados no reducen el riesgo legal por sí solos. La gobernanza sí.

La IA simplemente hace que la calidad de su entorno de información sea visible para bien o para mal. Para los equipos legales y reguladores, la pregunta no es si la IA formará parte del flujo de trabajo. Ya lo es. La cuestión es si ampliará el juicio o lo debilitará discretamente. Los equipos que lo entienden bien comienzan en un lugar poco glamoroso: limpiando la ventana contextual. Ahí es donde la escala pasa a ser segura y la IA se convierte en una aliada, no en una carga.

Tome el control de sus datos hoy mismo