Riesgos legales de la IA en el sector jurídico

El sector legal ha adoptado de forma creciente herramientas de inteligencia artificial basadas en modelos de lenguaje (LLM) para agilizar tareas jurídicas cotidianas. Aunque estos sistemas ofrecen importantes ventajas en términos de eficiencia, también introducen nuevos riesgos técnicos y jurídicos que no siempre son evidentes para sus usuarios.

En particular, se examinan cuatro riesgos concretos asociados al uso de estos LLM en la práctica jurídica: el envenenamiento de datos (data poisoning), el uso no gobernado de herramientas de IA (shadow AI), la inyección de instrucciones (prompt injection) y las denominadas alucinaciones (hallucinations).

1) Data poisoning:

El data poisoning, en español ‘envenenamiento de datos’, consiste en la contaminación activa e intencionada de los datos de entrenamiento con el fin de alterar, sesgar o degradar el comportamiento de un modelo de lenguaje. A medida que se generaliza el uso de LLM en los despachos de abogados, no siempre resulta sencillo rastrear el origen ni la calidad de los datos utilizados en su entrenamiento.

Según una investigación de la Universidad de Berkeley y de la Universidad de Cambridge, existen distintas formas de envenenar los datos:

  • Ataques de inyección de datos: introducir datos maliciosos en un conjunto de datos que, en principio, es benigno.
  • Envenenamiento con etiquetas limpias: añadir datos correctamente etiquetados a un conjunto de datos para favorecer conclusiones sesgadas o incorrectas.
  • Ataques de envenenamiento con puertas traseras: entrenar una IA para que funcione con normalidad, pero active un comportamiento oculto y dañino solo cuando detecta una señal concreta (una palabra, un patrón o una fecha).

Este mismo estudio concluye que los LLM de gran tamaño son más vulnerables al envenenamiento de datos que aquellos especializados, como puede ser el caso de herramientas diseñadas específicamente para la práctica jurídica. Según un reportaje de WIRED, bastan alrededor de 250 documentos para envenenar los datos de un LLM.

No obstante, el problema va más allá de una manipulación activa de los datos, tal y como se recoge en el informe de la Comisión Europea de diciembre de 2025 titulado “La manipulación de la información en la era de la inteligencia artificial generativa”. En el mismo se alude explícitamente al envenenamiento de datos como una técnica basada en la publicación masiva de información falsa, con el objetivo de que dichas falsedades sean posteriormente reproducidas por los LLM. En concreto, se ha demostrado que Rusia lo ha utilizado para manipular información histórica y científica, pero nada impide que otros actores lo hagan en el ámbito legal.

2) Shadow AI:

El shadow AI, en español ‘IA en la sombra’, consiste en el uso de cualquier herramienta de IA de una forma desautorizada y sin supervisión por parte de los empleados de una empresa. En la práctica, implica que los empleados introducen información de carácter profesional en modelos de lenguaje sin seguir protocolos internos, exponiendo la seguridad y la confidencialidad de la organización. A diferencia de otros servicios tecnológicos, este uso resulta especialmente difícil de rastrear por los departamentos de IT y seguridad.

La revista Infosecurity publicó en septiembre de 2024 que el 40% de los empleados admitían haber compartido información sensible de su empresa en algún sistema de IA. Por su parte, en el informe de Reuters de abril de 2025 se concluye que la revisión de documentos es el principal uso de la IA generativa por los despachos de abogados, por encima incluso de la búsqueda jurídica. Esto supone un claro riesgo de compartir datos personales en sistemas de IA externos a las firmas legales.

Ello comporta un potencial incumplimiento de la normativa de protección de datos, en particular del RGPD, así como de las obligaciones de confidencialidad profesional, al perderse el control sobre el tratamiento, almacenamiento y eventual reutilización de la información introducida en estos sistemas. En el caso de los despachos de abogados, estas prácticas pueden derivar también en consecuencias reputacionales y deontológicas, al comprometer el deber de secreto profesional. Es importante generar conciencia sobre una cuestión que resulta obvia a todas luces pero que quizás se obvia en muchas casos.

3) Prompt injection:

El prompt injection, en español ‘inyección de instrucciones’, es la introducción de instrucciones ocultas o manipuladas para hacer que un sistema de IA ignore sus reglas originales y actúe de una forma no prevista. Se trata de una técnica similar al phishing, pero más sofisticada y difícil de detectar, frente a la cual no existe todavía una formación generalizada en el sector legal.

Para conocer más de este método, el abogado Xavier Ribas ha explicado cómo algunos documentos jurídicos han provocado ya brechas en los LLM utilizados en despachos de abogados. Por ejemplo, un contrato aparentemente correcto puede contener texto invisible que incluye instrucciones para enviar información a un servidor externo (provocando una fuga de datos) o para generar comentarios sesgados que no reflejan el contenido real del documento. Este tipo de ataques puede, además, convertirse en una vía de entrada para el envenenamiento de datos.

La alarma ha sido activada por el propio Microsoft, que el 14 de enero publicó una nota avisando a sus usuarios de los problemas de prompt injection de Copilot. Aunque el problema fue corregido, se recordó que no se requiere ninguna acción activa por parte del usuario más allá de compartir el documento, lo que pone de manifiesto la gravedad de este tipo de riesgos en entornos profesionales. No se necesita ningún click.

4) Hallucinations:

Las hallucinations, en español ‘alucinaciones’, son la invención de hechos por parte de los LLMs que aparentan veracidad. Estos sistemas pueden generar citas, nombres, fechas o acontecimientos inexistentes, ya que no están diseñados para verificar la verdad de la información, sino para producir respuestas plausibles y coherentes desde un punto de vista lingüístico. Aunque cada nueva generación de modelos mejora su precisión, este fenómeno sigue representando un reto significativo.

El uso de la IA generativa en el sector legal ha generado también consecuencias disciplinarias. En concreto, en Estados Unidos se han impuesto sanciones a abogados que presentaron escritos aludiendo a información falsa creada por estos modelos, contraviniendo así su deber de verificación. El caso más reciente se ha producido en California y ha supuesto multas de hasta 13.000 dólares al despacho Hagens Berman por incluir múltiples alusiones falsas en los documentos presentados.

En España también se han producido estas faltas de diligencia, pero por el momento no han implicado ninguna sanción económica. Por ello, dado el previsible aumento de este tipo de casos, es posible que se presenten nuevas guías, indicaciones u obligaciones para el uso de la IA en el sector legal. Por el momento, podría justificarse la imposición de multas de hasta 6.000 euros por la vulneración de las reglas de la buena fe procesal sobre la base del artículo 247 de la Ley de Enjuiciamiento Civil.  

Más importante aún es la regulación de la IA en el ámbito judicial. En este sentido, la UNESCO ha aprobado en diciembre de 2025 unas Directrices para el uso de sistemas de IA en juzgados y tribunales que incluyen 15 principios orientativos. En particular, se recomienda establecer limitaciones concretas del uso de la IA generativa en función de cómo pueden afectar a los derechos humanos, especialmente para restringir la reutilización de la información introducida por los usuarios (prompts) por parte de los proveedores de estos modelos. Además, se subraya la necesidad de prohibir la elaboración de decisiones judiciales vinculantes sin intervención humana real.

Nota editorial:
Parte de este apartado fue publicada previamente el 22 de diciembre de 2025 en “Las tendencias de LegalTech para 2026”, en The Technolawgist.

Conclusión:

El uso de modelos de lenguaje en el sector legal ofrece oportunidades evidentes de eficiencia, pero plantea también riesgos técnicos y jurídicos que ya se han materializado en la práctica. El data poisoning, el shadow AI, la prompt injection y las hallucinations no son escenarios hipotéticos, sino problemas documentados que afectan a la seguridad de la información y a la diligencia profesional.

Aunque el origen de estos riesgos se encuentra en los algoritmos y en el código de los LLM, un ámbito técnico alejado de la práctica jurídica tradicional, ello no exime a los profesionales del Derecho de su responsabilidad en el uso adecuado de estas tecnologías. Del mismo modo que hoy resulta imprescindible recibir formación en ciberseguridad laboral, debe incorporarse también una formación específica sobre los riesgos y limitaciones de la IA generativa.

Mientras los desarrolladores trabajan en reforzar la seguridad y fiabilidad de los sistemas, los abogados deben adquirir nuevas competencias para utilizarlos de forma informada, crítica y responsable.

ARTÍCULOS RELACIONADOS

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

spot_img

Latest Posts