En los últimos meses se han multiplicado las conversaciones sobre inteligencia artificial aplicada al Derecho. Y es normal: bien utilizada, puede ayudar a ordenar información, resumir documentos o acelerar tareas internas del despacho. El problema es cuando se cruza una línea que, en un procedimiento judicial, nunca debería cruzarse: confiar en la IA como si fuese una fuente fiable.
Este riesgo se ha puesto de manifiesto a raíz de una noticia publicada por Confilegal, en la que se describe un caso especialmente delicado: un escrito habría incorporado jurisprudencia inexistente (con citas aparentemente precisas y fragmentos entrecomillados) y esas referencias habrían sido asumidas en una resolución para fundamentar una decisión procesal que afectaba al derecho de defensa y al acceso a un recurso. Puedes consultar la noticia aquí.
Más allá de cómo termine el caso concreto, y de las aclaraciones posteriores que se han publicado, el episodio deja una lección muy clara para cualquier persona que esté inmersa en un conflicto judicial: una defensa no puede construirse sobre autoridad “aparente”. En Derecho, las fuentes se verifican. Y si no se verifican, el coste puede ser enorme.
Cuando una cita “suena” jurídica, pero no existe
Uno de los peligros de la IA generativa es que puede producir textos con apariencia impecable: lenguaje técnico, referencias con numeración y fechas, doctrina contundente y frases entrecomilladas que parecen sacadas de una sentencia. El problema es que esa apariencia no garantiza nada. El fenómeno es conocido como alucinación: si no encuentra el dato, puede completarlo inventando algo plausible.
En un entorno informal, este riesgo puede terminar en un error sin trascendencia. En un procedimiento judicial, sin embargo, el impacto es otro: una cita falsa puede condicionar la estrategia, contaminar el razonamiento y debilitar la credibilidad procesal cuando el órgano judicial o la parte contraria comprueban que la resolución citada no existe o no dice lo que se afirma.
Por qué esto no es un detalle: afecta a derechos y a garantías
Cuando una resolución o un escrito fundamenta una petición (o una decisión) en jurisprudencia inexistente (como el caso de la noticia comentada), el daño no es solo formal. Puede tener consecuencias directas:
- Riesgo procesal real. Un argumento basado en autoridad falsa puede conducir a decisiones erróneas o a la pérdida de oportunidades procesales. En escenarios sensibles (admisión de recursos, personación, medidas cautelares, etc.), el error puede tener efectos difíciles de revertir.
- Riesgo de sanciones y mala fe procesal. Los tribunales están empezando a reaccionar con firmeza ante citas inventadas. Recientemente, el TSJ de Canarias impuso una sanción a un abogado por incluir decenas de sentencias falsas sugeridas por IA en un recurso, precisamente por vulnerar las reglas de buena fe procesal y el deber de veracidad.
- Riesgo de responsabilidad profesional. El cliente contrata a un abogado para que aplique el Derecho con rigor. Presentar un escrito con referencias no verificadas abre la puerta a un problema serio de responsabilidad: no solo por el resultado del procedimiento, sino por la negligencia en la preparación del caso.
- Riesgo a largo plazo. Los procedimientos no se agotan en una resolución. Lo que hoy se presenta para salir del paso puede reaparecer en una apelación, en un incidente, en una impugnación o incluso en una reclamación posterior. En Derecho, los atajos suelen salir caros.
La opinión de Sergio Gómez (AAGD Abogados)
“La inteligencia artificial puede ser una herramienta de apoyo, pero nunca puede ser el pilar de una defensa. En un procedimiento legal, una sola cita falsa puede dinamitar la credibilidad del escrito y complicar el caso más de lo que lo ayuda. La jurisprudencia no se parece: existe o no existe. Y si existe, hay que leerla, contextualizarla y citarla con precisión.”
En AAGD lo vemos de forma muy práctica: cuando un cliente se juega su patrimonio, su vivienda, una herencia, una custodia o una reclamación relevante, no se trata de redactar bonito. Se trata de acertar jurídicamente defendiendo en todo momento los intereses de nuestros representados. Y eso solo se consigue con metodología: análisis del caso, estrategia procesal, revisión exhaustiva de fuentes y una redacción que responda a lo que realmente dicen la ley y los tribunales.
Buenas prácticas: cómo se usa IA en un despacho sin poner en riesgo un caso
La IA es útil si se usa con límites claros y con control humano real. Estas son las prácticas mínimas que diferencian un uso profesional de un uso temerario:
- Primero la fuente, luego el texto. La IA puede ayudar a estructurar o resumir, pero las sentencias deben localizarse en bases fiables y revisarse minuciosamente.
- Citas trazables. Una cita jurisprudencial debe permitir que cualquier persona (juez, letrado contrario, cliente) pueda comprobarla: órgano, fecha, número y, cuando es relevante, fundamento concreto.
- Prohibido pegar sin verificar. este riesgo no es solo se aplica a contenido que haya podido revisar la IA, si no también lo es para el corta-pega apresurado de un texto generado o resumido por un humano. Para entrar una referencia en el escrito esta debe estar correctamente localizada, revisada y fundamentada.
- Confidencialidad. En la gran mayoría de asuntos (por no decir en todos), hay que ser extremadamente prudentes con qué información se introduce en herramientas externas. Un caso judicial no es un documento para probar en cualquier plataforma.
Intrusismo jurídico-digital: el debate que abre la IA en el asesoramiento legal
En febrero de 2026, el Ilustre Colegio de la Abogacía de Madrid (ICAM) registró en el Congreso una propuesta para modificar el artículo 403 del Código Penal (intrusismo profesional) y adaptarlo a un escenario nuevo: plataformas, chatbots o sistemas automatizados que puedan ofrecer al público “consultoría” o asesoramiento jurídico sin una supervisión profesional directa y efectiva. (Importante: es una propuesta; no significa que la reforma esté ya en vigor).
La idea de fondo es bastante clara: el intrusismo tradicional se pensó para una persona “física” que ejerce una profesión regulada sin título. En entornos digitales, sin embargo, el “servicio” puede prestarse como un producto escalable, con apariencia de rigor, sin control deontológico y sin una responsabilidad profesional equivalente. Y eso importa porque, en Derecho, las decisiones del usuario no son neutras: un mal consejo puede empujar a firmar, renunciar, contestar tarde, no aportar prueba o diseñar una estrategia procesal equivocada.
Además, hay un matiz que conecta directamente con lo explicado en este artículo: cuando una herramienta “parece” ofrecer una respuesta jurídica cerrada, el riesgo no es solo que se equivoque, sino que lo haga con una autoridad aparente. Exactamente el mismo problema que aparece con la “jurisprudencia fantasma”: forma impecable, pero base jurídica inexistente o mal interpretada.
¿Qué se pretende sancionar según esta propuesta?
La reforma planteada introduce un supuesto específico para casos en los que, con ánimo de lucro o en el marco de una actividad empresarial o profesional, se diseñe, comercialice, ofrezca o se ponga a disposición del público un sistema automatizado que, sin intervención directa y efectiva de un profesional habilitado, genere indicaciones, dictámenes, estrategias o documentos que constituyan actos propios de una profesión titulada, cuando el servicio se presente (o resulte objetivamente idóneo) como una prestación profesional.
Detalle relevante: el foco no se pone en el usuario que “pregunta a una IA”, sino en quien monta y vende un sistema con apariencia de asesoría profesional sin asumir las garantías (supervisión, responsabilidad, trazabilidad, deberes de diligencia y veracidad) que sí existen en el ejercicio habilitado.
¿Qué quedaría fuera para no criminalizar usos legítimos?
La propuesta también trata de delimitar el debate para evitar confusiones. En términos prácticos, quedarían fuera del foco:
- Información general o divulgativa (por ejemplo, contenidos explicativos), siempre que no se presente como consejo para un caso concreto.
- Herramientas de apoyo interno dentro de un despacho, usadas bajo dirección y responsabilidad de profesionales habilitados (por ejemplo, para ordenar información, resumir o proponer estructuras de trabajo).
- Sistemas con supervisión humana profesional directa y efectiva y con identificación del profesional responsable frente al destinatario.
Qué aporta esto al debate y por qué no es un tema “solo tecnológico”
Este debate es un buen termómetro: incluso a nivel institucional se está poniendo sobre la mesa que, cuando una herramienta “parece” asesorar, la frontera entre información y consejo profesional importa. Y que la supervisión humana no es un “extra”, sino el núcleo de las garantías: verificación de fuentes, trazabilidad de lo citado y responsabilidad ante el cliente y ante el procedimiento.
Conclusión
La inteligencia artificial puede ser útil, pero no puede sustituir el rigor jurídico. Una defensa seria se apoya en hechos, en prueba y en fuentes verificadas. En un procedimiento importante, el coste de una jurisprudencia fantasma no es una anécdota: puede convertirse en un problema legal real, hoy y dentro de años.
Nota: Este artículo es informativo y no sustituye el asesoramiento jurídico personalizado. Cada caso debe analizarse con su documentación y circunstancias concretas.

Abogado especialista en Derecho Civil, Hereditario, Derecho de Familia y Derecho Inmobiliario, con más de 20 años de experiencia y considerado entre los 10 mejores abogados de España por la revista Emprendedores.
