Comentario a la Instrucción 2/2026 del Consejo General del Poder Judicial sobre la utilización de sistemas de inteligencia artificial en el ejercicio de la actividad jurisdiccional

Por Dr. Gabriele Vestri
Prof. Derecho Procesal, Universidad de Sevilla
I. Consideraciones preliminares
La publicación en el Boletín Oficial del Estado de la Instrucción 2/2026 del Consejo General del Poder Judicial constituye un hito normativo relevante en la gobernanza de la inteligencia artificial dentro del Poder Judicial español. Se trata, quizá, del primer instrumento formal emanado del órgano de gobierno de los jueces que aborda de manera específica y sistemática el uso de sistemas de IA —incluidas las herramientas de IA generativa— por jueces y magistrados en el ejercicio de sus funciones jurisdiccionales.
El momento de su aprobación no es casual: se produce en un contexto de despliegue acelerado de proyectos piloto de IA en la Administración de Justicia —especialmente en la elaboración de borradores de sentencias— y en vísperas de la plena aplicación del Reglamento (UE) 2024/1689.
La Instrucción se articula en catorce artículos precedidos de un extenso preámbulo dividido en seis apartados. El preámbulo cumple una función de contextualización: sitúa la norma en el marco del Reglamento europeo de IA, del Real Decreto-ley 6/2023, de la Agencia Española de Supervisión de Inteligencia Artificial (AESIA), de la Política de uso del CTEAJE y de la Carta Europea de Ética de la CEPEJ. Esta labor de enmarcamiento normativo es acertada, pues permite al destinatario —el juez o magistrado— comprender la Instrucción como pieza de un entramado regulatorio multinivel y no como una disposición aislada.
El cuerpo dispositivo descansa sobre una arquitectura que combina definiciones (artículo tercero), principios rectores (artículo cuarto), un régimen de usos permitidos y no permitidos (artículos sexto a noveno), reglas de protección de datos (artículo décimo) y disposiciones sobre supervisión, formación y régimen de responsabilidades. Este enfoque resulta adecuado a la naturaleza del instrumento —una instrucción, no una ley— y a la velocidad con la que evoluciona la tecnología, que desaconseja una regulación excesivamente casuística.
II. Elementos positivos
El mayor mérito de la Instrucción reside en la claridad con la que establece que el juez es y debe seguir siendo el centro del acto de juzgar. Los principios de control humano efectivo (artículo cuarto, letra a), de no sustitución (letra b) y de responsabilidad judicial (letra c) configuran un núcleo duro no negociable que se proyecta de forma coherente sobre todo el articulado. La prohibición de que los sistemas de IA operen de forma autónoma para la toma de decisiones judiciales, la valoración de los hechos o de las pruebas, o la interpretación y aplicación del Derecho, formulada de manera reiterada, no es una mera declaración retórica sino un verdadero principio operativo que condiciona todo el régimen de usos. Esta insistencia, lejos de resultar redundante, es pertinente: en un entorno tecnológico que incentiva la delegación cognitiva, la reiteración del principio de no sustitución opera como salvaguardia contra la erosión gradual de la función jurisdiccional.
El artículo séptimo merece una valoración especialmente positiva. Al regular los borradores generados mediante IA, la Instrucción acierta en varios aspectos: exige una revisión y validación personal, completa y crítica por parte del juez (apartado 2); niega expresamente a tales borradores la consideración de decisiones automatizadas (apartado 3); y exige que el sistema garantice que el borrador solo se genere a voluntad del juez y pueda ser libre y enteramente modificado antes de su validación (apartado 4). Este último requisito es particularmente relevante desde el punto de vista técnico, pues implica que los sistemas no podrán generar borradores de oficio o de forma proactiva sin intervención del juzgador, ni presentarlos en formatos que dificulten su modificación sustancial. Se trata de una exigencia que, de cumplirse efectivamente, conjura el riesgo más insidioso del uso de IA generativa en el ámbito judicial: el denominado “sesgo de automatización” o tendencia a aceptar acríticamente los resultados generados por la máquina.
La decisión de restringir el uso jurisdiccional a los sistemas facilitados por las Administraciones competentes o por el propio CGPJ (artículo quinto) constituye una opción legítima de política regulatoria. En un contexto en el que proliferan herramientas comerciales de IA generativa de calidad y fiabilidad desigual, la canalización institucional del acceso tecnológico persigue objetivos razonables: asegurar el control de calidad y la auditoría, garantizar la protección de datos judiciales y mantener la trazabilidad de los procesos. La exigencia de que estos sistemas sean sometidos a control de calidad y auditoría por parte del CGPJ (artículo quinto, apartado 2) refuerza esta lógica.
El artículo décimo incorpora de forma adecuada los principios del Reglamento General de Protección de Datos al contexto específico del uso judicial de IA, con menciones expresas a la minimización, la limitación de la finalidad, la trazabilidad y la prohibición del tratamiento masivo o indiscriminado de datos judiciales. La prohibición de utilizar datos personales obtenidos en el ejercicio jurisdiccional en sistemas de IA no autorizados (apartado 2) es una consecuencia lógica y necesaria del régimen general de la Instrucción.
III. Elementos susceptibles de mejora
Una de las quizá más llamativas mejoras de la Instrucción concierne a la transparencia del uso de IA frente a las partes del proceso (la Instrucción cita la transparencia en cuatro ocasiones, y en todas ellas el tenor es general o reenvía a otras normas). La Instrucción no exige en ningún momento que el juez o magistrado informe a los litigantes de que ha utilizado herramientas de IA en la preparación de una resolución, ni siquiera cuando se trate de borradores generados por estos sistemas. Este silencio resulta difícilmente conciliable con el principio de transparencia (y explicabilidad), que el propio artículo cuarto (letra e), invoca implícitamente a través de la referencia al respeto a los derechos fundamentales y a la tutela judicial efectiva.
La omisión es tanto más significativa cuanto que la Carta Europea de Ética de la CEPEJ —citada en el propio preámbulo como marco de referencia— incluye expresamente un principio de transparencia que se proyecta no solo sobre la configuración técnica de los sistemas sino también sobre el conocimiento que las partes deben tener de su utilización (por eso mencionamos la explicabilidad). Las Directrices de la CEPEJ de diciembre de 2025 sobre IA generativa para tribunales profundizan en esta dirección. La ausencia de cualquier previsión al respecto en la Instrucción constituye un vacío relevante que debería ser abordado, ya sea mediante una eventual modificación del instrumento o a través de orientaciones complementarias.
El artículo noveno establece, en su apartado 1, la prohibición general de utilizar en el ejercicio jurisdiccional sistemas de IA no facilitados por las Administraciones competentes o el CGPJ. Sin embargo, su apartado 2 introduce una excepción de contornos imprecisos: los jueces podrán utilizar estos sistemas no autorizados “para finalidades de preparación o estudio”, siempre que la información proceda exclusivamente de fuentes abiertas.
Esta excepción plantea problemas interpretativos considerables. En primer lugar, la frontera entre “preparación o estudio” y “ejercicio de la actividad jurisdiccional” es, en la práctica, difusa. A título de ejemplo, un juez que utiliza ChatGPT para analizar una cuestión jurídica compleja antes de dictar sentencia está, sin duda, preparando su trabajo jurisdiccional, pero el resultado de esa preparación se integrará inevitablemente en su proceso decisorio. En segundo lugar, la exigencia de que la información utilizada proceda de “fuentes abiertas” no elimina el riesgo de que el juez introduzca, de forma inadvertida, datos o circunstancias del caso en la consulta formulada al sistema, vulnerando así la prohibición del apartado 3 de incorporar datos judiciales. La línea entre formular una consulta abstracta y una consulta contextualizada con datos del caso concreto puede ser extremadamente tenue en la práctica.
Habría sido deseable que la Instrucción precisara con mayor rigor los límites de esta excepción, estableciendo, por ejemplo, una prohibición expresa de formular consultas que, aun utilizando fuentes abiertas, reproduzcan o reflejen los hechos del caso concreto sometido a enjuiciamiento.
El artículo undécimo se limita a señalar que el incumplimiento de la Instrucción “podrá dar lugar a las responsabilidades que procedan, conforme a lo previsto en la Ley Orgánica del Poder Judicial”. Esta remisión genérica resulta insuficiente, en opinión, por varias razones. En primer lugar, no queda claro si el incumplimiento de la Instrucción puede constituir por sí solo una falta disciplinaria o si requiere la concurrencia de otros presupuestos tipificados en la LOPJ. En segundo lugar, la referencia a “medidas preventivas o correctoras que puedan adoptarse en el ámbito organizativo o de gobierno” carece de concreción y no permite anticipar las consecuencias efectivas del incumplimiento. En un instrumento que pretende establecer un marco vinculante para la conducta de los jueces, la indefinición del régimen sancionador debilita su eficacia normativa.
La Instrucción atribuye al CGPJ funciones generales de supervisión y control (artículo duodécimo) y prevé la auditoría de los sistemas puestos a disposición de los jueces (artículo quinto, apartado 2). Sin embargo, no establece mecanismo de verificación del cumplimiento individual por parte de cada juez o magistrado. No se prevén registros de uso, ni obligaciones de documentar la utilización de herramientas de IA en el proceso de elaboración de resoluciones, ni auditorías de contenido que permitan detectar la incorporación acrítica de textos generados por IA.
Esta carencia resulta particularmente relevante en relación con la prohibición de utilizar sistemas no autorizados con datos judiciales (artículo noveno, apartado 3). Sin mecanismos de detección, la prohibición descansa enteramente en la autodisciplina del juzgador, lo que puede resultar insuficiente en un contexto de creciente facilidad de acceso a herramientas de IA generativa desde cualquier dispositivo personal.
El ámbito subjetivo de la Instrucción se circunscribe estrictamente a jueces y magistrados. No alcanza a los letrados de la Administración de Justicia, al Ministerio Fiscal, a los abogados que intervienen en el proceso ni a otros operadores del sistema de justicia. Si bien esta delimitación es coherente con las competencias del CGPJ, genera un vacío regulatorio significativo. En particular, la ausencia de pautas para el Ministerio Fiscal —que participa activamente en la función jurisdiccional— y para los Letrados de la Administración de Justicia —que desempeñan funciones procesales relevantes— puede dar lugar a asimetrías en el uso de IA dentro de un mismo procedimiento judicial. Sería oportuno que la Instrucción al menos instara a la coordinación con la Fiscalía General del Estado y con las Administraciones competentes para la extensión de criterios análogos.
Aunque la Instrucción exige de forma genérica la revisión crítica de los contenidos generados por IA, no aborda de manera específica el problema de las denominadas “alucinaciones” —esto es, la generación de información falsa, inventada o inexacta por parte de los modelos de lenguaje, presentada con apariencia de veracidad—. Este fenómeno, ampliamente documentado, resulta especialmente grave en el ámbito judicial, donde la citación de jurisprudencia inexistente o la atribución errónea de doctrina legal pueden comprometer la calidad de las resoluciones y la confianza en el sistema de justicia.
La Instrucción habría ganado en rigor si hubiera incorporado una advertencia específica sobre este riesgo y una obligación expresa de verificación autónoma de toda referencia normativa, jurisprudencial o doctrinal generada por sistemas de IA, particularmente en el caso de herramientas de IA generativa.
La Instrucción entra en vigor el día de su publicación en el BOE (artículo decimocuarto) sin prever período transitorio alguno ni mecanismo de implementación gradual. Tampoco incorpora orientaciones prácticas —como ejemplos de usos permitidos y no permitidos, protocolos de verificación de contenidos o guías de buenas prácticas— que faciliten a los jueces la aplicación efectiva de sus previsiones. Si bien es cierto que la naturaleza del instrumento —una instrucción, no un reglamento— explica en parte esta opción, la complejidad técnica de la materia y la heterogeneidad de los conocimientos tecnológicos entre los miembros de la carrera judicial habrían aconsejado un acompañamiento práctico más detallado. La mera previsión de actividades formativas (artículo decimotercero) puede resultar insuficiente si no se concreta en contenidos específicos y calendarios de implantación.
La Instrucción regula el uso de IA por los jueces, pero guarda silencio sobre cómo deben los órganos jurisdiccionales afrontar la creciente utilización de estas herramientas por las partes. Es previsible que los tribunales reciban cada vez con mayor frecuencia escritos, dictámenes periciales e incluso pruebas generadas o asistidas por IA. La ausencia de criterios para evaluar la fiabilidad de estos materiales, para exigir la revelación de su origen o para ponderar su valor probatorio deja sin abordar una dimensión relevante del impacto de la IA en la actividad jurisdiccional.
IV. Conclusión
La Instrucción 2/2026 del CGPJ representa un paso necesario y, en conjunto, bien orientado en la regulación del uso de inteligencia artificial en la actividad jurisdiccional española. Sus principios rectores son sólidos, su régimen de usos es razonablemente articulado y su tratamiento de los borradores de resoluciones judiciales demuestra una comprensión adecuada de los riesgos específicos que la IA generativa plantea para la función de juzgar.
Sin embargo, el instrumento adolece de vacíos que condicionan su eficacia práctica y su capacidad para responder a la complejidad del fenómeno regulado. La ausencia de obligaciones de transparencia hacia las partes, la ambigüedad de la excepción para uso preparatorio de sistemas no autorizados, la indefinición del régimen de responsabilidades, la falta de mecanismos de auditoría individual y el silencio sobre el uso de IA por los demás operadores jurídicos configuran un conjunto de insuficiencias que deberán ser abordadas en el corto plazo, sea mediante la revisión de la propia Instrucción, sea a través de instrumentos complementarios.
En última instancia, el valor de esta Instrucción no reside tanto en su contenido actual —inevitablemente provisional en una materia de evolución vertiginosa— cuanto en el acto institucional que representa: la asunción explícita por parte del órgano de gobierno del Poder Judicial de su responsabilidad en la gobernanza de la inteligencia artificial aplicada a la jurisdicción. Sobre esta base, habrá que construir un marco progresivamente más completo, detallado y operativo, a la altura de los desafíos que la transformación tecnológica plantea al Estado de Derecho.
