Skip to main content

Comentario a la Instrucción 2/2026 del Consejo General del Poder Judicial sobre la utilización de sistemas de inteligencia artificial en el ejercicio de la actividad jurisdiccional

Por Dr. Gabriele Vestri

Prof. Derecho Procesal, Universidad de Sevilla

I.               Consideraciones preliminares 

La publicación en el Boletín Oficial del Estado de la Instrucción 2/2026 del Consejo General del Poder Judicial constituye un hito normativo relevante en la gobernanza de la inteligencia artificial dentro del Poder Judicial español. Se trata, quizá, del primer instrumento formal emanado del órgano de gobierno de los jueces que aborda de manera específica y sistemática el uso de sistemas de IA —incluidas las herramientas de IA generativa— por jueces y magistrados en el ejercicio de sus funciones jurisdiccionales. 

Seguir leyendo

La ciencia de proteger: liderazgo humanista y talento femenino ante los desafíos de la IA

Por:

Laura Rodríguez Otiñano (Ertzaintza / UCO / Docente en la Academia Vasca de Policía y Emergencias) y Natalia Fernández Laviada (Fraternidad-Muprespa / Subdirectora General de Prevención, Calidad y Comunicación. Experta en Liderazgo y Salud Laboral)

1. El marco: 11 de febrero, ciencia y seguridad pública

Cuando pensamos en ciencia, rara vez imaginamos una placa policial. Sin embargo, en 2026, proteger a la sociedad es, ante todo, una tarea de precisión técnica. La seguridad pública ya no se entiende sin la ciencia de datos, la tecnología forense o la inteligencia artificial.

Seguir leyendo

Análisis y contexto de la nueva "Ley italiana de IA"

Por Gabriele Vestri

Frente al nuevo proyecto de ley italiano sobre inteligencia artificial, aprobado por el Senado el 17 de septiembre de 2025, llaman la atención dos elementos generales: por un lado, la intención política de “sujetarse” al Reglamento Europeo de IA (RIA); por otro, la opción de implantar bloques de disciplina sectorial y penal que anticipan y enmarcan el uso de la IA en el ordenamiento italiano. La ley se presenta así como un puente —más que como un código— entre principios, aplicación de la UE y especificidades nacionales (sanidad, trabajo, AAPP, justicia, derecho de autor, penal).

Seguir leyendo

Diez notas sobre la AI Action Summit de París

por Enrique Benítez Palma      

Entre el 10 y el 11 de febrero, París ha acogido la celebración de la AI Action Summit, que ha dejado algunos titulares efímeros pero que parece no haber sido analizada con el detenimiento y la atención que merece. Con estas diez notas, desde el Observatorio Sector Público -Inteligencia Artificial (OSPIA) pretendemos aportar una visión amplia y global sobre esta importante cumbre recién concluida en París.

Seguir leyendo

“Nosotros la creamos, vosotros la alimentasteis”. La inteligencia artificial y nosotros

por Gabriele Vestri

En los últimos años, el vertiginoso avance de la inteligencia artificial (IA) ha transformado la forma en que vivimos, trabajamos y entendemos el mundo. Desde asistentes virtuales que organizan nuestras agendas hasta algoritmos que predicen patrones complejos en la economía o la medicina, la IA se ha integrado profundamente en nuestras vidas. Sin embargo, este desarrollo plantea una cuestión esencial: ¿qué papel jugamos los seres humanos en la alimentación y crecimiento de estos sistemas? La relación entre los sistemas de IA y quienes los alimentan es compleja, multifacética y cargada de dilemas éticos. 

Seguir leyendo

“Datos bebés”: el poder oculto de la información en la era de la inteligencia artificial y el Big Data

por Gabriele Vestri

“Datos bebés”: el poder oculto de la información en la era de la inteligencia artificial y el Big Data

Según el Reglamento General de Protección de Datos, la Ley Orgánica 3/2018, de 5 de diciembre, de Protección de Datos Personales y garantía de los derechos digitales y así como ha indicado reiteradamente la Agencia Española de Protección de Datos, un dato de carácter personal es cualquier información que identifica o puede identificar directa o indirectamente a una persona física. A título de ejemplo: nombre y apellidos, DNI, NIE, pasaporte, dirección de correo electrónico, si es personal, dirección postal, dirección IP, número de teléfono, origen étnico o racial, opiniones políticas, creencias religiosas o filosóficas, datos de salud, datos biométricos o genéticos, orientación sexual y un largo etc.

Seguir leyendo

Algoritmos, eficiencia y personas vulnerables

por Enrique J. Benítez Palma

El uso de algoritmos en el sector público tiene muchos entusiastas, pero también sus críticos y detractores, a menudo no tan visibles. En OSPIA LAB ya se han comentado diversos episodios de fallos y errores graves en el uso de estas herramientas para combatir el fraude en la percepción de ayudas públicas de carácter social, criminalizando a personas inocentes y arruinando vidas concretas, perjudicando de manera muy seria a personas y familias honestas señaladas por un exceso de celo administrativo y un exceso de sesgos algorítmicos contra determinadas razas, barrios y orígenes sociales. Todos los episodios narrados tienen un denominador común: los algoritmos fallan y se equivocan contra los más vulnerables, y en el debate público global sobre el uso de las más modernas herramientas tecnológicas para combatir el fraude cada vez más personas nos preguntamos por qué no se pone el mismo empeño tecnológico en combatir el fraude fiscal a gran escala, el blanqueo de capitales o los movimientos multimillonarios de dinero negro.

Seguir leyendo

La auditoría de algoritmos en el sector público

 

 

 

 

 

 

Enrique J. Benítez Palma 

El 14 de octubre de 2020, cinco importantes instituciones europeas de control externo -las de Alemania, Finlandia, Holanda, Noruega y el Reino Unido- publicaron un documento conjunto de enorme interés e importancia para la fiscalización de las decisiones públicas basadas en el uso de algoritmos. En efecto, Auditing machine learning algorithms. A White paper for public auditors se convirtió en una guía básica de referencia para ayudar a este tipo de instituciones a llevar a cabo auditorías de algoritmos basados en machine learning que estén siendo utilizados por las agencias gubernamentales y el sector público.  

Seguir leyendo