Qué va a continuación mi compañero
Rafael Castelló Felipe,
que de irse al Pacer de escucharlo?
O esto que es una cabeza francamente
bien formada?
En el ámbito procesal y en muchos.
Sería bueno, en primer lugar, me
gustaría comenzar agradeciendo,
como es de rigor y justicia,
quiero agradecer en primer lugar
a la cátedra identidad
y derechos digitales,
su invitación también por supuesto,
a la Fundación Integra
y, cómo no, al Colegio de
Abogados de Lorca,
que tan amablemente nos
ha cogido esta tarde
quiero agradecer también a 2 personas
que para mí son referentes
indiscutibles
y una fuente de inspiración
de trabajo diario
y compromiso con la universidad,
pero también con la sociedad,
como son el profesor Valero Torrijos
y la profesora Vidal.
Muchas gracias a ambos por
haber pensado en mí
para intervenir en la
Mesa de esta tarde
y sobre todo por la labor
que hacéis dicho.
Esto voy a extender ya al tema
que nos ocupa esta tarde.
Lo haré evidentemente desde un
punto de vista doctrinal
que va a confrontar en algunos
puntos con posturas que se han expuesto
en la Mesa abierto, ya que
si esta confrontación
se produce será siempre
desde el cariño
y, por supuesto, el máximo,
el máximo respeto.
El tema de la inteligencia
artificial en la doctrina procesal
no es tan novedoso.
Quizá como pueda parecer
o como pueda parecer
para la sociedad en general de
inteligencia artificial,
en general, venimos oyendo hablar
desde hace 2 años,
pero en la doctrina procesal la
atención sobre esta materia
la pusimos con el caso
compás versus lumes,
que surgió en Estados Unidos,
en el que se aplicó
una inteligencia artificial para
mandar a un sujeto a prisión,
y se descubrió que tenía un sesgo
racista que a determinados
tipos de sujetos de ciertas zonas
y poblaciones étnicas,
pues directamente los mandaba,
más a la cárcel
que otro tipo de sistema.
Luego en el debate podemos ir
profundizando un poco en el punto
de partida que plantea.
El tema de la dificultad inicial
siempre es el mismo
no, que es la inteligencia
artificial si me detuviera aplicarlo.
Pues no saldríamos de aquí
en toda la tarde,
y ni siquiera estaría seguro
de haberlo explicado bien,
con lo cual lo que voy a hacer
es tomar el concepto legal
que nos da el reglamento,
inteligencia artificial
y en virtud del cual nos dice que es
un sistema informático que es capaz
de funcionar con autonomía
y que genera contenidos,
recomendaciones y decisiones.
Según el Reglamento,
lo verdaderamente esencial de
la inteligencia artificial
es la capacidad de inferencia
que tiene el programa,
es decir, su potencial de creación,
más la posibilidad de el
mismo, ir adaptándose
para reconfigurar se asimismo
y sus algoritmos
y darnos los resultados que
pretendemos alcanzar con él
y otros adicionalmente.
Dicho esto, el qué marco legal
contamos para aterrizar esto
en la Administración de Justicia,
pues ahora mismo
y salvo que a mí se me escape de
algo con 2 normas, tenemos,
por un lado, el reglamento de
inteligencia artificial,
norma de carácter general,
y, por otro,
el Real Decreto 6, 2023, que también
ha explicado don Antonio claro,
a mi punto de vista, la
insuficiencia inicial
ya deriva a la coordinación
de estas 2 normas
porque si 1 se lee las
2 normas enteras,
el espíritu o los efluvios que
desprende cada norma son distintos.
En el Real Decreto 6, 2023 hay una
preocupación por la aceleración,
es decir, por ir lo más rápido
posible en materia de justicia,
y eso lo trasluce todo el texto,
a pesar de que aluda
a algunas partes,
a los derechos fundamentales.
En cambio, el reglamento de
inteligencia artificial
hay una aproximación basada
en el riesgo
y en la protección de
lo que de momento
hace grande Europa, y no sabemos
por cuánto tiempo,
que es la protección de los
derechos fundamentales,
todo esto al mismo tiempo que
intentamos no quedarnos atrás
en el mercado de la inteligencia
artificial.
Por tanto, son 2 normas
que, a mi juicio,
colisionan en algunos puntos no
voy a descender al detalle
porque, si no, creo que nos
enredáramos con normativas,
que a lo mejor los oyentes
no conocen,
pero si alguien quiere en el debate,
pues podemos abrir también comentar
más en detalle esta cuestión.
La cuestión.
Dicho esto, cosas que debería hacer
la poca legislación que tenemos
y que no hace, a mi juicio, es
esencial distinguir a la hora
de definir.
Aquí aplicamos la inteligencia
artificial entre administración
de la Administración de
Justicia y aplicación
de la inteligencia artificial a
la función jurisdiccional.
En sentido estricto.
Esta distinción, que parece
el primero carrera,
cuando empezamos a estudiar
organización jurisdiccional,
es absolutamente fundamental,
porque los requisitos y las
garantías que rijan
respecto a cada una de estas
parcelas evidentemente, no pueden ser.
El mismo.
Si yo tengo un programa en materia
de Administración de
Administración de Justicia,
para mostrarme visores, documentos
clasifica al menos,
eso no entra dentro del núcleo de
la función jurisdiccional.
Si yo tengo un programa que me va a
dar borradores de resoluciones
y que el juez puede seguir
incluso ciegamente
si falla el trámite de supervisión,
eso está incidiendo forzosamente
en la función jurisdiccional
y por tanto, la próxima.
La aproximación tiene
que ser distinta.
Ojo, porque el reglamento
en el considerando 61
se da cuenta de esto y lo dice.
En cambio el Real Decreto 6,
2023 se amalgama todo y este dato
pasa absolutamente desapercibido,
como pasaba antes también en algún
punto de la Ley 18 2011,
con lo cual si nos quedamos
con esta premisa,
es decir, tenemos que tener cuidado
con implicar aplicar
la inteligencia artificial al núcleo
de la función jurisdiccional.
Qué implicaciones podemos extraer de
ahí la primera, muy sencilla,
cómo aplicamos la potestad
jurisdiccional
o cómo se ejerce la función
jurisdiccional,
y aquí todos lo sabemos
en el proceso,
no.
Y cómo configuramos el proceso por
el principio de legalidad procesal,
y esto no es que lo diga
Rafael Castillo,
es que lo dice la Constitución,
está en el artículo 149, 1, 6,
donde hay una reserva de ley
a la configuración de la regulación
de las actuaciones procesales.
Primera consecuencia, los intentos
de introducción
de la inteligencia artificial no
pueden variar la regulación
de los actos procesales, previamente
configurada por la ley,
de forma que yo pienso en este
punto, que es la informática
la que debe adaptarse
a la norma vigente,
y no sustituirla por la
puerta de atrás.
Evidentemente, si no nos gusta
la norma vigente,
la podemos cambiar por
los procedimientos
que nos hemos dado
constitucionalmente para ellos,
pero lo que no podemos permitir es
que el programa altere la norma,
y pongo un ejemplo, partiendo un
poco de la exposición de don Antonio.
no conocía el proyecto de
instauración del monitorio,
pero sí había llegado a mis oídos
que se exige para la presentación
de los monitorios que se cumplimente
un formulario.
Esto es contrario a lo que dice la
Ley de Enjuiciamiento Civil.
Y explico por qué en los artículos
802 siguientes
la solicitud monitorio,
cuando la parte está asistida
por abogado y procurador,
no está subordinada a la
presentación vía formulario,
si ocurre,
por ejemplo en el proceso
monitorio europeo,
en el proceso de escasa cuantía
donde los formularios son obligatorios,
con lo cual ese proceder,
por muy ágil
que agilice resulta contrario
a la norma
y plantea una situación de
flagrante contradicción
entre ellas.
Si no nos gusta, cambiemos la norma
y exijamos el formulario
o utilicemos procesos
en los que existe,
en los que ya existe, el formulario
monitorio europeo
o la escasa cuantía, claro, entonces
no tenemos suficientes
y entonces no podemos poner
en marcha del programa.
No.
La segunda implicación
que se desprende
de esta de esta aproximación
es sí puesto
que necesitamos del principio
de legalidad procesal,
por lo que acabo de exponer.
Si verdaderamente necesitamos
regular o no necesitamos regular,
es decir, nos plantea la
inteligencia artificial;
si la aplicamos a la función
jurisdiccional,
se dan situaciones nuevas
que requieran la atención
del legislador.
A mí me parece que sí?
Me parece que sí?
Porque si admitimos que la podemos
aplicar a actos resolutorio
del juez del letrado de la
Administración de Justicia,
lo que tenemos es un operador
jurídico con funciones procesales,
interactuando con un sistema exógeno,
y ese sistema exógeno plantea
riesgos para la función del operador
y evidentemente, tenemos que regular
el régimen de responsabilidad
del operador identificar
cuáles son los riesgos para
intentar prevenirlos.
Pero es que además el uso del sistema
y la relación que se plantea entre
el que maneja el sistema
y el propio sistema no es
inocuo para las partes,
que piden potestad jurisdiccional,
como voy a explicar un
poco más adelante,
con lo cual mi planteamiento
es sencillo,
que podemos exigirle al legislador
y al resto de poderes públicos
encargados de aterrizar la
inteligencia artificial
con la que he sido, si vamos a tener
que convivir a la hora de regularla,
porque lo que tenemos de
regulación para mí
es manifiestamente insuficiente.
En primer lugar, qué podemos exigir
Pues yo creo que una aproximación
que respete siempre los principios
que configuran el proceso,
que en principio los jurídicos
y técnicos,
el dispositivo y aportación de
parte en el proceso civil
y el de oficialidad e investigación
de oficio en el proceso penal,
y me explico un poquito mejor claro
que la inteligencia artificial
la podemos utilizar para
muchas cosas.
Para fundamentación jurídica,
don Antonio ha puesto
un ejemplo antes,
pero también la podríamos utilizar
para valoración de la prueba
y fijación de los hechos,
y pongo un ejemplo.
En Inglaterra se está trabajando
en el desarrollo
de un programa de un programa
que se llama
Advocats utilizado para valorar la
fiabilidad de los testigos,
utilizando igual, bueno, iniciar
informatizando parámetros
de psicología del testimonio
y de la redacción del testigo con
concretas circunstancias,
con el fin de objetivar la
valoración de la prueba en este.
En este punto.
Claro, mi pregunta es.
Estamos por ejemplo,
dispuestos a que un programa
de inteligencia artificial
en un proceso civil introduzca
datos o máximas
de la experiencia que el
juez no posee de base?
Por ejemplo, estamos dispuestos
a que en un proceso en
el que se impugnan
cual no partición al por errónea
valoración de un inmueble,
el juez utilice un sistema que
cuente con la posibilidad
de valorar inmuebles y arroja
una valoración distinta
a las periciales de las partes,
incluso con argumentos distintos.
La Universidad de Murcia creo
que está interviniendo ya
en un programa de valoración
de inmuebles,
no necesariamente para aplicarlo
al al enjuiciamiento.
A esta pregunta nos tenemos que
enfrentar porque los programas
van a ser capaces de hacer esto.
Yo creo que seguramente todos
los que estamos aquí
no nos dejen los principios
del proceso civil,
de momento como esta no, porque
parece que de momento
regulan una adecuada distribución,
esos principios de los
roles entre el juez
y las partes y los poderes que cada
una de esas partes tiene.
Por tanto, lo primero que le
exigiría yo al legislador
configurar una regla de indemnidad
de los principios jurídico-procesales
a la hora de regular la inteligencia
artificial,
y, evidentemente, si no nos
gusta los principios,
que son construcciones lógicas,
los podemos cambiar,
pero, cuando estemos,
seguro de lo que estamos haciendo
no debemos permitir
que los principios no los adulteren
de por sí el sistema,
porque eso altera la posición de
las partes dentro del proceso
podría poner ejemplos en materia
del proceso penal,
también, por ejemplo, qué ocurre?
Si utilizamos un programa en
que se nutre de datos
y aprendemos la experiencia previa y
tenemos una parte que ha recibido
varias condenas civiles o varias
condenas penales,
teniendo en cuenta que la
inteligencia artificial no razona,
igual que nosotros,
a la hora de sugerir un borrador
de resolución,
va a ser capaz de abstraerse,
por ejemplo, para respetar la
presunción de inocencia
o para evitar un sesgo de
reiteración en un proceso civil
en que se vuelva a condenar
esa parte,
simplemente porque ya se le condenó
en procesos anteriores.
Bueno, esto quizá tengamos
que pensar.
Segundo, que se puede ser una
cuestión que se puede pedir
al legislador a la hora de regular
cómo regulamos las obligaciones
de control que nos impone
el Reglamento,
en tanto en cuanto estamos en un
sistema de, en un entorno
de alto riesgo,
como es la Administración
de Justicia,
y la función de enjuiciar,
y aquí hay 2 puntos.
Primero quien se encarga de
aterrizar el sistema
y quien tiene algo que decir en
ese aterrizaje en el sistema
y después Cuáles son las
obligaciones de supervisión
que debemos configurar para
los operadores jurídicos
concretos que manejan el sistema
respecto a quien se encarga
de aterrizar el sistema,
a mí me parece que aquí el Consejo
General del Poder Judicial
no puede escurrir el bulto,
cosa que por lo demás dice hasta
el propio Comité técnico
estatal de la Administración
de Justicia
en un documento recientemente
publicado,
que se denomina política de uso,
la inteligencia artificial
dice.
Ojo, cuando la inteligencia
artificial incida
en la potestad jurisdiccional,
aquí el consejo tiene
que pronunciarse.
Nosotros en esto no pinchamos,
sin perjuicio que podamos
emitir informes,
no bien.
Habría que reformar la Ley Orgánica
del Poder Judicial
también, sobre todo porque en 2018
el apartado del artículo 560,
que hacía referencia a la supervisión
de los programas por el Consejo
General del Poder Judicial,
se eliminó y yo no lo
ha vuelto a haber.
Entonces habrá que darle una vuelta
también a cuáles son las funciones
del consejo en esta materia,
y dicho esto, si le atribuimos
funciones al consejo
surge gran pregunta.
Hasta qué punto está preparado el
personal que integra el consejo
para pronunciarse sobre la
vulneración de derechos fundamentales
que puede implicar la inteligencia
artificial?
No por nada, porque entender cómo
funcionan los programas
es una labor absolutamente compleja.
Yo he dedicado bastante atención y
todavía tengo bastantes lagunas
y habrá puntos que seguramente
nunca llegue a comprender,
salvo que considerase al
dar un informativo
durante unas cuantas horas, cosa
que todavía no ha sugerido.
Me parece que el consejo debería
contar aquí con auxilio,
y ese auxilio, a lo mejor no deben
ser los operadores privados que
desarrollan los programas,
porque cuando 1 desarrolló
un programa
lo que quieren vender el producto
y nunca va a decidir
hoy me he equivocado.
Esto lo he hecho mal o tal vez yo
llevo propugnando desde 2021
en un trabajo que dice sobre
el proceso civil,
la inteligencia artificial,
la necesidad de crear
un instituto que yo denominaba
entonces de informática,
judicial e inteligencia artificial.
Siempre me dicen lo mismo.
Es que no tenemos dinero lo sé,
pero eso no hace que yo
no deba recordar esto
aquí porque creo que nos podría
ser de suma utilidad.
Primero, para seleccionar
perfiles híbridos.
Entre el derecho y la informática
nos comentaba don Antonio,
que los programadores no saben que
en Navidad la justicia es inhábil,
un perfil híbrido.
Eso lo sabría perfectamente;
en segundo término,
para asistir en las pericias de
inteligencia artificial,
que vamos a tener que hacerlas,
ojo, y, en tercer lugar,
y en tercer lugar, para
asesorar al Consejo.
Esta materia por un personal
que revista ciertas
garantías de independencia.
Si seguimos indagando un poco más en
la materia, segunda cuestión.
Una vez le hemos pasado
este marrón al Consejo General
del Poder Judicial.
Las obligaciones de supervisión
se extienden a con qué datos
vamos a entrenar a los sistemas
de inteligencia artificial.
vengo leyendo, hay que
usar el Cendoj,
pero mi pregunta es la siguiente.
Si 1 se va haciendo y
yo por otro trabajo
no tiene que ver con esto lo estuvo,
hacíamos una materia concreta
desde hace unos 3 o 4 meses
se encuentra resoluciones
muy buenas, excelentes, buenas,
regulares, malas
y muy malas, claro, coger el centro
a lo bestia y entraran
en inteligencia artificial con ello
no me parece que sea una buena idea,
sobre todo porque si vamos a poner
ese programa a disposición del juez
que dicta resoluciones excelentes
o muy buenas,
le vamos a pasar los patrones
que infiere
la inteligencia artificial
de Afganistán,
resoluciones malas o muy malas.
Tengamos cuidado con esto.
Es verdad que estoy simplificando
la cuestión,
y aquí entran patrones a la hora
de seleccionar los datos,
que son propios de la programación
de los algoritmos,
pero debemos tener esta precaución.
También descendiendo a la segunda
cuestión que ofrece
la supervisión Qué vamos a
exigir a los encargados
de supervisar las actuaciones
judiciales asistidas
porque este es el punto
que más nos aterra,
nos aterra que puede haber una
máquina dictando resoluciones
sin ningún tipo de control humano,
sobre todo porque el control
no se produzca
por la prisa que tenemos todos en
la Administración de Justicia
todos los días,
y que es competente y que
es comprensible?
Y por qué nos da miedo?
Porque ya hemos conocido esto que
sea más esa automatización
en la praxis forense,
quien no ha visto una resolución
dictada por un operador jurídico,
que no ser, que tiene la potestad
para emitirla,
y que contiene un error caso y
se notifica al justiciable.
Igual no lo dice aquí ha fallado
la supervisión.
Para eso no se necesita inteligencia
artificial.
Podría contar algún algún caso,
y lo mismo ocurre con el uso de
inteligencia artificial,
por los letrados, como
ponía de relieve.
Dicho esto Cuáles son las
herramientas que tendría
que disponer la ley o intentar
articular para fijar
cuáles son las obligaciones
de supervisión.
En primer lugar, la formación
específica
es absolutamente fundamental en
materia de inteligencia artificial
y en materia de sesgos de los
operadores jurídicos,
incluso cómo debemos aproximarnos
a la inteligencia artificial.
Si yo llego, debo llegar al programa
de inteligencia artificial
tocarle el botón y que me
salga la resolución
sin haber pensado.
O es mejor en el momento
en que se puede hacer
que el juez piense la resolución y
la redacte a través del programa
inteligencia artificial.
Por eso me ha gustado mucho la
aproximación al monitorio
que ha hecho don Antonio, porque
ellos califican jurídicamente
y con códigos van dirigiendo la
redacción del procedimiento.
Esa es la forma correcta de hacerlo
aunque sea menos, menos rápido.
Dicho esto, me pregunto también y
esto es algo que no tengo claro
lo lanzo aquí al auditorio.
Si debemos incorporar medidas de
desintoxicación algorítmica.
Una vez admitamos la celebración
de actuaciones procesales
asistidas porque lo que todavía
no está claro es qué impactos
va a tener para todos los que usemos
la inteligencia artificial,
en nuestras capacidades
de creatividad,
de razonamiento y si nos vamos
a ir olvidando poco a poco,
no lo sabemos,
porque todavía no nos hemos
aprobado en este tema,
pero hasta que tengamos claro
cómo hemos interactuar en
la relación humano
-máquina, pues a lo mejor estas
desintoxicación algorítmica.
Puede ser interesante, concretando
un poco más las medidas.
Tercer punto de refuerzo.
Las obligaciones de supervisión.
Hay que tocar el régimen
disciplinario
de los operadores jurídicos
que actúe con estos sistemas de
responsabilidad asistida,
de manera que la falta de
supervisión se sancione.
Pienso, por ejemplo,
los artículos 416 419 de la Ley
Orgánica del Poder Judicial,
que regulan el régimen de
responsabilidad disciplinaria
de jueces y magistrados y abierto
ya, a mi juicio,
que incluir infracciones
administrativas
configuradas para empezar sobre
el tipo de peligro abstracto,
es decir, que el mero quebranto de
la obligación de supervisión,
con independencia de que cause
algún resultado daños
o sea sancionable,
y si además se causa un
resultado razonable,
elevamos la calificación
de la infracción,
por ejemplo, del leve agraviado.
Grave muy grave, según
reputen tercer cosa,
que cabe exigir al legislador
prohibiciones
en una tecnología que
tiene tanto riesgo,
hay que prohibir y yo no soy fan
de prohibir muchas cosas,
pero hay que prohibir prohibir
algunas prácticas
que a mí se me ocurre que
se puedan utilizar
con estos sistemas, por ejemplo,
que se pueda intentar torcer
la voluntad de los operadores
jurídicos para de las partes
para obligarles a realizar actos
que no quieren hacer.
Pienso, por ejemplo, en
una conformidad penal
reforzada con un borrador
de sentencia redactada,
impuesta al frente del abogado.
Ya sabemos que las conformidades hay
muchas veces cierta presión
o con cierta intensidad
y que, si no, seguramente
tenga que condenar,
o sea que hacer aquello, otro claro,
cuando encima se disponga
de las sentencias
esto puede ser tremendo,
así que lo prohibimos y nos
olvidamos problemas.
En segundo lugar,
hay que prohibir la motivación
genérica por remisión al algoritmo.
Una vez tengamos programas que
sean capaces de hacerlo,
de forma que una motivación,
tal como como acertadamente
ha señalado el algoritmo,
debemos fallar a favor de eso,
hay que hay que prohibirlo.
En tercer lugar, una prevención
mínima de prudencia.
Me parece prohibir que los algoritmos
o las decisiones asistidas puedan
utilizarse en procesos
en los que las propias empresas que
los crean sean parte, sobre todo
porque, como no tenemos forma
de saber a ciencia cierta,
cómo funcionan estos programas,
nunca sabremos que en la trastienda
de la máquina,
aunque es verdad que se imponen
ciertas prevenciones
por parte del Reglamento de
inteligencia artificial
de información, al proveedor.
Ahora si un proveedor ha tocado,
si es que se puede hacer a nivel
técnico del algoritmo,
eso nunca nos lo va a decir ni lo.
Vamos a saber, de cara a los
pleitos que pueda tener
su empresa, por ejemplo, en materia
de protección de datos,
y en cuarto término deberían
prohibirse.
Los experimentos no amparados
por una expresa autorización del
Consejo General del Poder Judicial
de forma que voy a empezar a aprobar
con el justiciable y a ver qué pasa,
eso no debería hacerse en Internet,
con la aplicación de la inteligencia
artificial,
a funciones jurisdiccionales.
Para eso hay bancos de pruebas
seguros, que son los entornos
en los que deben trabajarse con
este tipo de sistemas,
no directamente con expedientes
reales en relación
con las partes que debemos regular.
En primer lugar, la obligación
de transparencia
hoy me tienen que decir a
mí el operador jurídico
que está utilizando un sistema
de inteligencia artificial
y cuáles son los parámetros que los
nutren, de eso no hay duda,
porque ya la Ley del
derecho de defensa
en su artículo 12 4, recoge este
derecho de información
a saber cómo funcionan
los los algoritmos,
lo verdaderamente difícil no es
fijarlo de transparencia.
La obligación de transparencia,
que puede ser de sentido común,
lo verdaderamente difícil
es concretar hasta dónde debe llegar
esa obligación de transparencia,
por ejemplo Debe el juez.
Incluir en su resolución cuando
ha utilizado o el letrado,
la Administración de Justicia,
inteligencia artificial,
los productos que ha utilizado,
la información de entrada
que le ha metido a la máquina
para saber cómo se sabe
cómo se produce la resolución.
Yo sé que me haya tanta respuesta.
Sería.
Hombre no cómo se deshaga.
Juez que tendría que pagar.
Las utiliza para buscar la
jurisprudencia en el sector ya.
Pero es que la información que les
suministran programa no es inocua,
y a lo mejor un programa tiene un
sesgo a mí me interesa saber
si el sesgo viene del
programa o viene
de la información que le ha metido
el juez en el tramo,
es decir, lo que le ha
pedido a la máquina.
A lo mejor debemos pensar en ese
punto que esa información
debe estar disponible por si las
partes la quieren revisar
en busca de un posible
sesgo del programa.
Porque aunque se entesten
los programas,
pueden alucinar y generar sesgo.
Si quieren en el debate.
Podemos hablar de los bigotes
dicho esto voy acabando
y resulta de especial trascendencia
también regular
cómo se van a practicar
las pruebas periciales en materia
de inteligencia artificial,
sobre todo porque la experiencia
del caso Lunnis
al que me he referido al principio
lo demuestra.
Plantea que están surgiendo
problemas entre la protección de la información
confidencial del algoritmo
de los paquetes de datos
por el secreto empresarial
y algoritmo,
por la propiedad intelectual, aunque
esto es algo más difuso
a la hora de acceder a la
información de funcionamiento
para practicar periciales
sobre sobre los mismos,
esto fue lo que pasó en el caso
lunes en la parte quería acceder
al programa que había dictaminado
sobre su peligrosidad,
pero el secreto empresarial
impedía el acceso
a esa obligación confidencial en
programas que se utilizan
en entornos públicos.
El reglamento impone que
se debe facilitar
bastante información por parte
de los proveedores,
con lo cual aquí ya puede haber datos
para practicar una prueba pericial
accesibles y relativamente públicos
en programas que se utilicen
por las partes,
aprueba aporte una prueba hecha
con inteligencia artificial,
o quiero demostrar que una
ultra falsificación
es falsa.
El problema puede ser mayor porque
habrá que requerir a un tercero
para que nos suministre información
sobre su programa,
que puede estar sujeta a
secreto empresarial,
y aquí tengo una buena noticia.
Yo creo que tenemos herramientas.
Tenemos, por ejemplo, el artículo 15,
2 de la Ley de secretos
empresariales,
que se aplica tanto a procesos en
materia de secretos empresariales
como a procesos que no versa sobre
secretos empresariales,
pero los que es necesario decidir
sobre algún punto
del secreto empresarial.
Este artículo establece
diversas limitaciones
a la publicidad que no voy a
detallar perfectamente,
nos podría servir para
que se suministraba
la información práctica, una
pericial sobre ese algoritmo
y mantener la información
a salvo de terceros
en virtud de esa publicidad
inherente al proceso.
Igualmente, algunas medidas en
materia de confidencialidad
de acceso a las fuentes de prueba
en procesos de derecho
a la competencia del artículo 183
bis y siguientes de la Ley,
podrían extenderse con
carácter general
para cuando haya que practicar
pruebas de este tipo,
y voy a concluir ya haciendo alguna
mención en honor a la casa
en que nos encontramos, a cuál debe
ser el rol de la abogacía
en todo esto.
Yo creo que no podemos esperarnos
a verlas venir,
tenemos que tomar un papel activo
y proactivo formándonos
y exigiendo que se nos incluyan los
procesos de toma de decisiones.
Sobre esta materia.
Voy a poner un ejemplo gráfico
me he referido varias veces
a la política de uso, de la
inteligencia artificial
del Comité técnico estatal de la
Administración de Justicia.
En los principios básicos
que deben orientar
esta política se alude al principio
de calidad y seguridad,
y se dispone lo siguiente.
Para un correcto desarrollo de la vía
debe aprovecharse la experiencia de
los profesionales en general,
como sería jueces, fiscales,
investigadores y profesores
de otros campos,
tanto el derecho como en
las ciencias sociales
o de la propia ingeniería
no entiendo cómo no está reflejado
aquí una expresa referencia
a la experiencia de los abogados
y me da igual
que sea ejemplificativa
la numeración,
o sea, conforme a un profesor
de sociología
tiene una experiencia valiosa
que aportar,
pero en cambio un abogado no, eso
no puede ser por esta dinámica;
considero que debe los colegios,
deben esforzarse en corregirlas
y la Administración
también debe esforzarse por corregir.
Podríamos hacer varios
más futuristas,
como las mutaciones, que la
inteligencia artificial
va a conllevar para los presupuestos
procesales relativos al tribunal,
a las partes, y yo creo que
la postulación no se va
a escapar de esas postulaciones
de esas mutaciones perdón,
pero eso es algo que comenzaremos
cuando tengamos esto más avanzados.
Nada más y muchas gracias.