Idioma: Español
Fecha: Subida: 2025-01-21T17:15:00+01:00
Duración: 28m 04s
Lugar: Conferencia
Visitas: 84 visitas

Inteligencia Artificial y Administración de Justicia: una visión doctrinal

Ponencia impartida por Rafael Castillo Felipe. Profesor de Derecho Procesal en la Universidad de Murcia

Transcripción (generada automáticamente)

Qué va a continuación mi compañero Rafael Castelló Felipe, que de irse al Pacer de escucharlo? O esto que es una cabeza francamente bien formada? En el ámbito procesal y en muchos. Sería bueno, en primer lugar, me gustaría comenzar agradeciendo, como es de rigor y justicia, quiero agradecer en primer lugar a la cátedra identidad y derechos digitales, su invitación también por supuesto, a la Fundación Integra y, cómo no, al Colegio de Abogados de Lorca, que tan amablemente nos ha cogido esta tarde quiero agradecer también a 2 personas que para mí son referentes indiscutibles y una fuente de inspiración de trabajo diario y compromiso con la universidad, pero también con la sociedad, como son el profesor Valero Torrijos y la profesora Vidal. Muchas gracias a ambos por haber pensado en mí para intervenir en la Mesa de esta tarde y sobre todo por la labor que hacéis dicho. Esto voy a extender ya al tema que nos ocupa esta tarde. Lo haré evidentemente desde un punto de vista doctrinal que va a confrontar en algunos puntos con posturas que se han expuesto en la Mesa abierto, ya que si esta confrontación se produce será siempre desde el cariño y, por supuesto, el máximo, el máximo respeto. El tema de la inteligencia artificial en la doctrina procesal no es tan novedoso. Quizá como pueda parecer o como pueda parecer para la sociedad en general de inteligencia artificial, en general, venimos oyendo hablar desde hace 2 años, pero en la doctrina procesal la atención sobre esta materia la pusimos con el caso compás versus lumes, que surgió en Estados Unidos, en el que se aplicó una inteligencia artificial para mandar a un sujeto a prisión, y se descubrió que tenía un sesgo racista que a determinados tipos de sujetos de ciertas zonas y poblaciones étnicas, pues directamente los mandaba, más a la cárcel que otro tipo de sistema. Luego en el debate podemos ir profundizando un poco en el punto de partida que plantea. El tema de la dificultad inicial siempre es el mismo no, que es la inteligencia artificial si me detuviera aplicarlo. Pues no saldríamos de aquí en toda la tarde, y ni siquiera estaría seguro de haberlo explicado bien, con lo cual lo que voy a hacer es tomar el concepto legal que nos da el reglamento, inteligencia artificial y en virtud del cual nos dice que es un sistema informático que es capaz de funcionar con autonomía y que genera contenidos, recomendaciones y decisiones. Según el Reglamento, lo verdaderamente esencial de la inteligencia artificial es la capacidad de inferencia que tiene el programa, es decir, su potencial de creación, más la posibilidad de el mismo, ir adaptándose para reconfigurar se asimismo y sus algoritmos y darnos los resultados que pretendemos alcanzar con él y otros adicionalmente. Dicho esto, el qué marco legal contamos para aterrizar esto en la Administración de Justicia, pues ahora mismo y salvo que a mí se me escape de algo con 2 normas, tenemos, por un lado, el reglamento de inteligencia artificial, norma de carácter general, y, por otro, el Real Decreto 6, 2023, que también ha explicado don Antonio claro, a mi punto de vista, la insuficiencia inicial ya deriva a la coordinación de estas 2 normas porque si 1 se lee las 2 normas enteras, el espíritu o los efluvios que desprende cada norma son distintos. En el Real Decreto 6, 2023 hay una preocupación por la aceleración, es decir, por ir lo más rápido posible en materia de justicia, y eso lo trasluce todo el texto, a pesar de que aluda a algunas partes, a los derechos fundamentales. En cambio, el reglamento de inteligencia artificial hay una aproximación basada en el riesgo y en la protección de lo que de momento hace grande Europa, y no sabemos por cuánto tiempo, que es la protección de los derechos fundamentales, todo esto al mismo tiempo que intentamos no quedarnos atrás en el mercado de la inteligencia artificial. Por tanto, son 2 normas que, a mi juicio, colisionan en algunos puntos no voy a descender al detalle porque, si no, creo que nos enredáramos con normativas, que a lo mejor los oyentes no conocen, pero si alguien quiere en el debate, pues podemos abrir también comentar más en detalle esta cuestión. La cuestión. Dicho esto, cosas que debería hacer la poca legislación que tenemos y que no hace, a mi juicio, es esencial distinguir a la hora de definir. Aquí aplicamos la inteligencia artificial entre administración de la Administración de Justicia y aplicación de la inteligencia artificial a la función jurisdiccional. En sentido estricto. Esta distinción, que parece el primero carrera, cuando empezamos a estudiar organización jurisdiccional, es absolutamente fundamental, porque los requisitos y las garantías que rijan respecto a cada una de estas parcelas evidentemente, no pueden ser. El mismo. Si yo tengo un programa en materia de Administración de Administración de Justicia, para mostrarme visores, documentos clasifica al menos, eso no entra dentro del núcleo de la función jurisdiccional. Si yo tengo un programa que me va a dar borradores de resoluciones y que el juez puede seguir incluso ciegamente si falla el trámite de supervisión, eso está incidiendo forzosamente en la función jurisdiccional y por tanto, la próxima. La aproximación tiene que ser distinta. Ojo, porque el reglamento en el considerando 61 se da cuenta de esto y lo dice. En cambio el Real Decreto 6, 2023 se amalgama todo y este dato pasa absolutamente desapercibido, como pasaba antes también en algún punto de la Ley 18 2011, con lo cual si nos quedamos con esta premisa, es decir, tenemos que tener cuidado con implicar aplicar la inteligencia artificial al núcleo de la función jurisdiccional. Qué implicaciones podemos extraer de ahí la primera, muy sencilla, cómo aplicamos la potestad jurisdiccional o cómo se ejerce la función jurisdiccional, y aquí todos lo sabemos en el proceso, no. Y cómo configuramos el proceso por el principio de legalidad procesal, y esto no es que lo diga Rafael Castillo, es que lo dice la Constitución, está en el artículo 149, 1, 6, donde hay una reserva de ley a la configuración de la regulación de las actuaciones procesales. Primera consecuencia, los intentos de introducción de la inteligencia artificial no pueden variar la regulación de los actos procesales, previamente configurada por la ley, de forma que yo pienso en este punto, que es la informática la que debe adaptarse a la norma vigente, y no sustituirla por la puerta de atrás. Evidentemente, si no nos gusta la norma vigente, la podemos cambiar por los procedimientos que nos hemos dado constitucionalmente para ellos, pero lo que no podemos permitir es que el programa altere la norma, y pongo un ejemplo, partiendo un poco de la exposición de don Antonio. no conocía el proyecto de instauración del monitorio, pero sí había llegado a mis oídos que se exige para la presentación de los monitorios que se cumplimente un formulario. Esto es contrario a lo que dice la Ley de Enjuiciamiento Civil. Y explico por qué en los artículos 802 siguientes la solicitud monitorio, cuando la parte está asistida por abogado y procurador, no está subordinada a la presentación vía formulario, si ocurre, por ejemplo en el proceso monitorio europeo, en el proceso de escasa cuantía donde los formularios son obligatorios, con lo cual ese proceder, por muy ágil que agilice resulta contrario a la norma y plantea una situación de flagrante contradicción entre ellas. Si no nos gusta, cambiemos la norma y exijamos el formulario o utilicemos procesos en los que existe, en los que ya existe, el formulario monitorio europeo o la escasa cuantía, claro, entonces no tenemos suficientes y entonces no podemos poner en marcha del programa. No. La segunda implicación que se desprende de esta de esta aproximación es sí puesto que necesitamos del principio de legalidad procesal, por lo que acabo de exponer. Si verdaderamente necesitamos regular o no necesitamos regular, es decir, nos plantea la inteligencia artificial; si la aplicamos a la función jurisdiccional, se dan situaciones nuevas que requieran la atención del legislador. A mí me parece que sí? Me parece que sí? Porque si admitimos que la podemos aplicar a actos resolutorio del juez del letrado de la Administración de Justicia, lo que tenemos es un operador jurídico con funciones procesales, interactuando con un sistema exógeno, y ese sistema exógeno plantea riesgos para la función del operador y evidentemente, tenemos que regular el régimen de responsabilidad del operador identificar cuáles son los riesgos para intentar prevenirlos. Pero es que además el uso del sistema y la relación que se plantea entre el que maneja el sistema y el propio sistema no es inocuo para las partes, que piden potestad jurisdiccional, como voy a explicar un poco más adelante, con lo cual mi planteamiento es sencillo, que podemos exigirle al legislador y al resto de poderes públicos encargados de aterrizar la inteligencia artificial con la que he sido, si vamos a tener que convivir a la hora de regularla, porque lo que tenemos de regulación para mí es manifiestamente insuficiente. En primer lugar, qué podemos exigir Pues yo creo que una aproximación que respete siempre los principios que configuran el proceso, que en principio los jurídicos y técnicos, el dispositivo y aportación de parte en el proceso civil y el de oficialidad e investigación de oficio en el proceso penal, y me explico un poquito mejor claro que la inteligencia artificial la podemos utilizar para muchas cosas. Para fundamentación jurídica, don Antonio ha puesto un ejemplo antes, pero también la podríamos utilizar para valoración de la prueba y fijación de los hechos, y pongo un ejemplo. En Inglaterra se está trabajando en el desarrollo de un programa de un programa que se llama Advocats utilizado para valorar la fiabilidad de los testigos, utilizando igual, bueno, iniciar informatizando parámetros de psicología del testimonio y de la redacción del testigo con concretas circunstancias, con el fin de objetivar la valoración de la prueba en este. En este punto. Claro, mi pregunta es. Estamos por ejemplo, dispuestos a que un programa de inteligencia artificial en un proceso civil introduzca datos o máximas de la experiencia que el juez no posee de base? Por ejemplo, estamos dispuestos a que en un proceso en el que se impugnan cual no partición al por errónea valoración de un inmueble, el juez utilice un sistema que cuente con la posibilidad de valorar inmuebles y arroja una valoración distinta a las periciales de las partes, incluso con argumentos distintos. La Universidad de Murcia creo que está interviniendo ya en un programa de valoración de inmuebles, no necesariamente para aplicarlo al al enjuiciamiento. A esta pregunta nos tenemos que enfrentar porque los programas van a ser capaces de hacer esto. Yo creo que seguramente todos los que estamos aquí no nos dejen los principios del proceso civil, de momento como esta no, porque parece que de momento regulan una adecuada distribución, esos principios de los roles entre el juez y las partes y los poderes que cada una de esas partes tiene. Por tanto, lo primero que le exigiría yo al legislador configurar una regla de indemnidad de los principios jurídico-procesales a la hora de regular la inteligencia artificial, y, evidentemente, si no nos gusta los principios, que son construcciones lógicas, los podemos cambiar, pero, cuando estemos, seguro de lo que estamos haciendo no debemos permitir que los principios no los adulteren de por sí el sistema, porque eso altera la posición de las partes dentro del proceso podría poner ejemplos en materia del proceso penal, también, por ejemplo, qué ocurre? Si utilizamos un programa en que se nutre de datos y aprendemos la experiencia previa y tenemos una parte que ha recibido varias condenas civiles o varias condenas penales, teniendo en cuenta que la inteligencia artificial no razona, igual que nosotros, a la hora de sugerir un borrador de resolución, va a ser capaz de abstraerse, por ejemplo, para respetar la presunción de inocencia o para evitar un sesgo de reiteración en un proceso civil en que se vuelva a condenar esa parte, simplemente porque ya se le condenó en procesos anteriores. Bueno, esto quizá tengamos que pensar. Segundo, que se puede ser una cuestión que se puede pedir al legislador a la hora de regular cómo regulamos las obligaciones de control que nos impone el Reglamento, en tanto en cuanto estamos en un sistema de, en un entorno de alto riesgo, como es la Administración de Justicia, y la función de enjuiciar, y aquí hay 2 puntos. Primero quien se encarga de aterrizar el sistema y quien tiene algo que decir en ese aterrizaje en el sistema y después Cuáles son las obligaciones de supervisión que debemos configurar para los operadores jurídicos concretos que manejan el sistema respecto a quien se encarga de aterrizar el sistema, a mí me parece que aquí el Consejo General del Poder Judicial no puede escurrir el bulto, cosa que por lo demás dice hasta el propio Comité técnico estatal de la Administración de Justicia en un documento recientemente publicado, que se denomina política de uso, la inteligencia artificial dice. Ojo, cuando la inteligencia artificial incida en la potestad jurisdiccional, aquí el consejo tiene que pronunciarse. Nosotros en esto no pinchamos, sin perjuicio que podamos emitir informes, no bien. Habría que reformar la Ley Orgánica del Poder Judicial también, sobre todo porque en 2018 el apartado del artículo 560, que hacía referencia a la supervisión de los programas por el Consejo General del Poder Judicial, se eliminó y yo no lo ha vuelto a haber. Entonces habrá que darle una vuelta también a cuáles son las funciones del consejo en esta materia, y dicho esto, si le atribuimos funciones al consejo surge gran pregunta. Hasta qué punto está preparado el personal que integra el consejo para pronunciarse sobre la vulneración de derechos fundamentales que puede implicar la inteligencia artificial? No por nada, porque entender cómo funcionan los programas es una labor absolutamente compleja. Yo he dedicado bastante atención y todavía tengo bastantes lagunas y habrá puntos que seguramente nunca llegue a comprender, salvo que considerase al dar un informativo durante unas cuantas horas, cosa que todavía no ha sugerido. Me parece que el consejo debería contar aquí con auxilio, y ese auxilio, a lo mejor no deben ser los operadores privados que desarrollan los programas, porque cuando 1 desarrolló un programa lo que quieren vender el producto y nunca va a decidir hoy me he equivocado. Esto lo he hecho mal o tal vez yo llevo propugnando desde 2021 en un trabajo que dice sobre el proceso civil, la inteligencia artificial, la necesidad de crear un instituto que yo denominaba entonces de informática, judicial e inteligencia artificial. Siempre me dicen lo mismo. Es que no tenemos dinero lo sé, pero eso no hace que yo no deba recordar esto aquí porque creo que nos podría ser de suma utilidad. Primero, para seleccionar perfiles híbridos. Entre el derecho y la informática nos comentaba don Antonio, que los programadores no saben que en Navidad la justicia es inhábil, un perfil híbrido. Eso lo sabría perfectamente; en segundo término, para asistir en las pericias de inteligencia artificial, que vamos a tener que hacerlas, ojo, y, en tercer lugar, y en tercer lugar, para asesorar al Consejo. Esta materia por un personal que revista ciertas garantías de independencia. Si seguimos indagando un poco más en la materia, segunda cuestión. Una vez le hemos pasado este marrón al Consejo General del Poder Judicial. Las obligaciones de supervisión se extienden a con qué datos vamos a entrenar a los sistemas de inteligencia artificial. vengo leyendo, hay que usar el Cendoj, pero mi pregunta es la siguiente. Si 1 se va haciendo y yo por otro trabajo no tiene que ver con esto lo estuvo, hacíamos una materia concreta desde hace unos 3 o 4 meses se encuentra resoluciones muy buenas, excelentes, buenas, regulares, malas y muy malas, claro, coger el centro a lo bestia y entraran en inteligencia artificial con ello no me parece que sea una buena idea, sobre todo porque si vamos a poner ese programa a disposición del juez que dicta resoluciones excelentes o muy buenas, le vamos a pasar los patrones que infiere la inteligencia artificial de Afganistán, resoluciones malas o muy malas. Tengamos cuidado con esto. Es verdad que estoy simplificando la cuestión, y aquí entran patrones a la hora de seleccionar los datos, que son propios de la programación de los algoritmos, pero debemos tener esta precaución. También descendiendo a la segunda cuestión que ofrece la supervisión Qué vamos a exigir a los encargados de supervisar las actuaciones judiciales asistidas porque este es el punto que más nos aterra, nos aterra que puede haber una máquina dictando resoluciones sin ningún tipo de control humano, sobre todo porque el control no se produzca por la prisa que tenemos todos en la Administración de Justicia todos los días, y que es competente y que es comprensible? Y por qué nos da miedo? Porque ya hemos conocido esto que sea más esa automatización en la praxis forense, quien no ha visto una resolución dictada por un operador jurídico, que no ser, que tiene la potestad para emitirla, y que contiene un error caso y se notifica al justiciable. Igual no lo dice aquí ha fallado la supervisión. Para eso no se necesita inteligencia artificial. Podría contar algún algún caso, y lo mismo ocurre con el uso de inteligencia artificial, por los letrados, como ponía de relieve. Dicho esto Cuáles son las herramientas que tendría que disponer la ley o intentar articular para fijar cuáles son las obligaciones de supervisión. En primer lugar, la formación específica es absolutamente fundamental en materia de inteligencia artificial y en materia de sesgos de los operadores jurídicos, incluso cómo debemos aproximarnos a la inteligencia artificial. Si yo llego, debo llegar al programa de inteligencia artificial tocarle el botón y que me salga la resolución sin haber pensado. O es mejor en el momento en que se puede hacer que el juez piense la resolución y la redacte a través del programa inteligencia artificial. Por eso me ha gustado mucho la aproximación al monitorio que ha hecho don Antonio, porque ellos califican jurídicamente y con códigos van dirigiendo la redacción del procedimiento. Esa es la forma correcta de hacerlo aunque sea menos, menos rápido. Dicho esto, me pregunto también y esto es algo que no tengo claro lo lanzo aquí al auditorio. Si debemos incorporar medidas de desintoxicación algorítmica. Una vez admitamos la celebración de actuaciones procesales asistidas porque lo que todavía no está claro es qué impactos va a tener para todos los que usemos la inteligencia artificial, en nuestras capacidades de creatividad, de razonamiento y si nos vamos a ir olvidando poco a poco, no lo sabemos, porque todavía no nos hemos aprobado en este tema, pero hasta que tengamos claro cómo hemos interactuar en la relación humano -máquina, pues a lo mejor estas desintoxicación algorítmica. Puede ser interesante, concretando un poco más las medidas. Tercer punto de refuerzo. Las obligaciones de supervisión. Hay que tocar el régimen disciplinario de los operadores jurídicos que actúe con estos sistemas de responsabilidad asistida, de manera que la falta de supervisión se sancione. Pienso, por ejemplo, los artículos 416 419 de la Ley Orgánica del Poder Judicial, que regulan el régimen de responsabilidad disciplinaria de jueces y magistrados y abierto ya, a mi juicio, que incluir infracciones administrativas configuradas para empezar sobre el tipo de peligro abstracto, es decir, que el mero quebranto de la obligación de supervisión, con independencia de que cause algún resultado daños o sea sancionable, y si además se causa un resultado razonable, elevamos la calificación de la infracción, por ejemplo, del leve agraviado. Grave muy grave, según reputen tercer cosa, que cabe exigir al legislador prohibiciones en una tecnología que tiene tanto riesgo, hay que prohibir y yo no soy fan de prohibir muchas cosas, pero hay que prohibir prohibir algunas prácticas que a mí se me ocurre que se puedan utilizar con estos sistemas, por ejemplo, que se pueda intentar torcer la voluntad de los operadores jurídicos para de las partes para obligarles a realizar actos que no quieren hacer. Pienso, por ejemplo, en una conformidad penal reforzada con un borrador de sentencia redactada, impuesta al frente del abogado. Ya sabemos que las conformidades hay muchas veces cierta presión o con cierta intensidad y que, si no, seguramente tenga que condenar, o sea que hacer aquello, otro claro, cuando encima se disponga de las sentencias esto puede ser tremendo, así que lo prohibimos y nos olvidamos problemas. En segundo lugar, hay que prohibir la motivación genérica por remisión al algoritmo. Una vez tengamos programas que sean capaces de hacerlo, de forma que una motivación, tal como como acertadamente ha señalado el algoritmo, debemos fallar a favor de eso, hay que hay que prohibirlo. En tercer lugar, una prevención mínima de prudencia. Me parece prohibir que los algoritmos o las decisiones asistidas puedan utilizarse en procesos en los que las propias empresas que los crean sean parte, sobre todo porque, como no tenemos forma de saber a ciencia cierta, cómo funcionan estos programas, nunca sabremos que en la trastienda de la máquina, aunque es verdad que se imponen ciertas prevenciones por parte del Reglamento de inteligencia artificial de información, al proveedor. Ahora si un proveedor ha tocado, si es que se puede hacer a nivel técnico del algoritmo, eso nunca nos lo va a decir ni lo. Vamos a saber, de cara a los pleitos que pueda tener su empresa, por ejemplo, en materia de protección de datos, y en cuarto término deberían prohibirse. Los experimentos no amparados por una expresa autorización del Consejo General del Poder Judicial de forma que voy a empezar a aprobar con el justiciable y a ver qué pasa, eso no debería hacerse en Internet, con la aplicación de la inteligencia artificial, a funciones jurisdiccionales. Para eso hay bancos de pruebas seguros, que son los entornos en los que deben trabajarse con este tipo de sistemas, no directamente con expedientes reales en relación con las partes que debemos regular. En primer lugar, la obligación de transparencia hoy me tienen que decir a mí el operador jurídico que está utilizando un sistema de inteligencia artificial y cuáles son los parámetros que los nutren, de eso no hay duda, porque ya la Ley del derecho de defensa en su artículo 12 4, recoge este derecho de información a saber cómo funcionan los los algoritmos, lo verdaderamente difícil no es fijarlo de transparencia. La obligación de transparencia, que puede ser de sentido común, lo verdaderamente difícil es concretar hasta dónde debe llegar esa obligación de transparencia, por ejemplo Debe el juez. Incluir en su resolución cuando ha utilizado o el letrado, la Administración de Justicia, inteligencia artificial, los productos que ha utilizado, la información de entrada que le ha metido a la máquina para saber cómo se sabe cómo se produce la resolución. Yo sé que me haya tanta respuesta. Sería. Hombre no cómo se deshaga. Juez que tendría que pagar. Las utiliza para buscar la jurisprudencia en el sector ya. Pero es que la información que les suministran programa no es inocua, y a lo mejor un programa tiene un sesgo a mí me interesa saber si el sesgo viene del programa o viene de la información que le ha metido el juez en el tramo, es decir, lo que le ha pedido a la máquina. A lo mejor debemos pensar en ese punto que esa información debe estar disponible por si las partes la quieren revisar en busca de un posible sesgo del programa. Porque aunque se entesten los programas, pueden alucinar y generar sesgo. Si quieren en el debate. Podemos hablar de los bigotes dicho esto voy acabando y resulta de especial trascendencia también regular cómo se van a practicar las pruebas periciales en materia de inteligencia artificial, sobre todo porque la experiencia del caso Lunnis al que me he referido al principio lo demuestra. Plantea que están surgiendo problemas entre la protección de la información confidencial del algoritmo de los paquetes de datos por el secreto empresarial y algoritmo, por la propiedad intelectual, aunque esto es algo más difuso a la hora de acceder a la información de funcionamiento para practicar periciales sobre sobre los mismos, esto fue lo que pasó en el caso lunes en la parte quería acceder al programa que había dictaminado sobre su peligrosidad, pero el secreto empresarial impedía el acceso a esa obligación confidencial en programas que se utilizan en entornos públicos. El reglamento impone que se debe facilitar bastante información por parte de los proveedores, con lo cual aquí ya puede haber datos para practicar una prueba pericial accesibles y relativamente públicos en programas que se utilicen por las partes, aprueba aporte una prueba hecha con inteligencia artificial, o quiero demostrar que una ultra falsificación es falsa. El problema puede ser mayor porque habrá que requerir a un tercero para que nos suministre información sobre su programa, que puede estar sujeta a secreto empresarial, y aquí tengo una buena noticia. Yo creo que tenemos herramientas. Tenemos, por ejemplo, el artículo 15, 2 de la Ley de secretos empresariales, que se aplica tanto a procesos en materia de secretos empresariales como a procesos que no versa sobre secretos empresariales, pero los que es necesario decidir sobre algún punto del secreto empresarial. Este artículo establece diversas limitaciones a la publicidad que no voy a detallar perfectamente, nos podría servir para que se suministraba la información práctica, una pericial sobre ese algoritmo y mantener la información a salvo de terceros en virtud de esa publicidad inherente al proceso. Igualmente, algunas medidas en materia de confidencialidad de acceso a las fuentes de prueba en procesos de derecho a la competencia del artículo 183 bis y siguientes de la Ley, podrían extenderse con carácter general para cuando haya que practicar pruebas de este tipo, y voy a concluir ya haciendo alguna mención en honor a la casa en que nos encontramos, a cuál debe ser el rol de la abogacía en todo esto. Yo creo que no podemos esperarnos a verlas venir, tenemos que tomar un papel activo y proactivo formándonos y exigiendo que se nos incluyan los procesos de toma de decisiones. Sobre esta materia. Voy a poner un ejemplo gráfico me he referido varias veces a la política de uso, de la inteligencia artificial del Comité técnico estatal de la Administración de Justicia. En los principios básicos que deben orientar esta política se alude al principio de calidad y seguridad, y se dispone lo siguiente. Para un correcto desarrollo de la vía debe aprovecharse la experiencia de los profesionales en general, como sería jueces, fiscales, investigadores y profesores de otros campos, tanto el derecho como en las ciencias sociales o de la propia ingeniería no entiendo cómo no está reflejado aquí una expresa referencia a la experiencia de los abogados y me da igual que sea ejemplificativa la numeración, o sea, conforme a un profesor de sociología tiene una experiencia valiosa que aportar, pero en cambio un abogado no, eso no puede ser por esta dinámica; considero que debe los colegios, deben esforzarse en corregirlas y la Administración también debe esforzarse por corregir. Podríamos hacer varios más futuristas, como las mutaciones, que la inteligencia artificial va a conllevar para los presupuestos procesales relativos al tribunal, a las partes, y yo creo que la postulación no se va a escapar de esas postulaciones de esas mutaciones perdón, pero eso es algo que comenzaremos cuando tengamos esto más avanzados. Nada más y muchas gracias.

Propietarios

UMtv (Universidad de Murcia)

Publicadores

Cátedra Sobre Identidad Y Derechos Digitales

Comentarios

Nuevo comentario

Serie: Inteligencia Artificial y Administración de Justicia (+información)

Descripción

Fecha: Martes 21 de enero de 2025
Lugar: Ilustre Colegio de la Abogacía de Lorca

Ponentes
- Rafael Castillo Felipe. Profesor de Derecho Procesal en la Universidad de Murcia
- Elvira Segura Rojas. Abogada del Ilustre Colegio de Lorca
- Antonio Luis Valero Canales. Letrado de la Administración de Justicia

- Modera: María Fernanda Vidal Pérez. Abogada. Profesora Asociada de Derecho Procesal en la Universidad de Murcia
Canal Cátedra Gestión de la Diversidad

Presentación mesa redonda

María Fernanda Vidal Pérez. Abogada. Profesora Asociada de Derecho Procesal en la Universidad de Murcia