Idioma: Español
Fecha: Subida: 2024-12-03T00:00:00+01:00
Duración: 2h 08m 45s
Lugar: Colegio de Abogados de Cartagena
Lugar: Mesa redonda
Visitas: 469 visitas

La incidencia de la Inteligencia Artificial en la responsabilidad civil

Descripción

Jornada organizada por la Cátedra Fundación Integra sobre Identidad y Derechos Digitales de la Universidad de Murcia con la colaboración del Ilustre Colegio de Abogados de Cartagena.

17 h. Presentación
- Ángel Méndez Bernal. Decano del Ilustre Colegio de Abogados de Cartagena
- Julián Valero Torrijos. Catedrático de Derecho Administrativo. Director de la CIDD. Universidad de Murcia

17.15 h. Mesa redonda
- Gabriel Macanás Vicente. Profesor de Derecho Civil en la Universidad de Murcia
- José Muelas Cerezuela. Abogado del Ilustre Colegio de Cartagena
- Fernando Madrid Rodríguez. Magistrado titular del Juzgado de Primera Instancia número 5 de Cartagena
- Modera: María Fernanda Vidal Pérez. Abogada. Profesora Asociada de Derecho Procesal en la Universidad de Murcia

Transcripción (generada automáticamente)

La. La. Señor Trevín. En primer lugar, pedir disculpas por bueno, porque tengo la voz un poco poco perjudicada. Intentaré hablar poco para para quien todavía me quede algo bien. Pues bien, bienvenido reitero a este curso sobre inteligencia artificial, y su impacto en la responsabilidad civil vivimos en una era que donde la tecnología avanza un ritmo vertiginoso está transformando nuestras ciudades nuestras sociedades y cómo no nuestras economías y por supuesto también muestro nuestro derecho la inteligencia artificial se va a ser y ahora mismo ya es una herramienta muy poderosa en los aspectos jurídicos en que se puede utilizar, pero a la vez también yo, desde luego, desde mi punto de vista es una herramienta también bastante peligrosa de la tarde de hoy nuestros ponentes gobernar resolver preguntas preguntas delicada no por ejemplo estas preguntas que nos dicen Cómo cómo se puede garantizar justicia o cuando un un algoritmo puede tomar en parte a lo mejor decisiones no, o quién responde cuando un sistema autónomo causa causa un daño. Sobre eso va a ir la charla interesantísima esta tarde. Yo quiero expresar, desde luego, mi gran agradecimiento a la Universidad de Murcia en especial a quien me acompaña aquí esta tarde en esta mesa de inauguración a don Julio Valero Torrijos, catedrático de Derecho Administrativo y director de la Cátedra Fundación Integra, sobre identidad y derechos digitales de la Universidad de Murcia, y es que gracias a ellos realmente, pues estamos, estamos aquí esta tarde y, por supuesto también agradecer, cómo no, a todos los magníficos ponentes que nos van a acompañar esta tarde. Agravio bacanal al profesor de Derecho Civil de la Universidad de Murcia, José Muelas Cerezuela, decano de mérito de este colegio y abogado en ejercicio a don Fernando Madrid Rodríguez, magistrado, titular del Juzgado de Primera Instancia número 5 también, cómo no, muy especialmente a mi querida compañera y amiga, María Fernanda Vidal Pérez, es abogada y también profesora asociada de Derecho Procesal, de la Universidad de Murcia. Los ponentes que vamos a disfrutar esta tarde de escucharla son, pues vamos nivel absolutamente excelente esta materia y el primero, insisto, es don Julián Torrijos. Aquí ya sin más le voy a dar la palabra para que proceda a comentar, pues la realidad de este curso y todo lo que vamos a aprender en el mismo, que no hay nadie mejor que el que quien lo ha organizado para efectuar esta introducción. Muchas gracias. Muchas gracias a ti, decano y especialmente al ilustre Colegio de Abogados de Cartagena por la amabilidad de acoger esta jornada, con la que intentamos ofrecer una reflexión crítica sobre el uso de esta tecnología tan disruptiva, no y tan de moda, como es la interinidad artificial, mucho más allá de la reciente reforma que ha habido ahora en el ámbito de la Unión Europea hace tan solo unos meses y que ha puesto de moda no lo que es el régimen jurídico de la entidad artificial. Me parece especialmente interesante hacer un intento de aproximación sectorial en algunos ámbitos concretos, donde esta tecnología puede tener un enorme impacto, más allá de analizar la regulación europea con sus medidas de garantía, que seguramente saldrán a lo largo de la sesión. Creo que es muy relevante hacer un ejercicio de realidad de cómo esta tecnología está afectando a instituciones, a principios, a regulaciones concreta y a problemáticas muy asentadas en el mundo del derecho, como puede ser la responsabilidad civil, pero que nos sitúa ante el nuevo desafío, sino problemas para los cuales hace falta tener una visión un poco más elevada del día a día, y este es el sentido de la jornada de hoy. Pretendemos, sobre todo, poner encima de la mesa un debate sobre una realidad que ya está aquí y que no podemos pensar que es una cuestión de futuro, sino que ya se están empezando a plantear problemas de carácter práctico en relación con la incidencia que tiene esa tecnología, por ejemplo, a la hora de indemnizar los daños que se pueda causar en diversos ámbitos, podemos pensar en un ámbito muy asentados. En el entorno digital, como puede ser el comercio electrónico, pero hay otros muchos que están por venir a corto o medio plazo y algunos quizá más largo plazo, como puede ser la conducción autónoma. En definitiva, es el momento ahora de empezar a sentar las bases de la respuesta que el derecho debe dar a estas nuevos escenarios de disrupción tecnológica. Esta es una actividad que está impulsada y financiada a través de la cartera, Fundación Integra, de identidades digitales. Tenemos la suerte de dirigir, que es una iniciativa impulsada por la Comunidad Autónoma de la Región de Murcia, a través de la Fundación Integra, y gracias al apoyo de esta fundación del Gobierno regional, podemos desde hace ya prácticamente 3 años se están organizando actividades de reflexión, de formación, de investigación que intentan dar respuesta a un papel que debe jugar el derecho en este entorno a esta sociedad digital y digitalizada, donde prácticamente todo ya lo que sucede se puede registrar, guardar y hay temas de gran actualidad, enorme debate, como precisamente estos días se ha planteado la cuestión relativa a la gran cantidad de datos que van a recoger los hoteles, no de cuando nos registramos todo, se va a quedar digitalizado y va a generar una base a 2 tremenda, no de una cantidad de información que supuestamente lo que se pretende es hacer un, un sobre todo un una aproximación mucho más eficaz a la lucha frente a cierto tipo de delitos delitos, pero al mismo tiempo tenemos modelos de 2 caras. También hemos visto recientemente cómo la Agencia Tributaria, la Agencia Tributaria nada más y nada menos ha sufrido un ataque de ciberseguridad muy importante. En definitiva, no podemos ser tan ingenuos de pensar que esta tecnología, prácticamente que nos jubila, no que no nos deja ver la realidad va a ser solamente un una fuente de mayor eficacia y eficiencia mayor es posible, sino que también va a tener un impacto sobre nuestros derechos, sobre nuestras libertades, y qué mejor que un foro profesional especializado en el ámbito del derecho, como el ilustre Colegio de Abogados de Cartagena para hacer esta reflexión, así que gracias por vuestra amabilidad y para mí es un placer, además especialmente el hecho de poder compartir el programa con ponentes, tan cualificados como él decía en primer lugar, y me van a permitir que me he saltado en el programa, pues don José Muelas Cerezuela, que sin duda es una referencia en el ámbito del derecho y la tecnología mucho más allá de Cartagena. Por si no lo saben, seguro que lo saben porque lo conocemos. Años que yo, pues una de las primeras personas que en España empezó a hablar de lo que era la firma electrónica fue el pionero en muchos ámbitos, en muchos sectores, y yo recuerdo que una de las primeras veces que escuché hablar de esta cuestión fue escuchándole antes de empezar la sesión comentado o no alguna anécdota de un evento en que recuerdo coincidimos allá por el año 1999 del año 2000, más o menos por aquella época también por el hecho de poder contar con don Fernando Madrid como magistrado o no, porque nos va a dar una visión también desde el punto de vista de quien tiene que tomar decisiones en situaciones de conflicto que no siempre van a estar reguladas. No pensemos que el reglamento europeo, intensidad artificial, no va a resolver todos los problemas, va a dar un marco normativo general con la finalidad de generar un mercado digital. Esta es la finalidad, las normas europeas, de manera que la Unión Europea no tiene especial interés de momento en regular establecer unas reglas específicas sobre Interdin, artificial en el ámbito de la responsabilidad civil. De hecho, imagino que en el debate saldrán varias posturas, varias iniciativas, pero la idea es que esta es esta problemática. La vamos a dar en el que resolver en modo local serán, pues los juzgados, como el que dirige nuestro invitado al magistrado, en los que tengan que tomar decisiones a partir de principios generales a partir de conceptos jurídicos muy amplios, que ayer remangarse y aplicar en una situación concreta donde la solución no va a estar disponible área de un algoritmo, al menos de momento y sobre todo también es un es una satisfacción poder compartir mesa con mientras apreciado compañeros los profesores Gabriel Maracaná, semana general Vidal, especialmente en el caso Marea -Fernández, porque, bueno, fue profesor mío de Derecho Procesal y guardo un magnífico recuerdo personal y profesional de ella y esta situación esta jornada con me permite compartir. Creo que nunca hayamos coincidido en Fernanda es un placer estar también con ella. En definitiva, y aquí me voy a caer porque es el momento de escuchar a nuestros ponentes, es esta, es una una oportunidad para que desde la cátedra Fundación Integra sobre Oriente ha hecho digitales. Pues sigamos haciendo el trabajo que hemos venido haciendo. Nos parecía importante descentralizar no las actividades que realizamos, y ya adelanto que vamos a intentar volver cada vez que desde el colegio se nos abren las puertas. Será un placer colaborar en la realización de otra jornada sobre muchos desafío no profesionales, que seguramente la tecnología pone como colectivo, no como colectivo de la abogacía a la hora de dar un mejor servicio a nuestros clientes y defender de manera eficaz y eficiente pueden obtener los derechos y libertades individuales también a nivel social, que creo que son un reto tremendo. Pues gracias a que el pueblo extraordinaria como muchísimas gracias y sin más, damos paso a muchas gracias a todos. Anual. Buenas tardes. Continuando en el uso de la palabra con respecto al que me han precedido en torno al agradecimiento, yo sinceramente también quiero hacer un agradecimiento, en primer lugar, por sus amables palabras y por permitirme la posibilidad de no solo estar aquí esta tarde, sino haber podido compartir con los ponentes un rato de conversación que el que realmente ha andado una vida increíble, o lo quiero agradecer a todos, a la propia Facultad de Derecho y cómo no colegiada, o de Cartagena-Ángel para mí sabéis que proceda a otro colegio, pero siento que siempre se empieza el colegio como mi propia casa. Es decir, digamos que sería una colegiada; pues quizá como queráis llamarme, pero para mí es importante. En último lugar quiero tener unas palabras simplemente de recuerdo para todos mis compañeros de Valencia que lo están pasando francamente mal, que están en una situación absolutamente delicada, con el único objetivo de que los podamos tener presentes y que no caigan en el olvido la situación en la que estaban pasando Unida, su tragedias personales, lo que supone el desarrollo de una profesión. Como el ejercicio de la abogacía contribuyen a que su día a día sea francamente duro y difícil y especial mención dentro de todos ellos, acaban pecando de los colegios, y, en especial a José Soriano, decano del Colegio de Aguas de Valencia. Además, me parece un profesional digno de alabanza lo que está haciendo por sus colegiados, eso casi un milagro. Yo creo que este señor, cuando comparecieron cuando termine todo el problema que tienen actualmente, van a necesitar un periodo reposo porque no he visto una persona más activa, más luchando por sus colegiados, mejorando la presente y, en fin, sirva por tanto un poco de tributo a todos nuestros compañeros, que, lamentablemente, no tienen una situación tan beneficiosa como podamos tenerla nosotros hoy día. En último lugar. En último lugar, pues también hacer una llamada a la abogacía en general. Como soy, como profesora, que soy ya 35 años, por eso la 38 años abogado y quizá tengo la perspectiva de poder intuir, no aprender estoy hablando todos los días se llama tercer ámbito que haya un campo jurídico bueno para todos los abogados, es decir, no veamos ahí ya. Como me van a hacer una demanda, va a ser fácil el trabajo. Veámoslo como un campo de trabajo, iniciaremos nuestra órbita de trabajo, sobre todo en el ámbito de la responsabilidad civil, en todas sus esferas, que podremos seguir discutiendo durante mucho tiempo, y creo que vamos a tener que iniciar alguna jornada porque te invito y te rojo el guante, porque yo creo que pasado el primer momento de AMI normativo, como se suele decir ahora vendrá el segundo. Cómo lo encajamos? Procesalmente y eso tiene mucho que ver con la abogacía tradicional, con una perspectiva mucho más moderno. Bien, en primer lugar, voy a conceder la palabra a la Virgen Macarena vigente que licenciado en Derecho por la Universidad de Murcia en 2009 con premio extraordinario en el 2010, máster en derecho de seguros y además fue becario, de formación de profesorado universitario en el Colegio de España. Se doctoró en Derecho por la Universidad de Bolonia y en 2016 tenemos la suerte de que se incorpore a la Universidad de Murcia. La Facultad de Derecho es profesor de Derecho Civil, autor de diversas publicaciones y articulas, el artículo 2, también en materia de Digitalización e Inteligencia, Artificial y responsabilidad civil, y ha realizado actividades de muy diversa índole colaborando con despacho, colegios, colegios de apis, ha sido árbitro de consumo y, como dato curioso puedo decir que asesoró en la primera propuesta de reforma del Código Civil en relación a la cuestión, a la responsabilidad civil, libros y los animales, y luego en alguna cuestión más concomitante, para mí un lujo, poder presentarlo para ser el primer ponente y espero y confío y sé que será bastante ilustrativo al respecto. Muchas gracias. Buenas tardes a todos. Yo también tengo que agradecer estar aquí al colegio de Cartagena, que una vez más me acoge cada año. Vengo llegado a dar clase a nivel, va a hacer derogación, siempre me siento muy acogido, disfruto mucho las clases y aquí y me alegro de poder estar aquí de nuevo. Agradezco también a Julia Julián. Ya se me van acumulando las cosas que agradecer a don Julio ame, un proceso que 1 ve cómo comunica, cómo investiga, cómo organiza y 1 piensa más por lo menos drama en las clases, pero que luego lo alumno le adoran a él y a su asignatura de Derecho -Administrativo. Entonces ya no sé si alguien, migración o casi envidia por mi parte, pero bueno así se lo agradezco mucho y bueno, María Fernanda Anda que además de llevar como y además llevar como lleva la abogacía, que todos ustedes saben lo que cuesta, lleva año década, desplegando generosidad en la universidad dándonos clase y dando clase; y no solo eso, sino que la emoción que tiene por aprender cada día no es solo un tesoro para ella, sino un impulso para lo que tenemos. Suerte del rodearlo que nos anima siempre a seguir aprendiendo y no ya como un deber, sino como lo que o como lo que debería ser, que un placer hecho. Luego agradecimiento que espero que no me cuenten para tarjetas. Yo ya ahora, para empezar, yo tengo que hablarle todos. Tenemos que hablarle de inteligencia artificial, y la inteligencia artificial; un campo relativamente nuevo. Cada vez que entramos en campo nuevos tenemos una dificultad, porque o bien le explico todas las bases pormenorizadamente se acaba la ponencia o asumo que las sabe ni puede que alguien no se termine de enterar. Hay que tomar decisiones, y yo aquí espero que sean indulgentes conmigo. Voy a hablarle de cuestiones generales para empezar, sí; pero cuando le expliqué cuestiones sobre todo cuestión informática, voy a hacerlo no con una voluntad científica de agotar el tema, sino más bien ejemplificativa mente. Quiero que entendamos de lo que voy a hablar mucho más que agotar. Luego se podrán salir explicaciones más específica, y si ustedes saben poder decir que es simple, si lo lamento, pero fue deliberadamente para que podamos avanzar, porque hablando de inteligencia artificial, lo primero es dar una buena noticia, buena noticia que además creo que es necesaria entre jurista juristas me da la impresión de que a veces estamos abocados moderadamente, al crecimiento, al crecimiento sobre todo como circunstancia que nos rodean, porque la ciencia jurídica, el derecho, no es una ciencia especulativas, tono, filosofía, toda una ciencia práctica, y nosotros resolvimos problema y cómo resolvemos problema, buscamos problemas, ya saben ustedes que quien va con el martillo en alto solo ve clavo, nosotros vemos problema en las cuestiones, sin embargo, la inteligencia artificial, que no es futuro sino presente, está aquí y para quedarse, por fortuna y por mucho que nos puedan ocasiones, asustar o inquietar como seguro que asustó la electricidad o el coche, o Internet sin necesidad de ir más lejos, todo ello ha beneficiado nuestra vida y todavía mejorar nuestra vida, y eso va a ocurrir con la inteligencia artificial, la inteligencia artificial para nuestra vida mejor. Yo no tengo duda de eso y sin embargo y de forma inevitable, también va a causar daño, igual que causan daños, los coches que causa daño en la electricidad y causa daño en Internet hay una diferencia. La diferencia y esto es donde me quiero centrar especialmente es que no estoy muy seguro de que tengamos recursos para jurídicamente tratar resaltar aquí también a veces lo jurista, juristas teóricos tendemos a ser un tanto concéntrico y cuando estamos viendo un tema que nuestro tema enseguida reclamamos una regulación específica que era una ley, una ley para lo mío porque yo he visto los problemas concretos y se necesita una ley yo creo que son una oposición generalmente equivocada el derecho civil lo que lo hace grandes precisamente los principios y que partiendo de unos principios comunes de siglo sino más podamos resolver la mayoría de las cuestiones, lo cual se sigue dando en muchísimos ámbitos también de la digitalización y eso no hace grandes. Si hubiera que hacer una norma por cada institución jurídica aplicada un nuevo problema, no tendríamos un ordenamiento jurídico, tendríamos un enjambre. Yo luego le digo que no sería derecho civil y sería Sevilla administrativo, lo cual no sé si puedo decir eso es hoy aquí; en cualquier caso, con la inteligencia artificial. El problema es que puede ser que en este caso, si la irrupción sea tan grande que no podamos aplicar los principios generales, y esto para explicar el porqué voy a resumiré algunas de las características propias de la inteligencia artificial y ver cómo dificulta aplicar lo que todos conocemos, como las reglas de responsabilidad civil extracontractual. Primera cuestión de 4 punto muy concreta. La primera cuestión es que la inteligencia artificial en la inteligencia artificial y en su desarrollo y uso, interviene mucho sujeto. Interviene como mínimo el desarrollador el que a veces alguna norma llame importador o distribuidor, el que finalmente acabe comparándolo usándolo, además de otros posibles sujeto interviniente, esto no imposibilite utilizar las normas que tenemos. Esto no es nuevo. En mi teléfono móvil que tengo aquí también ha pasado por toda esa mano, pero añade una capa de complejidad que se acumula a las que vienen. Porque mi teléfono móvil es algo único, tangible, y claramente identificable, como lo es un coche. Por eso un coche puede matricularse y por eso un coche puede asegurarse en su individualidad, porque se sabe que es el coche en una inteligencia artificial, que es un programa no es tan fácil por 2 motivos. Primero, porque es clonados; es decir, se puede copiar, y una sola inteligencia artificial puede estar en muchísimo dispositiva de muchísimos usuarios. Esto ya dificulta el que se pueda concretar específicamente en qué objeto productor, del daño estamos concretando, por ejemplo, un seguro, pero no solo eso, si bien los objetos de un coche se puede cambiar un motor, hay un motor que sale, otro que entra y hay sujetos que lo saben y pueden hacerse responsable en un programa informático que estos matices no sé si ustedes recordarán el MTO seguro que la mayoría así para que se haga una idea, los programas son líneas de código Homs 2 tenía unas 4.000 líneas de código aproximadamente el bum, 2, 10; tiene unos 80.000.000 de líneas de código Google, con todos los programas que tienen, segundos 2000 millones de líneas de código Por qué digo esto? Si de esos 80.000.000 de líneas de código o 40 o 10, me da lo mismo, yo cambio una línea, un programa diferente o el mínimo, y, si cambio 100, si cambio 1.000, si lo cambie el usuario y solo camión jaque Cuándo estaríamos ante una nueva inteligencia artificial, y cuando ante la misma, esto probablemente probablemente esto también podríamos solucionarlo, pero se complica más. Cuando llegamos al siguiente paso es que la inteligencia artificial puede cambiar este código por sí misma para explicarle esto sí aquí sí que necesito hacerle un pequeño paréntesis para hacerle no una explicación, sino más bien una metáfora de cómo funciona en inteligencia artificial; a ver un programa. En un programa el programador da instrucciones a un sistema para obtener un resultado. Lo más sencillo y 7 a pensar sumar. Introduce la norma de las matemáticas que le hice cuando hay 1 a 1 sumado fácil y sencillo. Si al programa informático quisiéramos que sumar a persona de una fotografía o, mejor aún de un vídeo se complica un poco más, porque tendría que identificar quiénes son las personas, tendría, por tanto, que diferenciarla de silla ustedes, por ejemplo, que son persona y que no es suya. Ahí el programador tendría que instruirle darle instrucciones para localizar a personas y decirle que las personas son las que tienen ojo, o las que tienen determinados parámetros físico que con una cámara puede captar bien, son las personas, van entrando y saliendo, imaginen para contar personas en una manifestación estos son programas reales de inteligencia artificial que voy a decir se hace mucho más difícil hay que entrar a la gente, saliera, tendría que decir sí a la inteligencia artificial que contará que descontará y que no identificara personas. El individuo y esto se hace cada vez más complicado y el programador tiene que dar más instrucciones y hacer más líneas de código, cada vez más difícil, y esto es lo que se ha hecho hasta ahora, pero con la inteligencia artificial se abre una nueva vía y decirle. Prueba tu es decir, se le da una base que la hace capaz de hacer intentos simplificando mucho, con esa base se le pone luego se le da información, datos, un vídeo, un vídeo, no 100 miles de vídeos, donde hay personal y se dice cuenta en la inteligencia artificial, utilizando método que vaya desarrollando conforme a la instrucción inicial de las que parten dice. Imaginemos que hay 100 80, se la hice mal; de falta volcó, otra forma 85. Bien va mejorando y va a acabar haciendo lo mejor hasta que llega hacían bien 100, bien, y cuando ha dicho en muchísimas ocasiones se han perfeccionado. Hay ya lo hace bien. Entonces la inteligencia artificial, se cambiase misma porque para ir cambiando, para ir evolucionando ha ido teniendo que reescribir su propio código. Esto en principio no parece algo que se llama lo negativo, porque si alguien le dice la inteligencia artificial que cuente, si la inteligencia cuenta, será responsabilidad suya donde se complica el asunto. Esto es lo que lo informático llama resultados obvios, no evidentes, y es que la inteligencia artificial, cuando aprende a aprender para llegar al objetivo que le hemos dicho que no siempre es el objetivo que nosotros queremos de verdad, un ejemplo de una inteligencia artificial. Esto es cierto, pues es real. El ejemplo está programada para acoger cosas, para un programa que simplemente es un brazo robótico que tiene que coger objeto agujero objeto. Nosotros estamos muy acostumbrados por nuestras sencillo. Si aprieta fuerte rompe el vaso, sean porque tampoco se puede ver el vaso. El vaso puede tener distintas formas, tienen que aprender a hacerlo. La inteligencia artificial empieza haciendo muchísimas simulaciones, cuando quieren que ya está suficientemente entrenada, pasa al ámbito real, y si coge el objeto dicen y lo hacen bien, pasa otro objeto. Si lo rompe o no lo coge, o se les suelta. Lo hace mal, dejen artificial, empieza aprendiendo, vaya desarrollándose, hasta que descubre ella sola, a base de intento que no cubre. No se da cuenta, es consciente, pero su intento le llevan a concluir que si esta es la Cámara que está agravando esto, el paso de aquí la Cámara y ahí no hace falta que lo coja, si se pone en una dirección suficientemente angular a la alenté y cierra la mano la Cámara quiere que lo coge y no lo coge, como lo adelanto revisa usted han visto la fotografía típica donde 1 parece que está sujetando la ley no es real, eso aprende el interés, aprende hacer trampas. Nadie le ha dicho que haga trampa y la inteligencia artificial empieza a jugar con la ley, no con el objeto; la inteligencia artificial finalmente se utilizan no para acoger objeto de un pacto robóticos a día de hoy se utiliza para óptica, porque aprendió sin que nadie se lo dijera cómo funcionaba la lente y como engañar o no con la perspectiva la alerta aprendido de perspectiva. Esto que nos parece un ejemplo quizá ilustrativo, pero no muy preocupante, se lo voy a poner con otro ejemplo que pueden estar un poco. El ejemplo siguiente lo dijo en una conferencia, un teniente de la Fuerza Aérea norteamericana. Luego, el ejército americano lo desmintió no me importa si es real o no, porque cuando me 9, pero símil, una inteligencia artificial para pilotar drones, drones, como bombardearnos, drones suicide, tiene muchos parámetros entre ellos, tienen que mandar personas que te hemos dicho de célula terrorista, pero, por otra parte, necesita obedecer a un operador humano humano que controla, que no haya víctimas colaterales, que en un colegio cerca son sus 2 parámetros principales. Además de otro, son simulaciones. En ordenador esto no es real, no, no se no practicaron. En el mundo real el dron encuentra el objetivo y le dice el operador. No pueden bombardear de lo que entonces da vueltas que hace, aprehende optimizar la gasolina o el combustible, mejor dicho, que tiene para durar el mayor tiempo posible. La distancia en la que se tiene que poner para no perderlo aprende cosa, pero no puede cumplir el objetivo primario. Hasta que un día esto son miles o millones de intento la máquina descubre que si bombardea al ser humano, es decir, si al operador que le prohíbe atacar lo mata a cumplir, un objetivo bombarderos urbano más del ser humano ya no es obedezco. Al ser humano bombardeo, terrorista mata al terrorista, he cumplido todo y para ella ha cumplido su objetivo y nadie cuando la programó pensaba que iba a mandar al ser humano. Entonces no nueva nueva premisa, no pueden matar al ser humano. Después de millones de intento aprendido que se destruye el terreno de comunicación no le llegaba la orden de ser humano y podía mandar terrorista, y los niños del colegio también. Esto se nos puede ir de la mano en ese sentido, porque nadie podía pensar que iba a descubrir esto; a esto son aplicaciones militares, aplicaciones peligrosa, pero es que esto tiene mucha otras posibilidades. Piensen una inteligencia artificial que, por ejemplo, para desarrollar un medicamento, y se le dice Tienes que erradicar una enfermedad y lo que ella decide, lo que ya decide, no la conclusión a la que llega es que si en 2 generaciones esteriliza la gente que puede contagiar la enfermedad y a lo mejor produce un medicamento así y no solo no sabemos que lo ha hecho que esto es el componente de impredictibilidad a cabo, todo esto de que sea imprevisible de que sea inimaginable lo que pueda llegar a hacer, imaginen cómo afecta principio civiles, como la causalidad o como la vigilancia, cómo puede vigilar algo que no sabe cómo va a acabar actuando. Se hace muy difícil tanto para el usuario como para todos los eslabones de la cadena, pero es que luego el último problema es que la inteligencia artificial, o por lo menos alguna no sabemos muy bien cómo funciona. Es decir, estos procesos internos que hacen para tomar decisiones son opacos, tienen lo que se llama un sistema de caja negra, hace muchísimas operaciones; combinatoria que nosotros no somos capaces de descifrar no sabemos por qué ha llegado a esa conclusión. Inclusión a la inteligencia artificial, es que funcionan muy bien; por ejemplo, radiodiagnósticos le da una imagen médica de un escáner y tiene una probabilidad. Cuando un médico no ve nada en un 80 por 100 de probabilidad puede detectar que va a haber un cáncer, por ejemplo, pero no sabemos por qué y no nos lo dice. No yo detecto un cáncer porque no lo sabe y no lo podemos saber. Esto genera muchísimos problemas que a ustedes pueden pensar. Los cogemos la alternativa más segura, la queja blanco podría hacerse, pero saben qué pasa? Que no funcionan tan bien. La caja blanca, día de hoy en este mismo tipo de pruebas tienen una eficacia peor que los médicos, porque la potencia de cálculo que introducimos en inteligencia artificial para quedar todo este tipo de operaciones con ese sistema da mejores resultados. De hecho a veces se propone que, para poder desentrañar, como lo hace habría que utilizar lo de la inteligencia artificial, que nos lo dijera, pero, claro, luego haría falta una tercera inteligencia artificial para saber cómo la segunda inteligencia artificial está cifrando, la primera y aquí ya nos vamos a los vocales de las máquinas. Es lógico, no probablemente no sea el mejor camino o un camino que nos lleva a un callejón sin salida. Con todo esto, elemento que están ustedes viendo no sabemos cómo funcionan internamente, ni siquiera los demás programas no sabemos qué van a acabar haciendo, pueden duplicarse replicarse de forma total o parcial y además todos los sujetos intervinientes. Yo creo que nuestro sistema de responsabilidad no alcanza claro. Podemos hacer leyes nueva, dicho todos ustedes habrán oído hablar de ley. Nueva ley, inteligencia artificial; de hecho, hace muy poco el 23 de octubre, se aprueba, no es de inteligencia artificial, como tal, pero han metido algún contenido en la directiva de productos defectuoso. Esto no ayuda deberían, porque deberían todas las declaraciones en el ámbito europeo desde hace mucho tiempo decían. En la inteligencia artificial hay una premisa irrenunciable, que es la absoluta indemnidad de todas sus víctimas resarcimiento completo y pleno. Todas las instancias políticas lo han dicho una y otra vez, pero hay algo que no han dicho, aunque ya lo apunta Julia, y es que esto no solamente un objeto que puede causar daños también es una industria, una industria en la que nos podemos quedar atrás, no una industria en la que ya estamos atrás de Estado, unido y probablemente también de China, aunque sea a veces más difícil de valorar, y no solo una industria también son productos que van a beneficiar nuestra vida. Nosotros queremos implementar no directamente no la industria, la inteligencia artificial, sino nuestra industria general, que con inteligencia artificial podrán alcanzar, o quedarse atrás a la industria americana o a la industria asiática. Aquí donde la cosa se complica, porque la indemnidad absoluta, sobre todo cargando a los productores frente al funcionamiento óptimo del mercado, no terminan de casa, y con unos llegamos a las normas actuales de las que voy a hacer solamente un breve repaso. En cuanto a responsabilidad civil, el reglamento de la Ley de inteligencia artificial tuvo muchas previsiones originariamente que introdujera. Norma introduce normas de responsable civil, no, lo que hace fundamentalmente intentar evitar el colapso. Es decir, intentar que aquella inteligencia, artificial de riesgo inasumible, existan las prohíbe y las que son de muy grave riesgo, intenta evitar que produzcan daños preventivo, pero cuando el daño suceda no da respuesta. El año sucederá tarde o temprano todo esto no nos sirve Qué tenemos o tenemos ahora la directiva de productos defectuoso que he hecho en el artículo? Creo que en su artículo 7, 2 probablemente la letra habla de que entre los muchos criterios que se tienen que tener en cuenta para determinar si un producto no defectuoso que son todo decir que tampoco es una indicación muy clara, pero entre ello habrá que tener en cuenta la capacidad que tiene el objeto para reprogramarse. Asimismo, está pensando en inteligencia artificial. 1 puede pensar. Ya está aquí va a estar incluido, no Por qué no? Porque luego, en el artículo 11 habla de que cuando de conformidad con el conocimiento objetivo de la técnica y la ciencia actual no sea posible saber que se va a provocar un daño con un objeto, habrá una inclusión de la responsabilidad, y estoy muy probablemente sea aplicable a toda la inteligencia artificial actual, con lo cual lo menciona, que lo excluye bien es cierto que al final el artículo 18 permite que el Estado puedan excluir la exclusión, pero no es fácil, y hay que hacerlo de forma muy concreta, específica, argumentada, comunicándolo. No creo que eso vaya a hacer demasiado Qué nos queda? Bueno, ahí hay un proyecto de directiva, hay un proyecto de directiva de responsabilidad civil en el ámbito de inteligencia artificial. Más concreto, no puede ser. De hecho, esta directiva surge como el fracaso de introducir en el reglamento normas de responsabilidad, y bien esto no lo soluciona, pues no mucho de lo que trata principalmente de prueba de carga, de la prueba, cuestiones que nosotros consideraríamos más bien procesales, y cuando habla de responsabilidad civil habla aquí de seguro obligatorio. Claro, seguro, obligatorio como en lo coche, no ha funcionado bien, ha funcionado bien, por cierto, con criterios que no sé si sería tan fácilmente asumible. Hoy, por ejemplo, que el conductor, que el usuario pague su propio seguro los coches lo hemos aceptado porque la conducción la asumimos como algo activo, el principio no todo el mundo conducía, pero cuando la inteligencia artificial, que es transversal y todo el mundo lo utilice, se dicen todos los ciudadanos a pagar su seguro obligatorio. No sé si se aceptara también, pero bueno puede ser una solución. Eso habrá que verlo. En cualquier caso, que dice la directiva. Eso dice que hay seguro, obligatorio. No. Dice que cuando entre en vigor la directiva, en 5 años la Comisión hará un informe, y si de ese informe resulta que hay que hacer un seguro obligatorio. Entonces era una propuesta normativa. Hay muchas personas que dicen. Bueno, en cuanto a la directiva se aprueba, en 5 años tenemos seguro, obligatorio tampoco tampoco. Por qué? La directiva lleva desde 2022 esta propuesta porque hubo otras previas discutiéndose todavía. No se ha publicado. Todavía no se ha aprobado que publicar. Si se aprobara como está no son 5 años, son 5 años desde que acabe el periodo de trasposición, que son 2 Entonces, si se aprobará mañana, que no va a aprobarse mañana tendría que publicarse; probablemente ya en febrero o marzo, después de eso tendríamos que esperar 2 años para que termine el plazo e implementación después, 5 año para que haga un informe. Después de ese informe, que proponga una nueva norma, que esa nueva norma se adopte, que se apruebe, que se publique y que acabe el plazo de trasposición de esa nueva norma, cuando estamos hablando 10 años siendo optimistas, probablemente mal Qué tenemos entonces? Tenemos unos tipos de daño que no encajan en nuestra categoría, para las cuales nuestras categorías probablemente no sean suficiente, no sea suficiente, sino un ingeniería jurídica muy voluntariosa y desde luego, originariamente confusa a saber qué va a decir el Tribunal Supremo dentro de 10 años de cuestiones de este tipo para la que no hay legislación europea, que nos sirva y que tampoco nosotros estamos haciendo por hacer. Esto nos tiene que llevar al desánimo, yo creo que tampoco. Yo creo que tampoco, porque a veces los juristas y hablo mucho de los juristas también somos optimista y creemos que podemos regularlo todo y que podemos arreglarlo todo y además hacerlo de forma anticipada y no siempre es posible. La realidad a veces se impone o se adelanta o a veces sencillamente hay que esperar que llegue para saber cómo hacerlo bien. Desde luego que esto implicará tiempo e incertidumbre, pero también implicará tiempo de oportunidades, oportunidades para cuestiones, para empresa o entes como lo seguro o, desde luego, lo abogado, no viendo la inteligencia artificial solamente como una herramienta de trabajo, sino como un objeto de trabajo. Eso también genera oportunidades de desarrollo global de desarrollo particular, y el derecho llegará habrá soluciones de los tribunales, los tribunales no, no se quedaran callado y el legislador europeo nacional, tarde o temprano pondrá leyes, que no habrá tiempo, que serán peores al principio probablemente, pero hemos vivido esto ante la tecnología algo bueno y que no ayuda, y yo creo que teniendo en cuenta de esto volveremos a salir todos también mejor. Eso es todo. Muchas gracias. Creo que después de haber escuchado a abril retomo un poco lo decía Julián un mercado digital, una asociación intervención, no solamente los esquemas actualmente ya son pasaban quedar obsoletos de consumo de usuario de esa tecnología, sino como la repercusión que puede tener. La interactuación o el traslado a tercero es un poco campo. Bueno, para los abogados, insisto, es un campo jurídico que está por aflorar. Yo animo e invito a que nos animamos a verlo con una perspectiva abierta, con una mente abierta y no como a veces nos sucede, que nos quedamos a lo que tenemos más próximo o más cómodo, porque ya estamos instalados. Por eso, quizá en esa transitoriedad de tecnología y de derecho enlaza muy bien con la ponencia que nos va a poner Fernando Martín Rodríguez, al que creo conocemos todos los presentes o casi todos los presentes sería raro no conocerlo a estas alturas, Fernando Martínez Rodríguez es el titular del Juzgado de Primera Instancia número 5 de Cartagena. Yo he tenido el placer de hacer esa laguna y muchas veces y es un verdadero placer por su seriedad. Su profesionalidad es licenciado en Derecho por la Universidad de Murcia e ingreso en la carrera judicial por turno libre en el año 2001 miembros. La red de especialista de derecho de la Unión Europea del Consejo General del Poder Judicial prestó servicio como titular del juzgado, entre otros, de Totana, Orihuela y Cartagena en el año 2013, colabora con el máster de acceso a la abogacía y la procura de la Universidad de Murcia, aquí con sede en Cartagena, siendo autor de diversos artículos doctrinales sobre responsabilidad civil y derecho de consumo me consta por experiencia personal y por conversaciones que hemos podido que he podido tener con el tema de resultan un lujo, que es una persona muy bien formada, con una cabeza muy jurídicamente muy bien amoldaba y quien le doy las gracias por estar esta tarde cuando ha quedado Fernando. Muchas gracias al Colegio de abogados por la invitación, a la fundación, a la cátedra de la Fundación Integra y Almería, Fernando por sus amables palabras y por haberme animado a participar en este día, y nos ha coordinado, y nos ha puesto en contacto a los a los ponentes. Pues, efectivamente, agradecer a la universidad, al Colegio de abogados, la oportunidad de hablar sobre se me oye bien, yo si no se grave, bien porque acercan, sino. Sobre la incidencia de la inteligencia artificial en materia de responsabilidad civil, yo pertenezco a una generación y una promoción de la carrera judicial y de nuestra formación, que somos completamente a analógica que estamos en un grupo de entonces, estudiantes de derecho, y hasta ahora ya vamos por el final. Con carácter general, por el final de la licenciatura, la mayoría de los que están aquí en la foto son el día de hoy. Han sido abogados, algunos estábamos miembros de la carrera fiscal, el que aparecen más alto porque estoy en pie en un sitio no porque yo lo sean y soy yo y bueno ya estábamos. Somos otra forma, pero bueno, si vivimos a día de hoy estamos integrados plenamente en la con mayor o mejor fortuna. Estamos integrados en la sociedad que nos toca vivir, y con los medios técnicos que nos toca lidiar personal y profesionalmente, porque todos somos también usuarios mayor o menor medida de estas, estas estos programas, de estos software, esta materia y voy a centrarme en 3 puntos en 3 aspectos el brevemente. Intentaré no repetirme. La Unión Europea ya ha explicado don Gabriel Directiva sobre productos defectuosos, responsabilidad contractual y responsabilidad extracontractual. También hablaré un poquito del daño moral y del derecho a la protección del derecho fundamental a la intimidad. Tenemos 2 directivas, la de 1985, que es la que se encuentra en vigor la 1.000, la misma, la Directiva 384, se ha dictado recientemente la de 2024, que tiene por finalidad esta directiva, 24 de octubre, tiene por finalidad modernizar, acoger distintos aspectos que quedan fuera o incorrecta, porque quedan fuera de la regulación de la directiva anterior como consecuencia de la evolución técnica. La directiva primera de 1.185 se refiere a bienes muebles, pero efectivamente, los software, los programas de interés artificial, son productos incorpore ojos y no encajan bien en la noción de bien mueble, incluso en algunas ocasiones, por si pudieran tener acceso, pero pero en general no es fuerte, no, no tiene cobertura dentro de la del concepto de bien mueble. Igualmente. La Directiva de 1.185 tampoco considera. Tampoco incluye como concepto indemnizable el daño el daño moral, la directiva y no haciendo 24 Perdón, 2024, si se refiere al modelo obviamente incorporado o no, como atenaza el anterior de la electricidad, que también se expresaba anteriormente en la 85. Pero expresamente recoge los archivos de fabricación digital la materia y los programas informáticos excluye de su ámbito los archivos digitales, como son los archivos, multimedia, los archivos electrónicos, o el mero código fuente tampoco lo considera aplicable esta directiva de productos defectuosos sobre los programas informáticos libres o de código abierto, siempre que se utilice en un contexto de una actividad no comercial. Pero esta directiva, que efectivamente, que trata de solventar los problemas que quedaron fuera, por obvias obvias razones tecnológicas, a la directiva 1985, será de aplicación a partir cuando concluya el plazo de trasposición, que es el 6 de diciembre de 2.926, mientras tanto se sigue aplicando la Directiva de 1985, además estas directivas no son directivas de mínimo, como sucede en la Directiva de consumo. Son directivas de obligada aplicación. De hecho, el Tribunal de Justicia se ha pronunciado varias veces diciendo que no, que no podían establecer los Estados una disposición, una regulación más favorable son obligatorias, salvo que se diga expresamente lo contrario Qué entendemos por productos defectuoso, un producto que sea contrario a la seguridad, el producto defectuoso? No es un producto que no funciona bien, no es una lavadora que no, que su revolución en no no me dejará de roaming centrifugado no produce efectos, es un producto que es peligroso, que contamina normas de seguridad y de calidad en el sentido de que puede causar daños a las personas, daños a los bienes, no al bien, no la lavadora, no al programa informativo que estoy utilizando a otros bienes y, por tanto, es un defecto, será dañosa y que no es diferente a el correcto o incorrecto funcionamiento de ese de esa máquina de ese producto informático, y esa defectuosa edad se tiene que regir por las normas de seguridad, por la norma de calidad y de seguro y de seguridad. Un producto es defectuoso porque tiene o tiene la calidad mínima que se exige administrativamente o legalmente para ese tipo de productos porque no superan los las normas de seguridad que tiene o no se han realizado. Las pruebas los ensayos suficientes. En cuanto a la jurisprudencia de la del real decreto, donde la directiva disminución 85, pues es bastante frecuente en el ámbito sanitario, como pueden ser la prótesis de cadera, un supuesto que fue también muy famoso, o las prótesis de cirugía estética, de aumento de aumento de pecho, es decir, vemos destinando a producto y ahí se entiende claramente lo que es el concepto de producto defectuoso o para que nació esa legislación para responder de unos daños y unos daños que por falta de seguridad, por falta de esa calidad que afecta a la seguridad y la previsibilidad de ese bien, causan daños sobre las personas o sobre los bienes. Los productos informativos, como los bienes corporales quedaban fuera de esta de esta directiva que se puede se puede entender que se que se incluye los bienes que causan, que no cumplen su función, una lavadora que mandaba bien. Un vehículo que es un motor, no responde a lo que tiene que responder. Se rige también por el texto refundido de consumidores y usuarios, artículo 114, mientras que el producto defectuoso está regulado, artículo 135 siguientes del texto del texto refundido. Esta materia es una materia que en la que se rige por un por responsabilidad objetiva, conforme a la directiva y conforme al texto refundido, el demandante tiene que probar que se ha producido el daño y el nexo causal entre el producto y del producto. Entre el producto defectuoso y el daño que ha sufrido no tiene que cobrar ningún tipo de culpa. La Directiva de 2023, 24 incide nuevamente sobre la misma idea de seguridad, un poco más descriptiva a la hora de entender sobre qué parámetros de seguridad habla de la presentación y describe esa presentación. Conducta -presentación ya está presente en la Directiva de 1985, cualesquiera de características de etiquetado, el diseño, composición, las instrucciones de montaje. Yo no puedo evitar. Cuando prestaciones de montaje pensar, piensan en IKEA afectaría a que me perdonen, yo soy usuario, pues todas ellas es esa presentación. No es solamente pues la carátula del producto o lo que podamos ver, sino que va más allá. Se detalla y se extiende un poquito más. También habla, puesto que se repetía en la directiva anterior, del uso razonable, previsible del mismo, pero, y dentro de la capacidad del producto de seguir aprendiendo. Es una novedad absoluta que ha comentado antes de abril. Es una novedad y que cuando yo creo que también es una cosa que yo por lo menos no sé hasta dónde se puede llegar ni a lo mejor hasta dónde puede llegar ahora y donde puedan llegar dentro de unos años, pero bueno, que es un elemento a tener en cuenta y deberá pues informarse advertirse o tenerse en cuenta a la hora de incluirlo o no en las características de ese producto y también la ciberseguridad, la seguridad de productos y adaptarnos al Consejo de Seguridad, que se arrastra de 1.185, sino también la ciberseguridad y también tener en cuenta con el segundo endurecerá del producto si quienes su destinatario final, los sujetos responsables piden, pues podemos entender como sujetos responsables hacia la ley. Aquí una serie de diferenciaciones viene a ser la enmienda 85, es más sencillo y es igual, pero más más compleja, más extensa, porque porque diversifica las posibilidades de responsabilidad, la de 1985, es una responsabilidad solidaria en general, mientras que la de 1.202 1.024 es una responsabilidad que en cascada o subsidiaria. En primer lugar, el fabricante productor utilizado 2 términos en una directiva, pero viene a ser el concepto del mismo, siempre será responsable en materia de informática en materia de productos informáticos , el desarrollador, porque no hay un fabricante no es un concepto diferentes, más mental que la creación de ingenio y más que de una cosa tangible el importador. Si el importador no tiene domicilio en la Unión Europea será el representante autorizado, eso es una persona que tenga un mandato escrito del fabricante o del desarrollo del producto y también se incluya al personal que preste los servicios logísticos en vehicular de otras características, donde las características que dice la esta, esta directiva e incluso a veces el suministrador, si fallan las anteriores vivíamos una responsabilidad. El legislador pretende, pues, ir cubriendo diferentes estadios a fin de nuevas. Quien lo ha hecho es 1 de las personas que se benefician o que participan en la comercialización de ese tipo de elementos, que pueden ser peligrosos por una falta de diligencia o de seguridad. Simplemente, no debe ser dirigente de seguridad, una responsabilidad objetiva. Como saben el responsable efectivo no hay que probar la culpa, pero hay que probar como he dicho antes, que se ha producido un daño que ese daño proviene del producto y ese nexo causal entre ambos. La Directiva de 2009, que no la anterior, se hace una serie de presunciones, y tanto del defecto como nexo causal aglutinen poquito más adelante a ellas. Pero a día de hoy, hasta 9 de diciembre de 2026, no podemos aplicar la Directiva de 2024, tenemos que aplicar pues los mimbres que tenemos y que teníamos antes hace 10 años, o que la responsable contractual, la extracontractual, la tutela del derecho fundamental por supuesto, y en su caso con la Directiva de 1985. Si lo fuera. Hay una sentencia del provincial de Madrid muy reciente sobre un software que se hace para una empresa, un grupo de empresas que tiene 3, 3 laboratorios, que le llevará a la gestión de los laboratorios clientes, y no ir sistema es es; es inhábil para el final que se destina a la gestión de estos 3 laboratorios, clientes, proveedores, sistema productivo y no cumple las necesidades de de Quién? Lo encargó y la audiencia dice que es un contrato de obra que tiene que prestar, tiene que concluir en un resultado, no tiene que responder de ese de ese resultado, y el incumplimiento es es pleno, que es inhábil y que de aplicarse, 2000 124 restituir recíprocamente las prestaciones debe restituir íntegramente el precio y debe restituir con los intereses como si nunca hubiera producido efectos y además ya, y además establece una indemnización por el tiempo en las horas de trabajo que necesitaba la. La, la persona que encargó la sociedad, que encargó este proyecto, sus propios empleados tuvieron que volcarse en horas extras para reconducir esos datos, reconducir esa información y extraer las consecuencias que el software tenía que haber extraído. Otro supuesto que también puede ser interesante y que nos puede ilustrar para supuestos sucesivos que podamos tener sobre la aplicación, inteligencia artificial o sobre otros sistemas informáticos también complejos es el tema del software manipulado que instauró la multinacional en sus vehículos para esconder las emisiones reales de contaminación que tenían sus sus productos. Claro, si atendemos al artículo 1.256 del Código Civil, los contratos se producen efectos entre las partes que lo firmaron y sus causas evidentes Pues vuelvo a que en España no ha traído a la matriz, pues cuando hubiera concesionario a mí no yo firmo, con con el que sea hache motor o con la que sean afirmar como con nadie más pero claro h motor del coche yo lo vendo yo no claro entonces que aquí no se puede aplicar tampoco la autoridad del producto defectuoso porque el vehículo el funciona funciona estupendamente contaminada y que contamine más o menos. Bueno, no contaminara que te mentía sobre la contaminación, a mí me mentira entidad Administración y no mentía todos, o la sobre la contaminación, el producto, pues si funcionaba bien, no funcionaba mal, independiente de ese software erróneo, que sería que sea bueno erróneo. Ese software y exacto que se le había que se le había implantado de manera que lo que produce, lo que se debía aplicarse el Código Civil y el Tribunal Supremo, haciendo una interpretación conforme a la realidad social del tiempo que nos toca que le tocaba resolver esta cuestión, así como a la norma de principios básicos de los derechos de consumidores suele artículo 8. El texto refundido considera que se deben ampliar los estrechos con los los la estrechez del artículo 156 entenderla con la realidad social del día de hoy. La distribución en el ámbito de la instrucción de los automóviles, efectivamente, de manera que el vendedor no no es independiente, sino que está vinculado por el fabricante o por el importador, en este caso, y concluye que la responsabilidad se extiende tanto a la empresa vendedora como a volver en España. Para ello vuelvan a hacer un razonamiento bastante razonables y bastante perdonen la redundancia y que se apoyan normas de derecho internacional, penal básicos de derecho internacional y llegue a la hora de declarar que todos los comportamientos de bajen y que, pero considera que no se la resolución del contrato, se pedían daños y perjuicios y considera que no procede la resolución del contrato ni con el Código Civil ni con otra normativa de protección al consumidor y usuario, porque el vehículo es idóneo, asume unos vehículos que en alguno de los casos entre 6 9 años haya disfrutado del vehículo último más que razonable. No con no digo no corresponde ahora que se devuelva el vehículo, usted que levantó el precio y en el daño moral se reclamaban 1 de ellos casi 11.000 euros en ese reglado un poquito menos, bastante menos, así como la mitad, pero el Tribunal Supremo es bastante contenido a la hora de fijar esa responsabilidad civil a fijar mínimamente en 500 euros. Por qué? Porque no afectan al funcionamiento del producto porque no afectaba al derecho, dice que no queda aprobado, que le causó un daño moral a la persona. Tiene un coche que contamina más de lo que ya pensaba que podía, que podía tener y tiene en cuenta la antigüedad y de hecho, incluso no le no considera que deben aplicarse los intereses del artículo 1.100 1.108, sino solamente los del 576, es decir, el interés general de los intereses desde la fecha de la de la sentencia. Hay 2 sentencias de Pleno que he puesto aquí al pie de la presentación que recoge en esta esta doctrina sobre esto es importante, sobre la legitimación pasiva y la responsabilidad en esta materia de productos no defectuoso sino productos que realmente son. El Tribunal Supremo habla con claridad que ellos son siempre muy fino. Soy muy prudente, habla de dolo. Efectivamente, hay un engaño, un engaño civil, hay un engaño a las partes de contrato, texto refundido de Ley de Consumidores y Usuarios, pues, como ha dicho el artículo 134 siguientes, el software es un bien corporal no. Si este incorpora otro bien, podría ser un bien popular, pues podríamos entender que si se incorpora, como habla de productos de habla de bienes muebles, que incorporen incluso de bienes inmuebles, podríamos entender que esta podríamos entenderlo, pero también quizás en algunos casos se vean más claros en otros, pues será más complicado entender que ese programa informático está incorporado a otro, bien, y luego el tema de la evolución de estos programas de inteligencia artificial que van aprendiendo, que no son que no son estáticos, sino que van haciéndose más complicados y más y más poderosos y más sabios. Pero, claro, dónde tenemos que pensar qué pasa con un software que no tenga inteligencia artificial, que tenga esa capacidad de aprender, pero que se haya colocado en un sistema para facilitar el aparcamiento, ese EPI que nos hace el coche, pero no funciona bien. Han salido una partida, se haya realizado mal, se ha inventado 1 esto no se ha hecho bien y vemos la detección de obstáculos mentales ante la Comisión o de peatones y tampoco funciona bien y se afecta a la seguridad. Allí no hay duda de que se para la batalla donde un producto que afecta a la seguridad o determinadas fallos de motor, que pueden afectar también a la seguridad del vehículo, y de hecho no lo he puesto, pero hay un supuesto, hay una sentencia del Tribunal Supremo muy interesante sobre un sistema de seguridad anti colisión de unas aeronaves, a ver lo que pasa, que se aplicó el tema del tribunal. Se van hacia el esfuerzo argumental, sobre todo en materias de qué derecho se debe aplicar y se acabó aplicando el derecho de Estados de Estados Unidos, pero era un sistema de software aplicados a unas aeronaves que provocaron una colisión, y creo que ha estado hasta con muertos porque no el sistema no funciona, y de hecho se detectó por defectuoso y los retiras de todo de todo el campo, como la aviación, se retiró de todos las aeronaves, en la que se había utilizado derechos fundamentales. Pues efectivamente tenemos una ley orgánica de 8.182 aparatos de escuche. Financiación de dispositivos había, pues si alguien no he pensado bien ha comentado 1 de los amigos que que parece que nos escuchan en el móvil, el ordenador y ya los anexas y similares o o que Google, pues lo hemos comentado todos. Lo hemos oído comentar todo. No, yo no sé si es eso Eso será el orden no sé si habrá, pero todo lo demás y recalentar, pues es una infracción de derechos fundamentales o con un programa de retoque de fotografías, pues maravillas o perrerías como lo queramos ver, porque en algunos casos eso perrería una vez con finalidades, simplemente jocosa de productos de personas que son evidentemente no son verdad y somos simplemente juegos y otras veces ha hecho con personas sencillas, incluso adolescentes que para han hecho daño a unas personas a otras, poniendo en posturas o en situaciones de inmigrantes y efectiva de sus Nacho gran daño, muy grande las los derechos fundamentales y a la intimidad y al honor, y hablamos de las personas que se puede aplicar la ley. Hay una división, una intromisión ilegítima. Se presume que hay un daño moral, y la gravedad, pues se tiene en cuenta. Teniendo por el bien jurídico protegido a la persona y a la difusión que ha tenido ese daño, Madrid, la protección de datos nos dice el Tribunal de Justicia. La Unión Europea hace un par de meses. No toda infracción de la Ley de Reglamento de Protección de Datos supone un daño moral. De todas formas, aquí tenemos una ambulante. Una abundante jurisprudencia en cuanto a la cuantía del llamada en materia de fichero de morosos, que quizás viendo la influencia el acceso mayor o menor que se ha tenido a esa a ese esa revelación de datos, pues podría ser un criterio a la hora a la hora de indemnizar esos daños morales. En cuanto a la protección de le datos responsabilidad extracontractual, pues bueno, el clásico 1902 del Código Civil, la prueba hay que probar todo el culpa anexo, la acción, el daño que, como he dicho antes, la directiva contiene una serie de presunciones, que tampoco veo que sean tan tan generosa perdonar, pero a lo mejor que yo soy un poco un poco no sé yo la veo muy, muy normalita, la las. Las presunciones que hace el artículo. El artículo 10, 2 no las he puesto aquí en la diapositiva, sino aquí. Si el requerido se le requiere al proveedor, al desarrollado que aporte unas pruebas, no se ve en los códigos de concentrarse. Información de que ha tenido en cuenta siempre la afectación en el derecho de propiedad industrial o intelectual, y no la quiere exhibir, o el producto no cumple la norma de seguridad obligatoria puñeta por sí sino como no hace falta tampoco irse a cambio de una directiva, es que el producto no cumple la norma de seguridad administrativas o legalmente se le impone ese tipo de productos para que yo pueda presumir un carácter defectuoso. Pero bueno y claro, y si tenemos un daño, pues también se presume que un producto defectuoso y un daño se produce un nexo causal, creo que con las presunciones normales y corrientes, de andar por casa que tenemos en el día a día de cualquier otro tipo de daños y de siniestro, pues se lo dice el legislador europeo mejor y a lo mejor que yo efectivamente soy un poco sencillo en las minoraciones, y ahora productos y situaciones mucho más complejas por esa opacidad que nos puede arrastrar inteligencia artificial, y las excusas que pueda que puedan verter los desarrolladores o los importadores o quien sea, y a la hora de desvirtuar esa esas presunciones, pues efectivamente, la carga de la prueba se traspasa a la parte demandada y te hicieran un esfuerzo más mayor a la hora de aprobar esa esa falta de derecho o esa falta de efecto. En el producto lo que se llama beneficiosa, será la más beneficiosa. Las directivas en materia de prescripción serán mucho más beneficiosas en sus plazos y, bueno, bueno, pues esto ya lo he comentado antes, no se presume. Se presumen nexo causal en la directiva, no en el no, en el código, no en el código, en el Código Civil una cosa que decía la directiva anterior y la actual es que es compatible el régimen de productos de reposición por productos defectuoso, con la responsabilidad, por culpa a esta contractual, por vicios y por culpa contractual jurisprudencia. Lo dice el artículo en el artículo punto 4 de la nueva directiva y para acabar en positivo. Yo creo que hay que hacer, como el artículo 4 del Reglamento alfabetización no solo proveedor responsable, sino también las empresas. Los usuarios deben o debemos formarnos ser responsable del código de conducta, practique la transparencia, y las personas jurídicas que lo utilicen. Deberían hacer incluir en el compliance es que tengan códigos de conductas, responsabilidad corporativa en materia de inteligencia artificial, no solo porque por la responsabilidad penal que pueden incluir, sino también por tener protocolos de seguridad y de evitar o minimizar los daños, se detecta un defecto, se corta. Muchas gracias. Bien, continúo hablando con el orden en positivo. Tengo el enorme placer presentar al tercer ponente, José Muelas, sobre la que nos conocimos ayer, verdad? Sí? Sí es un verdadero. Aquí han pasado, no yo todavía luego, como diría algún plagiando alguna compañera, mi Rubio natural, donde entonces quiero decir que no conocimos ayer, evidentemente es entenderé, que es una verdadera satisfacción, un verdadero orgullo poder presentar como ponente y poder ser quien tenga una mesa, la captación, José Muelas Cerezuela, para todos nuestros compañeros y todos nuestros amigos. Es abogado ejerciente del Ilustre Colegio de Abogados de Cartagena decano de mérito, abogado especializado en el ámbito específico de derecho, la nueva tecnología. De quién podríamos destacar? Entre muchas cuestiones? Aparte de haber sido contrario a muchos procesos ya verme, ha complicado la vida y normalmente que no quepa la menor duda que en el año 2003 ya era experto español para el programa leal de la Unión Europea y programador de su base de datos, conocimientos en coordinación con la universidad de Turín en el año 2015 participó como experto en el encuentro plenario del Consejo de Europa, Comisión Europea para la eficiencia de la justicia, han realizado en el Parlamento de Estrasburgo en el año 2018 intervino como experto compareciente ante la Comisión de Justicia del Congreso de los Diputados para la redacción de la Ley Orgánica 32.018 de 5 10, de 5 de diciembre, de protección de datos personales y garantía de derechos digitales, miembro de la sección de Derecho Procesal, de la Real Academia Española de Jurisprudencia y Legislación. Ha sido secretario general de la asociación murciana de empresas de nuevas tecnologías y como curiosidad. El 27 de julio de 2017 fue precisamente don José Mola, quien puso de manifiesto al Ministerio de Justicia la existencia de un fallo crítico de seguridad en el sistema de comunicaciones, que ya conocemos como elemento para mí quizá la mejor presentación que puedo hacer desde el punto de vista de la incumbe, que es un gran compañero, un gran amigo, con lo cual gracias por estar aquí gracias. No voy a decirlo ahora, pero no, pero García Lorca no habría crédito una vez así que pasen 20 años han tenido que escribir un lado veces es vértigo, verdad? Sí, pero vivimos una, vivimos una época apasionante, los los historiadores, lo científico, los catedráticos que se dedican al al estudio y al estudio de la historia del género humano han clasificado siempre las edades del hombre, de acuerdo con las tecnologías, que el ser humano ha utilizado para transformar la realidad. Por eso durante un larguísimo periodo de la historia humana, el más amplio se habla de él como de la Edad de Piedra, tras la Edad de Piedra, bien el alcohol y pico, porque se utiliza el cobro y después el Bronce. Después El Hierro después llegan las revoluciones industriales y hoy estamos viviendo esto y es importante saber que acabe el cambio tecnológico, ha seguido un cambio ideológico conceptual e incluso de la justicia. Y qué ha generado cada 1 de esos cambios tecnológicos? Una nueva clase dominante. Cuando alguien descubrió que mezclando el cobre con el estaño, apareció un metal más importa más duro, más resistente, que ofrecía ventajas, como el bronce. Pues apareció una. Una comunidad, una civilización de de maravilloso navegantes que remontaron, que atravesaron el las columnas de Hércules remontaron hasta Galicia y llegaron incluso hasta las islas británicas a la búsqueda de los fenicios apareció una nueva clase social que dominaba la nueva tecnología, y esto ha pasado también en el tema de las tecnologías de la información. Hay un algoritmo que se llama, se conoce como el algoritmo de Rus, coz, en el que determina que la clase dominante siempre ha dominado una tecnología, mientras que la clase dominada estaba justo un escalón de abajo tecnológicamente hablando, es decir que cuando el sacerdote leía en el púlpito del pueblo escuchado cuando el pueblo fue capaz de leer la clase dominante tenía la imprenta y decidía qué era lo que conocía el mundo y ahora estamos viviendo 1 de esos cambios ahora en una fase de revolución industrial, a la que se conoce por la mayoría de los expertos como capitalismo información. Al. El valor ha pasado de la materia o de la tierra, como fue en un principio, ha pasado de la energía, como fue en las revoluciones industriales, y ahora el capital es la información. Ayer Varufakis, si ayer perdón hace unas semanas Varufakis señalaba, como la industria china o Tesla su superioridad no la llaman tanto en la ingeniería que la alemana perfecta, sino en un capitalismo que llaman capitalismo de nube, es decir, capitalismo de los datos, los chinos tienen monopolios de los datos que tienen sus redes sociales y son capaces de ofrecer a la gente lo que la gente desea, y el único país o la única comunidad que puede competir con estos datos, con este capitalismo de datos conecta apropiación de datos, pues son los Estados Unidos, Europa no pinta nada y viviendo esta revolución, que la inteligencia artificial tiene un altísimo componente de caja negra. Yo creo que es interesante que tratemos de mirar dentro de la caja negra y saber cómo funciona, porque al final podemos estar del lado de los que escuchan. El mago. No dice. Podemos tratar de conocer las escrituras, lo que pone el documento, y eso es fundamental. Finalmente, para saber cuándo algo falla Quién es el responsable de que algo falla, y esa la responsabilidad civil, aunque solo sea para que se queden ustedes conecto, es decir, el es maravilloso como la. El hombre y Mita la naturaleza, y normalmente no encuentra mejores soluciones para hacer lo que hace la naturaleza que imitar y copiarlo la naturaleza. Esto nos lleva al canon de la belleza griego. Aquí tenéis una Neurona normal de las que tenemos en el cerebro o en el sistema nervioso central y aquí tenemos una neurona artificial de las que componen las redes neuronales que están en la base del funcionamiento de las inteligencias artificiales. Como ven, no hubieran diferencia. Hay unas horitas unas entradas que recibe una información para que la neurona la procese, pero fijados en la uve doble boom, doble 2, uve doble. 3 aparecen en las entradas. La neurona artificiales sube doble. Quiere decir Qué? Cada una de las informaciones que entran al horario honor a la neurona artificial no tienen un peso estándar, sino que el peso puede ser ajustado por el programa frente a. Una misma entrada de datos, una neurona no se va a comportar igual, dependiendo de cómo la ajuste, dependiendo de cómo la afine, llaman ellos cada 1 de los programadores. Finalmente, dentro de lo que es el cuerpo de la Unión Europea, se plegó a una determinada función que, en función del resultado, dará lugar a que una función de activación determine si conecta o, si no, conecta esto. Finalmente, todas estas neuronas se incorporan lo que se llama una red neuronal que tiene una zona de entrada, unas capas ocultas donde se produce el fenómeno de caja negra, que decía Gabriel y una salida. Claro, si esto falla Quién es el culpable? Porque aquí interviene mucha gente, el producto ha fallado muy bien, pero quién es el responsable? Claro, puede ser un fallo de diseño de esta, con lo cual el responsable, pues sería el desarrollador puede ser un defecto de uso por parte del usuario o propietario. Por ejemplo, muchos de vosotros tendréis change. Vuestra en vuestro teléfono es un modelo del lenguaje Qué pasa si le decimos change? De cuántas son dogmáticos. Esto lo sabe multiplicar o nos duele respuesta. Por otro motivo, estas redes, cuando son redes del lenguaje, son entrenadas con datos, por eso quien las entrena es quien tiene ese capitalismo de nube que dije antes los chinos pueden entregar la industria norteamericana, puede entrenar. Quiénes son los grandes captadores de datos a día de hoy? Las redes sociales. Pero si no programamos bien red, pues finalmente, bueno, si la programamos para que sea como Change, PT un modelo de lenguaje, tú puedes decirle dogmas, 2, se mira la multitud de información que tiene y dice Vaya siempre que veo los archivos veo que la secuencia a dogmas, 2 sigue 4 dice. No es 4, pero no porque se va a sumar, sino porque tiene a su disposición un conjunto de información tan grande Que puede perfectamente simular que sabe sumar. El otro día me permitió hacer un experimento con Change y le pregunté. Oye, tú sabe jugar, me dijo Sí claro, igual somos una partidista, comenzamos a jugar hasta la juega número 10, change jugó un max langue de la defensa de la apertura italiana. Perfecto, podría pensar que dejó a maravillosamente bien a nivel de gran maestro; sin embargo, según la partida, se fue individualizando, echar empezado a carecer de referencias en su base de datos resultó que incluso infringía las normas, es decir, no sabía en cuanto comenzaba a perder la información. Por tanto, si tú utilizas utilizas un modelo de lenguaje como change para algo, para lo que no está pensado. La responsabilidad va a ser del usuario va a ser realmente tuya, siempre y cuando se cumplan una serie de condiciones que no dice el Reglamento de la Unión Europea, y ahora viene una tercera responsabilidad, que es seguramente la que a mí más me preocupa la responsabilidad de quién suministra los datos, porque si hemos de pensar en jurisprudencia del ramo Cendoc empezamos a meter todo lo que yo entiendo hasta cierto punto. Tenemos la garantía de que esa jurisprudencia, la que es perfectamente aplicable para los juzgados y tribunales españoles. Pero qué ocurre si estamos hablando de una inteligencia artificial general o de otra especie. La humanidad va a tener muchos datos, sobre todo de los países desarrollados. Vas a tener muy pocos datos de los países que tienen muy poco grado de subdesarrollo. Los conjuntos en los datos sets concreto estas, alimentando la la inteligencia artificial, son dataset sesgados. Y quién es responsable de esa recogida de datos? Si vamos a valorar una enfermedad de un ciudadano, de determinada procedencia o de determinada etnia Qué valoración va a hacer? La inteligencia artificial va a ser correcta cuando se está nutriendo de datos de determinados países, y no de determinados? Otros Quién va a ser responsable del sesgo de esos de esos datos? A quién le manda. Claro, la mayor parte de las veces, la responsabilidad civil del funcionamiento de estas redes no va a ser, no va a ser de 1 o de otro, o de otro, porque lo normal es que sea una responsabilidad conjunta, una responsable, porque al final, el desarrollador sabe con qué datos se está entrenando a su inteligencia artificial, salvo suministrador de los datos, no le haya dado los datos de la calidad adecuada, y esto entra por ejemplo, tenemos aquí profesores de universidad, ellos saben perfectamente cómo funciona la publicación de artículo científicos, no solo en derecho, sino en medicina, en ingeniería, y en el resto de las de las de las especialidades. Los datos de las revistas científicas no son datos abiertos, los mejores textos son datos que solo se suministran de pago, y esos datos no están en las inteligencias. Ese punto la labor es importante, dado que gratuito y que los datos públicos, los datos que producen las universidades, las entidades públicas, siempre debieran ser públicos porque están pagados con dinero de todos. Es decir, el ejemplo más claro son las fotografías de la NASA de Apolo, 11 o 12, llegando a la luna. Esas fotografías no tienen derecho de autor y no tienen derecho de autor, porque todos los norteamericanos pagaron de su bolsillo y con sus impuestos el dinero necesario. Para que un ciudadano norteamericano pudiese tomar fotografías. Tendríamos por tanto que replantearnos Cómo funciona la propiedad de los datos y para averiguar qué quieren responsabilidad dentro de este abanico que hemos dado? Pues lo primero que tendríamos que hacer es abrir la caja y ver cómo funciona, saber si ha sido el programador, si ha sido el usuario, si ha sido el suministrador de los datos. Quién ha sido el responsable civil? Porque a partir de ahí el juez sin duda puede comenzar a evaluar pruebas. Son abrirles estas cajas negras. El Reglamento se preocupa muy mucho desde un principio, que es el principio de transparencia, en virtud del cual podamos atravesar el velo de los programas que la legislación permita al juez atravesar ese velo y entrar a ver cómo funciona, cuál es el mecanismo del juguete, y no me resisto a contarles una experiencia personal. No sé si era 2019, cuando se puso de moda en el Juzgado de lo Social españoles efectuar la primera notificación en la sede de la dirección electrónica de las empresas, una práctica torcida bien. Me llegó a un cliente que, a juzgar por su aspecto externo para él, era lo mismo; una caja de puros, que una dirección electrónica. Ya no era, no era capaz de distinguirlo, se le acababa de llegar ya al embargo; es decir, han notificado nada; bueno, no le han notificado nada; acudimos al Juzgado de lo Social y efectivamente el sistema Lexnet decía que sí que estaba notificar a mi cliente jurado y perjurado que no le habían notificado nada, así que así que hoy la oportunidad de hacer un experimento que hacía mucho tiempo deseaba hacer y que fue también el que me llevó a verificar el funcionamiento de determinados programa de gestión judicial, y yo firmamos que pusimos un incidente extraordinario, nulidad afirmado que el sistema no había funcionado bien; aquella aquella advertencia de que si se había producido la notificación era incorrecta y que queríamos ver. Queríamos analizar, queríamos romper el modelo de la caja negra y entrar dentro a ver si ese sistema había funcionado bien o mal. Esto es lo que se llama, que un sistema sea auditable, o no sea auditable. En principio. No dijeron que no, claro, el juez no dijo Mire, el sistema dice que esto está bien hecho de que seremos esto está bien hecho, y vaya usted a otro lado. Formulamos el correspondiente recurso de amparo ante el Tribunal Constitucional y lo fundamos precisamente en un tema que fue un caso parecido al de Europa, que es un tema que en Estados Unidos dio mucho que hablar, y en el caso del Canfranc en un a un determinado juez le llevó a una señora que había atropellado un peatón y cuando el juez le pregunta. Oiga, señora, porque veía usted este pobre hombre, la señora dijo que mi vehículo ha acelerado solo el juez le dijo, la creo y naturalmente la condena. Pero varios meses después apareció otro caso. Los atacantes se habían vendido a decenas de miles apareció otro caso en el que otro propietario de un taka Enric afirmaba si es su coche, pues también había acelerado voluntariamente. Había tenido una colisión. Hubo una parte que peleó muy duramente por analizar el software que gobernaba el acelerador porque yo ya no era un acelerador. Como lo de nuestra generación que tiraban de un cable cito, habría, habría carburador y y el coche aceleraba, sino que era un acelerador digital, se empeñó en poder abrir aquello y encontraron un juez que no hizo caso a la empresa ni defendió el secreto la propiedad intelectual, sino que finalmente con las cautelas precisas dijo el software de este y que lo vean 3 expertos independientes. Los 3 expertos llegaron a una conclusión de aquel de que aquel software era basura ya había sido hecho con corta y pega de otros programas, y que esto hacía que su comportamiento fuese errático y que algunas veces pocas, pero algunas veces pudiera dar lugar a una aceleración espontánea. Nosotros sabemos cómo se han hecho, como se ha hecho el software que gobierna los sistemas de gestión de la Administración de Justicia Saben cómo se empezó a cómo se empezó a hacer. Sabemos cómo se empezó a hacer Sabe lo que ha dado lugar a fallos verdaderamente graves? . 1606 01:26:47,520 --> 01:26:49,500 Por qué no podía estar fallando el sistema? Claro. El Tribunal Constitucional admitió a nuestro recurso. Lo tramitó y para mi sorpresa la ponencia, por cierto, le correspondió a Alfredo Montoya Melgar. Antes de sufrir, bueno, pues el estado de salud en el que está ahora. Y de la sentencia lo verdaderamente importante, porque la sentencia estimó declaró nula, la notificación dijo; No, no; la primera notificación siempre debe ser personal tal cual; nula; pero no la pericial que pide el letrado como ya no hace falta. Bueno, no se hace claro Alfredo Montoya. Hace un voto particular estoy deseando volver a llevar al Tribunal Constitucional porque dicen no está pidiendo eso la parte lo que quiere verificar el regular funcionamiento del sistema, y nuestra respuesta debe ser es. Podemos levantar el velo del sistema y ver cómo funciona y se pronuncia positivamente a favor de pensar que el funcionamiento de un sistema informático nos puede mandar a prisión un radar que afirme que basa 240 por hora o a 200 por hora en el centro de una ciudad? Puede mandar de prisión y dice No, el radar está homologado por el Centro Español de Metrología, sí; pero está gobernado por un fin Wert Digital, y eso firma digital puede esconder. Huevo de Paco. Tengo yo derecho, abrir la caja negra para verificar el correcto funcionamiento de ese software. Por eso los abogados tenemos que por lo jurista, mejor que los abogados los juristas tenemos que tratar de entender toda esa confluencia tecnológica civilizatoria. Tenemos que estar en la pugna. Yo no se lo he contado 1.000 veces aquí pero no me resisto a contarles ahora. La etimología de ius. La tipología de ellos es el sánscrito y en un una raíz Qué significa unir? Sobre todo al cocinar. Por eso las palabras que incorporan ese IEO en medio suelen tener mucho que ver con el ius y, sobre todo, conjuntar con cocinar, no es decir, cuando vivimos juntos tenemos cónyuges, y si nos unimos o no voy sería mayor y o cuando vivimos en una ciudad esto se llama ayuntamiento y el Josep se esconde debajo de todas estas palabras, que son las que dan cierto sentido a lo que los juristas hacemos. Tratamos de entender cómo funciona la sopa, porque ellos también significa eso ; podéis buscarlo en otro diccionario de latín o ir a por ella, y veréis álbum temo, polio, en que pone yo en solitario que no quiere decir que tenga derecho a leer, sino que tiene, sino que venden. Yo solicitud de las OPA que huele de menester por eso he representado al jurista ejerciendo un poco la labor de cocinero, porque tenemos que entrar a la sopa y ver en qué proporciones antes; lo comparaba con parada Gabriel un software a un a una receta de cocina. Nosotros necesitamos saber que lo que le damos a nuestro hijo el leche al cabo de hienas y azúcar, pero no una sustancia negra que no sabemos qué tiene nosotros, no podemos dejar el Gobierno de la sociedad en manos de una sustancia negra que no sabemos qué tiene. Si lo que tenemos que ser capaces de investigar Cuál es el fondo Cuáles son los elementos y de desentrañar Cuál es la responsabilidad de cada una de las conductas concurrentes? Por eso el reglamento se ocupa muy mucho de que la transparencia sea máxima en todas las en todas las inteligencias artificiales que tengan que ver específicamente con la aplicación del derecho o con sistemas de prevención, calificación allá donde puedan hacerse de perfil, es decir, puede haber sistemas allá donde la ley lo permita Qué? El otro día, en una conversación previa que hicimos, afirmaba Fernando, planteaba el caso de un Mercadona, que tenía una orden de alejamiento y que preguntaba si podía poner una cámara con reconocimiento facial de cara a identificar o a verificar si esa persona que tiene nada que tenía una orden de alejamiento respecto del del establecimiento, podía o no podía entrar. En principio dijeron que era excesivo y que no se podía hacer tal cosa, pero bueno, como siempre, la opinión de un juez depende de que una ley lo permita o no lo permita en el futuro y en función de la que cualquier noticia que pueda saltar a la actualidad pues puede aparecer una demanda de este tipo de medidas. Aparezco no aparezca, lo que sí tenemos que saber es que la transparencia en el caso de estas inteligencias artificiales obligatoriamente, ha de ser máxima y no solo máxima, sino que el reglamento obliga a que se registren en un anexo especial, en una relación especial de inteligencia artificial, que tratan de verificar este tema. Obviamente, esto para los juristas puede llegar a ser de la máxima importancia, porque no solo son ya perfiles para evitar el alejamiento, sino incluso de peligrosidad. Cómo se hacen los perfiles de peligrosidad o de riesgo de comisión de delito? El otro día tengo 4, estoy en violencia de género y tengo 4, 4 detenidos, de los cuales 2 presentaban deficiencias cognitivas, 2 eran extranjeros. Podemos decir que quien padece deficiencias cognitivas tiene un mayor riesgo o ese sesgo es intolerable. Podemos decir que quien está expatriado, quienes extranjero en otra sociedad presenta mayor riesgo o eso es inaceptable, porque al final los 4 lo que sí era eran pobres. Pues entonces tenemos que considerar que un pobre es un seguro. Es importante, por tanto, que ya están bueno, creo que creo que me he ido demasiado a aspectos generales. Lo que sí me gustaría que percibiese es que están cambiando las reglas del juego, que lo importante ya no es la materia como nuestro Código Civil, lo importante ya no el ley, la energía, nuestro Código Civil y la propiedad es especial porque no acaba de entender bien nuestro Código Civil. Techo para una sociedad del XIX que no tiene en cuenta la existencia de bienes informacionales ni controla bien la energía, de forma que sí que necesitamos una nueva comprensión De qué es ese bien y ya no me da tiempo a entrar en eso de que ese sería en que llamamos información y de cómo su regulación ya no se cómo como para su regulación ya no sirve esos criterios que nuestro Código Civil utiliza para que para los bienes materiales creo que con esto tengo que terminar porque ya me han sacado la tarjeta. Me gustaría hablar más tiempo, pero, pero nada agradecer a agradecer a Fernando, a Fernando Abril, la magnífica compañía que hacen y bueno y a vosotros, porque es un placer. Siempre trae aquí muchas. Segundo, si la entrada en vigor del reglamento de 2024, entrada en vigor acaba el plazo de trasposición en el 9 de diciembre 2026 se aplicará respecto a productos introducidos en el mercado en esa fecha, es decir, que su aplicación será todavía se difiere un poquito más bien fue. Yo. Gracias, Hernando. Yo animaría a iniciar un turno de posibles preguntas entre el público a que presente entre el público, aunque también así online, y lanzo simplemente una reflexión con lo que acaba de decir Fernando. Enlazando con ello tenemos una transitoriedad jurídica y tecnológica muy eran eso es un caldo de cultivo a procesos pleitos, a disputas y, en definitiva, un campo de trabajo o no para el ejercicio de la abogacía, para la docencia y, por supuesto, para la literatura. No tendrá que escuchar a unos y a otros. Por tanto, cualquier pregunta que queráis hacer, y vamos dando turno de intervención, por supuesto, sin lugar a dudas. En materia de responsabilidad civil veo algunos compañeros incluso de mi propia asociación. Esto es el inicio de una. Era diferente, alguna pregunta que queráis formular. Público aquí presente. Si hay alguna pregunta. Bien, pues yo sí planteo una cuestión, a mí me produce inquietud porque lo que decía PP lo último que decía me parece absolutamente importante, o sea, tenemos que pasar página. No nos creemos que tenemos tantos sustantivos como procesales, se quedan obsoletos, ya es una obsolescencia geológicas y queréis también la del propio derecho. Entonces, enlazando un poquito con ello y por decía Gabriel, por ejemplo, hay una cuestión que a mí me ha llamado la atención ya en el 2017 del Parlamento Europeo se planteó por ejemplo si otorgar o no personalidad jurídica a los robots, y tenemos el precedente aquí en el caso de Murcia, de la personalidad jurídica del Mar Menor, que nos puede aportar en ese sentido, hacer eso. En efecto, en 2017, dentro de una propuesta se incumplió como 1 de los recursos ojo, de responsabilidad civil, no, no más allá salvo una pequeña cuestión, que lo único que le comente otorgar, otorgar personalidad jurídica a los robots y por extensión también se podría entender; sistemas de inteligencia artificial, un concepto más físico pero asimilable. Lo que ahora no le interesa esto que provocó resistencia inmediata porque todo lo nuevo produce siempre resistencia. Como aquí mi conclusión, que estoy un poco más complejo es que no hay ningún problema, mejor dicho, no hay ningún obstáculo insuperable del punto de vista civil para que pudieran tener personalidad jurídica. De hecho, si yo dijera ahora mismo no veo una cita literal porque no la recuerdo, pero si le dijera algo así como que resultó interoperable de su reconocimiento el otorgar o extender la persona jurídica a estos nuevos sujetos, error del que espero salgamos pronto preparándolo, ya le digo esto parece que alguien esté hablando del Mar Menor, pero no es posible porque esa frase más o menos de 5 de Castro, Federico de Castor, que estaba escandalizado ante la insoportable idea, que él pensaba Habana y fugaz de que se otorgara personalidad jurídica a la sociedad anónima que decía que era algo imposible y sin embargo vivimos con ello y no va mal. Quiero yo con esto decir que sea buena idea otorgar personalidad jurídica. Lo probó yo creo que no, pero no porque no se pueda sino porque creo que no es útil. De la misma forma que tampoco me parece una imposibilidad de otorgarlo el Mar Menor y sin embargo, a la vista de la ley, yo creo que tampoco es útil necesario expresarlo, pero ya que estamos hablando, lo comento también. En cuanto a los robos, la idea lo que se quería era decir, como no sabemos quién tiene que responder, le damos personalidad jurídica y que responda a los robots que paguen los robots, pero esto en realidad nos resuelve el problema, porque el problema entonces con qué dinero pagan los robots dicen. Bueno, pues que los robots tengan un patrimonio bien, pero ese patrimonio quien lo llena y volvemos al mismo sitio alguien tiene que aportar dinero, lo aportan los usuarios, lo aporta, la empresa lo aporta. El Estado no soluciona, yo creo en ningún problema. Aporto nueva capa de complejidad que quizás explique, porque justo con la responsabilidad civil también se decía que podía servir para nuevas formas de cotización social, es decir, que sin máquinas ocupaban de trabajar para reforzar sistemas laborales a través de prestaciones también pudieran pagar o quizás explique por ahí no creo que sea una solución, pero a mí no me parece mal que se exploren nuevas soluciones, tenemos que ser osados a veces a la hora de asomarnos a cualquier cosa sin perjuicio sin prejuicios perdón explorarlo y si luego no sirven no sirve pero descartarlo de principio creo que una mala opción dentro de la verdadera honestidad académica, siempre bien, antes de dar paso a preguntar solo hay una pregunta online que voy a leer, mar Lobato. Dice. Buenas tardes y gracias por las ponencias magníficas, tan solo cogiendo el guante del PP, creo que ha aquí una reacción dice cómo formarnos en materia de inteligencia artificial respecto de nuestra perspectiva de juristas y aquí lanzado una pregunta que yo creo que más bien va para el colegio, tenéis previsto hacer formaciones al respecto. Yo yo personalmente creo que es difícil formarse jurídicamente en una materia si no conoce técnicamente también la materia; es decir, es importante que hay ahí interdisciplinariedad que cuando que no solamente escuchemos juristas sino que escuchemos también tecnólogos, ingenieros, esa parte me parece que los colegios podrían hacer una labor interesante pidiendo a tecnólogos e ingenieros, ingenieros informáticos, sí pidiéndoles una tarea divulgativa, que expliquen cómo funcionan las cosas Qué trascendencia jurídica pueden tener? Porque ellos también le falta, y para ellos además con Julián, un acuerdo de 1999 de lo que se hablaba era del tema del software, libre, software abierto de ellos se planteaban. El tema de la propiedad por ejemplo es una era una leyenda urbana muy típica. En 1998, 1999 que la primera Ley de Propiedad Intelectual fuese el Estatuto de la Reina, en Inglaterra, mientras que yo naturalismo traduce tradicional de la Escuela de Salamanca sostenía que ese tipo de leyes, las leyes de propiedad intelectual eran aberrantes y contra natura, y entonces ponían el típico ejemplo que utilizaba a toda la comunidad del software libre para la materia está bien. Si yo te doy el teléfono, tú tienes el teléfono y yo no, porque es un juego de suma 0, pero si yo te doy una idea, tú tienes la idea y yo también, porque es un juego de suma 0. En el campo de la información no existe la escasez; por lo tanto, tratar de entender el comercio como si la información fuese materia, es una grave incorrección, y todo esto se atribuye a la Suárez a la escuela del iusnaturalismo, tradicional español de Salamanca, esa visión probablemente Richard tal mano habría quedado fascinado. Diciendo Estos tíos son un auténtico genio, sin embargo, un mundo material y en el que el derecho no ha entendido otra forma de percibir la realidad, que como algo de hecho de materia finalmente dijeron. Si no hay escasez, la generaremos artificialmente; si tocan tras una canción, tú no puedes contarla salvo que él te deje cantar, y ese debate, que ha acompañado al al mundo de la informática es algo que, por ejemplo, preocupa mucho programadores; preocupa a muchos ingenieros informáticos, ahí pueden estar los abogados que entienden de derecho para explicar algunas cosas, mientras que nosotros deberíamos comenzar a aprender del mundo de la tecnología y eso daría lugar. Un programa de formación verdaderamente interesante, es decir, el dibujito del cocinero estrecho con inteligencia artificial; no me iba a poner yo a hacer ningún tipo de dibujo, no, pero si usamos las inteligencias artificiales, si conocemos el mecanismo del juguete, seremos capaces de entender mejor cuál es la regulación y, sobre todo, si leemos a quienes soñaron a gente como Minsky, a esos perdón, todas las revoluciones tienen sus manifiestos, Porter tuvo antes de la Revolución Francesa Marx, tuvo antes de la revolución soviética, pues antes de la revolución información, al hubieran soñadores que escribieron textos y hay que leer esos textos para entender ver Hacia dónde vamos? Si lográsemos conjugar ambas cosas, tendríamos 1 juristas absolutamente plan y, sobre todo, capaces de ganar el futuro, porque qué futuro queremos para la Región de Murcia, para nuestra ciudad? Cuando Enrique VIII quiso que Inglaterra fuese la nación más importante. Lo primero que miro es cuál es la tecnología más importante. Ahora que tienen españoles y portugueses lo tuyo, saben hacer barco y y están agrandando el mundo. Yo para España, para la Región de Murcia y para mi ciudad quiero barco, quiero ser nuevas tecnologías y quiero esa gente preparada porque no hay mayor riqueza a día de hoy en un capitalismo y formación, la gente preparada y la pregunta, además, muy pertinente, porque lo que nuestra clase política, el derecho, va siempre detrás de la de la tecnología y de la realidad, y yo creo que sí que sería una bonita experiencia. La Universidad de Murcia tiene ingeniería informática, la Universidad de Murcia tiene derecho a la Universidad Politécnica de Cartagena , tiene Teleco, se podría hacer un magnífico programa e interdisciplinar de formación que permitiese generar visitas que entendiesen la realidad en la que ahora estamos viviendo Qué lo que debe sentir? La? Entiende no más de un 0 a 0, 0, 5 por 100 de la población y de nuestra clase política, nadie. Gracias. Veo que hay alguna pregunta aquí en público, José Manuel. Yo traslado una pregunta de nuestro decano que ya ha perdido la voz del todo. Yo tampoco estoy muy allá pero yo lo intento. Dice que habría que ha comentado que es posible que un sistema llegue a adoptar decisiones autónomas que puede ser causante de un daño. Quien respondería a la pregunta es fácil. Si se creó el problema es que no, no lo sabemos y que probablemente no lo podamos ver a la cuestión sería si se sabe que hay un error de programación originario, previsible o que hubiera debido preverse de conformidad con el estado actual de la ciencia, y la tecnología. Probablemente sería el productor, programador y además también el distribuidor, muy probablemente, pero puede que no puede ser que estén con toda la tecnología que tenemos, con la mejor tecnología, la exclusión tecnológica, lo que pretende no cerrar el camino a la innovación. La innovación siempre se enfrente a la incertidumbre algo nuevo. No sabemos cómo va funcionando en 5 años y decimos que los nuevos responde igual. No innovamos, innovan otros por nosotros y al final no acaba llegando igual ya sea chino, que ha estado lío. De ahí que se intente excluir de esa responsabilidad. El problema que tenemos aquí es que, como la incertidumbre intrínseca de la inteligencia artificial lo seguro para que no entendamos por qué no hay seguro obligatorio de base, porque las entidades aseguradoras dicen que no pueden asegurar, pero cómo van a hacer un cálculo actuarial de algo que no saben qué va a pasar? No sabemos si el siniestro va a ser mucho o poco irregular No, no, no funcionamos con la especulación, no pueden hacerlo a la empresa que lo fabrican. Saben que algo puede pasar, pero también puede producir beneficios. De hecho, lo más probable es que ven más beneficios que daño, y en medio lo que pase muy difícil de saber la inteligencia de Casa Blanca es intentar hacer. Pero cómo habría que dar tantos proceso, digamos, simplificando de nuevo. Sería decir, si introducimos cada nueva variable en cada vez décimo ahora me temo que son determinadas raza o ahora son de determinada edad cuando podríamos ver qué hace decidir en cada caso, pero son cientos de variables simultáneamente. En operaciones conjunta no podemos ir digo 100 o 1.000, ahora mismo, con nuestra potencia de cálculo, si algún día hubiera computación cuántica que encima tiene distinto Estado del binario, sería imposible saber como ver a alguien el cerebro por dentro no exactamente igual, pero muy difícil teniendo en cuenta alguien hace su programa con su mejor intención, con su mayor diligencia, y no puede saber si dentro de 15 años va a tomar una decisión diferente o el escenario más catastrofista que a veces proponen, que ni siquiera tiene por qué ser lo que es lo que llaman la singularidad. Una inteligencia artificial se convierte en general, luego o toma conciencia de sí misma, según quizá un canon más de ciencia ficción, o empiezan a tomar decisiones autónoma al margen de la indicación original, creando otra inteligencia artificial, para que le ayude, mientras se propaga suelen ni siquiera impensable. Desde el punto de vista del riesgo, a mí la catástrofe extintiva no me preocupa porque estoy muerto. Quiero decir eso a efectos de cómo no sé si ustedes recuerdan, cuando iba cohesionador de ladrones que decían, a lo mejor era un agujero negro. Por eso no hay que asegurarlo porque se lo crea, pues ya va a haber poca demanda. Después no fue entonces algo parecido. Eso yo no me ocupo del apocalipsis después ya yo no me ocupo y si no haya poca al irse habrá que ver cómo, como sucede con los coches, pasó algo parecido. Los coches se sabía que iban a causar daño y de quienes culpa Pues como no lo tenemos muy claro, sistema de responsabilidad objetiva, seguro, obligatorio y solución, pero aquí eso no es tan fácil de hacer ni siquiera los coches autónomos. Por cierto, entre otras cosas porque depende del nivel de conducción, pero cuando sean de conducción autónoma, 5, es decir, la persona no hace nada técnicamente ni siquiera conducción aquella ni siquiera sería válido lo que tenemos ahora entonces que se va a hacer? No lo puedo saber. Qué hacia dónde ha apuntado que haría eso? Podemos discutirlo, pero eso ya mucho más especulativo, también, mucho más interesante, pero probablemente desborda la sesión de muchas gracias por la pregunta, solo un matiz. Hay una cosa muy importante y es que la inteligencia artificial en riesgo 1 de los principios éticos de los 7 principios éticos que establece la Unión Europea es el de supervisión humana; es decir, que el coche conduzca por sí mismo está muy bien, pero eso no significa que tú no esté detrás y a los mandos y supervisando lo que está haciendo la inteligencia artificial en cada momento. Es que en un sistema 5 no será posible porque, de hecho lo que se estima es que los que generamos problemas somos nosotros. Quiero decir los coches autónomos estrella, pero dicen que se tenían por qué ha pasado humano, que si no hubiera humano que generan incertidumbre no se modelo. Otra cosa es que yo llegué me ha dicho un coche no sé hasta qué punto podría haber calificarse como el riesgo, porque todavía tenemos que ver cómo se desarrollan los modelos de los distintos etapas de riesgo, pero en la conducción autónoma e podrían nivel sea tener ni opaco todo tu espalda. Leyendo llegaremos ahí o no No lo sé, pero lo que se preconiza es que eso será la verdadera seguridad, porque no habrá un elemento falible humano que estorbe la percepción de la conducción mecánica, que tendrá fallo, aunque sea un fallo inesperado, pero mínimo en comparación con lo que nosotros, con nuestra familia falibilidad, podemos generar bien. Hay una pregunta aparte de la observación que hacer fue Generating Rosal. Honrubia. Nos plantea cuáles deben ser los límites, uso de la ya en el campo de la abogacía. Si podría salvar lo voy a enlazar con el caso de esta este letrado, que ante el tribunal los tribunales de Navarra pues confiando en Chad GMT cita derecho creo desde Colombia Colombia Colombia quién tiene la culpa Change 20 o un profesional? No es supervisión humana, pero es que es que, además, supervisión humana es que es un profesional, o, como lo que hemos tenido, alguna vez, casos de responsabilidad contra un profesional del derecho de graduado social de la medicina, se entiende que conoce lo que trabaja, que conoce la lex artis, que conocen el derecho, que está aplicando. Claro, si yo le lo delegó 100 por 100 Change PT habrá fallado, pero es que yo he fallado más que echar como profesional y como no, como ser humano y como todo, entonces Pues yo creo que ahora que caso por caso y efectivamente, las bases de datos, no sé si técnicamente se pueden considerar inteligencia artificial ahora definitivamente de credibilidad, pero la base de datos cada vez son más sofisticadas. Te dan más rápidas las respuestas a cierta rabia las aceptan o menos rápido pero son instrumentos pero claro no son no son la solución entonces pues efectivamente son instrumentos que pueden ayudar, pueden ser por lo que hace una administrativa, lo que te puede hacer un pasante, pero que supervisar. Hay que estudiar y hay que trabajar en cuestión. Antes de venir aquí la semana pasada, hice una prueba con la inteligencia artificial del colegio y con otra inteligencia artificial que está a disposición de todos. Vosotros, la podéis, se llama la patrocina. Ese bufete odiado por ahí cómo se llama de las hipotecas exacto es 1 de los grandes patrocinadores. Justicia punto es y les pregunté. Hay nada más interesante que preguntarle a una a una inteligencia artificial Cómo funciona la responsabilidad civil de la inteligencia, artificial, a ninguna de las 2 mencionó el Reglamento de la Unión Europea y la de riadas firmaba estar actualizada? La riada, perdón, disculparme esa han y al final, publicidad de riada, ponía después actualizada a fecha de hoy, es decir, si tú confías ciegamente en lo que te está diciendo es lo que decía Fernando. Si tú confía ciegamente, mira el abogado, es el ella ya no, tú estás autorizando, conducir a un resultado que tú naturalmente, debería supervisar como humano Qué ayuda? Sí claro que ayuda, y un montón de ideas interesantes y un montón de argumentos interesante. Pero la última supervisión tiene que tenerla siempre. Un jurista, yo creo que este caso un caso en el que interviene una inteligencia artificial, pero no un caso puramente de inteligencia artificial. Es como si un abogado contrata a un becario, un alumno de primero de Derecho, de Chile y le dice Dame la demanda y se lo hace mal, y la firma no es tanto el problema de la inteligencia artificial como la fuente haber tomado yo con alumno en prácticas, como ustedes imaginarán, utilizan la aplicación, lo cual a mí no me parece mal, siempre y cuando sea una herramienta que sumen como una calculadora. Yo no quiero que hagan raíces cuadradas y toca que hagan la cuenta, pero siempre se cuela aquello de vez en cuando alguien me dice el artículo, el último era 4.600, del Código Civil y a veces se lo sabe usted. Todo. Hay diversas legislaciones que tienen la inteligencia artificial que eso, obviamente, suspenso. Pero si alguien lo utiliza como apoyo, igual que buscar en Google un apoyo, no se puede 1 fiar de todo resultado, pero puede utilizarlo la medida ponderada, razonable que yo en esa sanción quiero decirlo también confieso que no jugara con el chavismo déficit 0. Así lo muestran alguna Prieto de cuestiones de orden tecnológico. Fernando van a entender perfectamente el tema de daños derivados de alteración en la prestación normal de un suministro de energía eléctrica y he podido comprobar cómo la formación ahí era de gol a favor del letrado. Si por eso el tema de supervisión no Sí sí el tema de supervisión lo considero esencial. Al hilo de lo que he venido diciendo, quiero hacer una reflexión. Pregunta me contestó a quien sea sé que no se vean algunos compañeros también del sector asegurador sabe que yo intervengo habitualmente por parte de un grupo en concreto asegurador y al hilo de lo que comentaba antes, Gabriel creo que los esquemas de la responsabilidad y Solimat se nos quedan absolutamente obsoletos, que vamos encaminados quizá a una prueba de la prueba. Creo que lo comentaba también con el adelante en esta materia. Donde las presunciones pueden ser el instrumento para llegar a la prueba de la prueba puede ser más razonable la de los inicios, como va a afectar. En definitiva, todo esto al ejercicio de la abogacía. En cuanto a lo contenido, pregunto. La inteligencia artificial. Prueba de la prueba ahí ya hace tiempo, nos en España no mucho, pero algunos países dudan de la eficacia en algunos aspectos que pueden tener, por ejemplo, un profesional como el notario. En un mundo en el que hay vicia ejemplo que aporta; cuando no hay asesoramiento jurídico, una que aporta un acta, si lo puede grabar en vídeo y esto se sostuvo durante un tiempo se está regulando esto porque con inteligencia artificial, a día de hoy no se puede, pero de aquí a no mucho tiempo es posible que lleguemos a un mundo donde no se pueda saber si un verdadero decir que haya vidrio generado, que puedan demostrar cualquier cosa y que, sin embargo no podamos probar que el vídeo existe, porque el vídeo puede no haberlo hecho. Esto afecta a muchísimas cuestiones desde el propio concepto de intimidad que ustedes piensen un día que tienen ustedes porque nos salen a lo mejor del nudo al balcón por si lo ven como se le quedaba, como lo hacen, fondo. Pero sea un mundo donde cualquiera puede tener foto y vídeo, donde usted, con mucha probabilidad de que sea su verdadero cuerpo, porque solo calcule importará, ya, siempre podrá negarlo, no solo eso, soy inteligencia artificial, eso no sea que la barrera de lo que se hace o lo que no se hace del punto de vista que no grave cambia el concepto de la propia intimidad, valía sobre todo las generaciones nuevas y no una prueba. Me imagino un proceso en el que la fotografía y los vídeos ya no puedan existir, porque no se puede saber si son reales. Eso va a cambiar ahora se utilizarán entonces otra inteligencia artificial para que analice los vídeos y digan si son de verdad o no o poner el contexto. Vamos hacia donde 1 grava al que está grabando y muy difícil, pero esto el futuro a veces genera problema y luego da soluciones también. Esto pasa en muchos ámbitos. Cuando dice. Si hay computación cuántica, ha ido a las contraseñas contraseñas, ya no sirve, pero bueno, a lo mejor hay incriptación cuántica que no nos va a faltar comida, pero luego tenemos, desarrollamos nuevas tecnologías. Yo no soy pesimista. En la tecnología, y creo que ni en la tecnología ni en la sociedad en el ámbito tecnológico, en otros muchos no soy tan optimista, pero creo, creo que encontraremos, solucione, aunque ahora mismo temamos, los problemas. Pero yo creo que aquí he encontrado con un problema, y es que, por ejemplo, desde el punto de zapa seguramente, aunque antes lo mencionaba, que la responsabilidad civil va en la mano del aseguramiento es cómo vamos a organizar un aseguramiento a estos niveles con algo que está cambiando continuamente. Vamos a tener que volver a la bandeja tradicional, concepto de cláusula limitativa, delimitador limitativa Cómo. Vamos a encajar los sistemas de aseguramiento? De un contrato fruto de autonomía? Voluntad que va a aceptarla ya, a todos los ámbitos, a todos los ámbitos empresariales, de relaciones entre particulares, a todo, pero con un dinamismo que no está previsto en nuestro sistema actual y menos obligación, fernández contra de la prueba? Yo creo que en esta materia, de la prueba por indicios es casi más importante que las presunciones que estaba establecido en el legislador, porque realmente, claro, pero lo que dice que son reales no son indicios. Pues si el problema es sencillo, se inició con creerse problema, complejo en la inteligencia artificial, sofisticada y muy lista. El problema sea mayor a la hora de sumar indicios o de acreditar los hechos, y la Directiva de 2024 establece un sistema de no de diligencia preliminar, sino durante el procedimiento de exhibición de pruebas por parte del demandado. En este caso será el que sea claro desde los distintos escalones y esa esa carga de la Facilidad aprobado. Ya sé que estamos en el olivo, solo principio clásico, indicio facilidad probatoria si yo le solicito la exhibición de prueba al profesional, al que ha introducido ese producto en el mercado y no lo hace posible la carrera, unos perjuicios. No, no me facilita esa prueba esa exhibición de prueba. La carrera era un perjuicio al demandado. En este caso establece el artículo 9 de la directiva, y eso no se había introducido el derecho colaborativo de alguna forma u otra en nuestro ordenamiento jurídico. Me pregunto. Tenemos algún experto en materia de derecho colaborativo, algún compañero de esta sala y a mí y creo que o modificamos el esquema regulatorio actual en todos los aspectos nos hemos quedado cortos, creo pregunto, y desde luego esa transición va a ser un caldo de cultivo, a mucho trabajo para los letrados, y os animo al uso de la tecnología. No suelo hacer una precisión el tema de suplantación. Creo que el reglamento de la Unión Europea en ese punto es bastante acertado, en el sentido de que cualquier inteligencia artificial que permita su implantación o suplantación es obligatorio que dentro de su programación llevé las instrucciones precisas para que cualquier imagen generada con ella se pueda saber que efectivamente ha sido generada por inteligencia artificial, marca de agua, o aunque no sea visible que sea fácilmente comprobable, haya una una inserción que permita saber qué fácilmente, comprobable bien. Creo que la tecnología a tiempo cronos nos manda aquí. Bueno, ya simplemente para terminar, reiterar el agradecimiento al Colegio Naval de Cartagena por su amabilidad. Al acoger esta jornada, dar las gracias a los 3 magníficos ponentes, que hemos tenido aparte del aplauso, que seguramente darán presencialmente. Dentro de un momento en Internet, también los comentarios por el chat han sido muy elogiosas y con relación a este tema de la prueba. La entidad artificial hace un mes, un poco más hicimos una, un seminario con un jurista especialista en tecnología y no noche a la misma, María Fernández estuvo allí que fue realmente impactante y está grabado en tv punto punto 9. Junto a eso lo podéis ver y en ese sentido el compromiso de la cátedra es generar contenidos, actividades e iniciativas formativas, siempre en abierto y para que esté todo disponible. Entonces también tenemos la idea con el señor Salvador Thomas conoce bien, María Fernanda de organizar una actividad formativa sobre precisamente la incidencia que tiene la artificial en la prueba. Ya informaremos oportunamente al colegio. Por supuesto, me ha parecido que hay una mano levantada si es el canal de televisión de la empresa de Murcia tv. Punto me apunto es Ignacio a la mía Domingo prueba inteligencia artificial tenis el vídeo corredor social el incidente entre también lo puede ir, está accesible y, si no, con mucho gusto le doy mi correo ahora al terminar y merece la pena escucharle, porque allí nos explica todas las tecnologías de inyección que están utilizando actualmente para suplantar la entidad y no somos realmente conscientes del impacto que tiene, no en la actividad judicial y en la vida social en general. Yo me voy a auto moderar y no voy a entrar en detalle porque tengo algunas opiniones parcialmente discrepante con cosas que se han dicho aquí pero no es el momento ni el lugar y simplemente termino agradeciendo nuevamente la oportunidad y ofreciendo la colaboración de la cátedra para el colegio, si lo estima oportuno pueda realizar nuevos eventos que incidan en ese desafío que, como decía, tenía la profesión en general, y la abogacía en particular, que es formarse en temas digitales; una cuestión puramente prácticas. Si alguien quiere un certificado Florencia horas, tomaran nota de las instituciones para generarlo, creo que de manera automatizada. Muchas gracias. Un la.

Propietarios

UMtv (Universidad de Murcia)

Publicadores

Florencio Navarro Gomez
Julian Valero Torrijos

Comentarios

Nuevo comentario

Serie: La incidencia de la Inteligencia Artificial en la responsabilidad civil (+información)

Descripción

Jornada organizada por la Cátedra Fundación Integra sobre Identidad y Derechos Digitales de la Universidad de Murcia y el Ilustre Colegio de Abogados de Cartagena

PROGRAMA
17 h. Presentación
- Ángel Méndez Bernal. Decano del Ilustre Colegio de Abogados de Cartagena
- Julián Valero Torrijos. Catedrático de Derecho Administrativo. Director de la CIDD. Universidad de Murcia

17.15 h. Mesa redonda
- Gabriel Macanás Vicente. Profesor de Derecho Civil en la Universidad de Murcia
- José Muelas Cerezuela. Abogado del Ilustre Colegio de Cartagena
- Fernando Madrid Rodríguez. Magistrado titular del Juzgado de Primera Instancia número 5 de Cartagena
- Modera: María Fernanda Vidal Pérez. Abogada. Profesora Asociada de Derecho Procesal en la Universidad de Murcia