La.
La.
Señor Trevín.
En primer lugar, pedir
disculpas por bueno,
porque tengo la voz un poco
poco perjudicada.
Intentaré hablar poco para para
quien todavía me quede
algo bien.
Pues bien, bienvenido reitero a este
curso sobre inteligencia artificial,
y su impacto en la responsabilidad
civil
vivimos en una era que
donde la tecnología
avanza un ritmo vertiginoso está
transformando nuestras ciudades
nuestras sociedades y cómo
no nuestras economías
y por supuesto también muestro
nuestro derecho
la inteligencia artificial
se va a ser
y ahora mismo ya es una herramienta
muy poderosa
en los aspectos jurídicos en
que se puede utilizar,
pero a la vez también yo, desde
luego, desde mi punto de vista
es una herramienta también
bastante peligrosa
de la tarde de hoy nuestros ponentes
gobernar resolver
preguntas preguntas delicada
no por ejemplo
estas preguntas que nos dicen Cómo
cómo se puede garantizar justicia
o cuando un un algoritmo puede tomar
en parte a lo mejor decisiones
no, o quién responde cuando
un sistema autónomo causa
causa un daño.
Sobre eso va a ir la charla
interesantísima
esta tarde.
Yo quiero expresar, desde luego,
mi gran agradecimiento
a la Universidad de Murcia
en especial
a quien me acompaña aquí esta tarde
en esta mesa de inauguración
a don Julio Valero Torrijos,
catedrático de Derecho Administrativo
y director de la Cátedra
Fundación Integra,
sobre identidad y derechos digitales
de la Universidad de Murcia,
y es que gracias a ellos realmente,
pues estamos, estamos aquí esta tarde
y, por supuesto también agradecer,
cómo no, a todos los magníficos
ponentes que nos van a acompañar
esta tarde.
Agravio bacanal al profesor de
Derecho Civil de la Universidad de
Murcia, José Muelas Cerezuela,
decano de mérito de este colegio
y abogado en ejercicio a don
Fernando Madrid Rodríguez,
magistrado, titular del Juzgado
de Primera Instancia número 5
también, cómo no, muy especialmente
a mi querida compañera y amiga,
María Fernanda Vidal Pérez,
es abogada y también profesora
asociada de Derecho Procesal,
de la Universidad de Murcia.
Los ponentes que vamos a
disfrutar esta tarde
de escucharla son, pues vamos nivel
absolutamente excelente esta materia
y el primero, insisto, es
don Julián Torrijos.
Aquí ya sin más le voy
a dar la palabra
para que proceda a comentar, pues
la realidad de este curso
y todo lo que vamos a aprender en el
mismo, que no hay nadie mejor
que el que quien lo ha organizado
para efectuar esta introducción.
Muchas gracias.
Muchas gracias a ti,
decano y especialmente al ilustre
Colegio de Abogados de Cartagena
por la amabilidad de acoger
esta jornada,
con la que intentamos ofrecer
una reflexión crítica
sobre el uso de esta tecnología tan
disruptiva, no y tan de moda,
como es la interinidad artificial,
mucho más allá de la reciente
reforma que ha habido ahora
en el ámbito de la Unión
Europea hace tan solo
unos meses y que ha puesto de moda
no lo que es el régimen jurídico
de la entidad artificial.
Me parece especialmente interesante
hacer un intento
de aproximación sectorial en
algunos ámbitos concretos,
donde esta tecnología puede
tener un enorme impacto,
más allá de analizar la regulación
europea con sus medidas de garantía,
que seguramente saldrán a
lo largo de la sesión.
Creo que es muy relevante hacer
un ejercicio de realidad
de cómo esta tecnología está
afectando a instituciones,
a principios, a regulaciones concreta
y a problemáticas muy asentadas
en el mundo del derecho,
como puede ser la responsabilidad
civil,
pero que nos sitúa ante
el nuevo desafío,
sino problemas para los cuales
hace falta tener una visión
un poco más elevada del día a día,
y este es el sentido de
la jornada de hoy.
Pretendemos, sobre todo, poner
encima de la mesa un debate
sobre una realidad que ya está
aquí y que no podemos pensar
que es una cuestión de futuro, sino
que ya se están empezando
a plantear problemas de carácter
práctico en relación
con la incidencia que tiene esa
tecnología, por ejemplo,
a la hora de indemnizar los daños
que se pueda causar en diversos ámbitos,
podemos pensar en un ámbito
muy asentados.
En el entorno digital,
como puede ser el comercio
electrónico,
pero hay otros muchos que están por
venir a corto o medio plazo
y algunos quizá más largo plazo,
como puede ser la conducción
autónoma.
En definitiva, es el momento ahora
de empezar a sentar las bases
de la respuesta que el derecho debe
dar a estas nuevos escenarios
de disrupción tecnológica.
Esta es una actividad
que está impulsada
y financiada a través de la cartera,
Fundación Integra,
de identidades digitales.
Tenemos la suerte de dirigir, que
es una iniciativa impulsada
por la Comunidad Autónoma
de la Región de Murcia,
a través de la Fundación Integra, y
gracias al apoyo de esta fundación
del Gobierno regional, podemos desde
hace ya prácticamente 3 años
se están organizando actividades
de reflexión, de formación,
de investigación que intentan
dar respuesta
a un papel que debe jugar el
derecho en este entorno
a esta sociedad digital
y digitalizada,
donde prácticamente todo ya lo que
sucede se puede registrar,
guardar y hay temas de gran
actualidad, enorme debate,
como precisamente estos días se ha
planteado la cuestión relativa
a la gran cantidad de datos que
van a recoger los hoteles,
no de cuando nos registramos todo,
se va a quedar digitalizado
y va a generar una base a 2 tremenda,
no de una cantidad de información
que supuestamente lo que se pretende
es hacer un, un sobre todo
un una aproximación
mucho más eficaz a la lucha
frente a cierto tipo
de delitos delitos, pero
al mismo tiempo
tenemos modelos de 2 caras.
También hemos visto recientemente
cómo la Agencia Tributaria,
la Agencia Tributaria nada más
y nada menos ha sufrido
un ataque de ciberseguridad
muy importante.
En definitiva, no podemos ser
tan ingenuos de pensar
que esta tecnología, prácticamente
que nos jubila,
no que no nos deja ver la realidad
va a ser solamente un una fuente
de mayor eficacia y eficiencia
mayor es posible,
sino que también va a tener un
impacto sobre nuestros derechos,
sobre nuestras libertades, y qué
mejor que un foro profesional
especializado en el ámbito
del derecho,
como el ilustre Colegio de
Abogados de Cartagena
para hacer esta reflexión,
así que gracias por vuestra
amabilidad
y para mí es un placer, además
especialmente el hecho
de poder compartir el programa
con ponentes,
tan cualificados como él
decía en primer lugar,
y me van a permitir que me he
saltado en el programa,
pues don José Muelas Cerezuela, que
sin duda es una referencia en el
ámbito del derecho y la tecnología
mucho más allá de Cartagena.
Por si no lo saben,
seguro que lo saben porque
lo conocemos.
Años que yo, pues una de las
primeras personas que en España
empezó a hablar de lo que era
la firma electrónica
fue el pionero en muchos ámbitos,
en muchos sectores,
y yo recuerdo que una de las
primeras veces que escuché hablar
de esta cuestión fue escuchándole
antes de empezar la sesión comentado
o no alguna anécdota de un evento en
que recuerdo coincidimos allá
por el año 1999 del año 2000, más
o menos por aquella época
también por el hecho de poder contar
con don Fernando Madrid
como magistrado o no,
porque nos va a dar una visión
también desde el punto de vista
de quien tiene que tomar decisiones
en situaciones
de conflicto que no siempre
van a estar reguladas.
No pensemos que el reglamento
europeo, intensidad artificial,
no va a resolver todos los problemas,
va a dar un marco normativo
general con la finalidad
de generar un mercado digital.
Esta es la finalidad, las
normas europeas,
de manera que la Unión Europea no
tiene especial interés de momento
en regular establecer unas reglas
específicas sobre Interdin,
artificial en el ámbito de la
responsabilidad civil.
De hecho,
imagino que en el debate saldrán
varias posturas, varias iniciativas,
pero la idea es que esta
es esta problemática.
La vamos a dar en el que
resolver en modo local
serán, pues los juzgados,
como el que dirige nuestro
invitado al magistrado,
en los que tengan que
tomar decisiones
a partir de principios generales a
partir de conceptos jurídicos
muy amplios, que ayer remangarse y
aplicar en una situación concreta
donde la solución no va a
estar disponible área
de un algoritmo, al menos de momento
y sobre todo también
es un es una satisfacción
poder compartir mesa
con mientras apreciado compañeros
los profesores Gabriel Maracaná,
semana general Vidal, especialmente
en el caso Marea
-Fernández, porque, bueno, fue
profesor mío de Derecho Procesal
y guardo un magnífico recuerdo
personal y profesional de ella
y esta situación esta jornada
con me permite compartir.
Creo que nunca hayamos coincidido
en Fernanda
es un placer estar también con ella.
En definitiva, y aquí me voy a caer
porque es el momento de escuchar
a nuestros ponentes,
es esta, es una una oportunidad
para que desde la cátedra
Fundación Integra sobre Oriente
ha hecho digitales.
Pues sigamos haciendo el trabajo
que hemos venido haciendo.
Nos parecía importante
descentralizar no las actividades que realizamos,
y ya adelanto que vamos a intentar
volver cada vez que desde el colegio
se nos abren las puertas.
Será un placer colaborar en la
realización de otra jornada
sobre muchos desafío
no profesionales,
que seguramente la tecnología
pone como colectivo,
no como colectivo de la abogacía a
la hora de dar un mejor servicio
a nuestros clientes y defender
de manera eficaz y eficiente
pueden obtener los derechos
y libertades individuales
también a nivel social, que creo
que son un reto tremendo.
Pues gracias a que el pueblo
extraordinaria
como muchísimas gracias y sin más,
damos paso a muchas gracias a todos.
Anual.
Buenas tardes.
Continuando en el uso de la
palabra con respecto
al que me han precedido en
torno al agradecimiento,
yo sinceramente también quiero hacer
un agradecimiento, en primer lugar,
por sus amables palabras
y por permitirme la posibilidad de
no solo estar aquí esta tarde,
sino haber podido compartir
con los ponentes
un rato de conversación que el
que realmente ha andado
una vida increíble, o lo quiero
agradecer a todos,
a la propia Facultad de Derecho
y cómo no colegiada,
o de Cartagena-Ángel para mí sabéis
que proceda a otro colegio,
pero siento que siempre se empieza
el colegio como mi propia casa.
Es decir,
digamos que sería una colegiada;
pues quizá como queráis llamarme,
pero para mí es importante.
En último lugar quiero tener unas
palabras simplemente de recuerdo
para todos mis compañeros de
Valencia que lo están pasando francamente
mal, que están en una situación
absolutamente delicada,
con el único objetivo de que los
podamos tener presentes
y que no caigan en el
olvido la situación
en la que estaban pasando Unida,
su tragedias personales,
lo que supone el desarrollo
de una profesión.
Como el ejercicio de la abogacía
contribuyen a que su día a día
sea francamente duro y difícil
y especial mención
dentro de todos ellos, acaban
pecando de los colegios,
y, en especial a José Soriano,
decano del Colegio de Aguas de Valencia.
Además, me parece un profesional
digno de alabanza
lo que está haciendo por
sus colegiados,
eso casi un milagro.
Yo creo que este señor,
cuando comparecieron cuando
termine todo el problema
que tienen actualmente, van a
necesitar un periodo reposo
porque no he visto una
persona más activa,
más luchando por sus colegiados,
mejorando la presente y, en fin,
sirva por tanto un poco de tributo
a todos nuestros compañeros,
que, lamentablemente, no
tienen una situación
tan beneficiosa como podamos
tenerla nosotros hoy día.
En último lugar.
En último lugar,
pues también hacer una llamada
a la abogacía en general.
Como soy, como profesora, que soy ya
35 años, por eso la 38 años abogado
y quizá tengo la perspectiva
de poder intuir,
no aprender estoy hablando todos los
días se llama tercer ámbito
que haya un campo jurídico bueno
para todos los abogados,
es decir, no veamos ahí ya.
Como me van a hacer una demanda,
va a ser fácil el trabajo.
Veámoslo como un campo de trabajo,
iniciaremos nuestra órbita
de trabajo, sobre todo en el ámbito
de la responsabilidad civil,
en todas sus esferas,
que podremos seguir discutiendo
durante mucho tiempo,
y creo que vamos a tener que
iniciar alguna jornada
porque te invito y te rojo el guante,
porque yo creo que pasado el primer
momento de AMI normativo,
como se suele decir ahora
vendrá el segundo.
Cómo lo encajamos?
Procesalmente y eso tiene mucho que
ver con la abogacía tradicional,
con una perspectiva mucho
más moderno.
Bien, en primer lugar,
voy a conceder la palabra a la
Virgen Macarena vigente
que licenciado en Derecho por
la Universidad de Murcia
en 2009 con premio extraordinario
en el 2010,
máster en derecho de seguros
y además fue becario,
de formación de profesorado
universitario
en el Colegio de España.
Se doctoró en Derecho por la
Universidad de Bolonia
y en 2016
tenemos la suerte de que se
incorpore a la Universidad de Murcia.
La Facultad de Derecho es profesor
de Derecho Civil,
autor de diversas publicaciones
y articulas, el artículo 2,
también en materia de Digitalización
e Inteligencia,
Artificial y responsabilidad civil,
y ha realizado actividades
de muy diversa índole
colaborando con despacho, colegios,
colegios de apis,
ha sido árbitro de consumo
y, como dato curioso
puedo decir que asesoró en la
primera propuesta de reforma del Código Civil
en relación a la cuestión,
a la responsabilidad civil,
libros y los animales,
y luego en alguna cuestión más
concomitante, para mí un lujo,
poder presentarlo para ser
el primer ponente
y espero y confío y sé que será
bastante ilustrativo
al respecto.
Muchas gracias.
Buenas tardes a todos.
Yo también tengo que agradecer estar
aquí al colegio de Cartagena,
que una vez más me acoge cada año.
Vengo llegado a dar clase a nivel,
va a hacer derogación, siempre
me siento muy acogido,
disfruto mucho las clases y
aquí y me alegro de poder
estar aquí de nuevo.
Agradezco también a Julia Julián.
Ya se me van acumulando las cosas
que agradecer a don Julio ame,
un proceso que 1 ve cómo comunica,
cómo investiga,
cómo organiza y 1 piensa
más por lo menos drama
en las clases,
pero que luego lo alumno
le adoran a él
y a su asignatura de Derecho
-Administrativo.
Entonces ya no sé si
alguien, migración
o casi envidia por mi parte, pero
bueno así se lo agradezco mucho
y bueno, María Fernanda Anda que
además de llevar como y además llevar
como lleva la abogacía,
que todos ustedes saben lo que
cuesta, lleva año década,
desplegando generosidad en la
universidad dándonos clase
y dando clase;
y no solo eso, sino que la emoción
que tiene por aprender cada día
no es solo un tesoro para ella, sino
un impulso para lo que tenemos.
Suerte del rodearlo que
nos anima siempre
a seguir aprendiendo y
no ya como un deber,
sino como lo que o como lo que
debería ser, que un placer hecho.
Luego agradecimiento que espero que
no me cuenten para tarjetas.
Yo ya ahora, para empezar, yo
tengo que hablarle todos.
Tenemos que hablarle de inteligencia
artificial,
y la inteligencia artificial; un
campo relativamente nuevo.
Cada vez que entramos en campo
nuevos tenemos una dificultad,
porque o bien le explico todas
las bases pormenorizadamente
se acaba la ponencia o asumo
que las sabe ni puede
que alguien no se termine de enterar.
Hay que tomar decisiones,
y yo aquí espero que sean
indulgentes conmigo.
Voy a hablarle de cuestiones
generales
para empezar, sí;
pero cuando le expliqué cuestiones
sobre todo cuestión informática,
voy a hacerlo no con una voluntad
científica de agotar el tema,
sino más bien ejemplificativa mente.
Quiero que entendamos de lo que voy
a hablar mucho más que agotar.
Luego se podrán salir explicaciones
más específica,
y si ustedes saben poder decir que
es simple, si lo lamento,
pero fue deliberadamente para
que podamos avanzar,
porque hablando de inteligencia
artificial,
lo primero es dar una buena noticia,
buena noticia que además creo que
es necesaria entre jurista
juristas me da la impresión
de que a veces
estamos abocados moderadamente,
al crecimiento,
al crecimiento sobre todo como
circunstancia que nos rodean,
porque la ciencia jurídica,
el derecho,
no es una ciencia especulativas,
tono, filosofía,
toda una ciencia práctica, y
nosotros resolvimos problema
y cómo resolvemos problema,
buscamos problemas,
ya saben ustedes que quien va con
el martillo en alto solo
ve clavo, nosotros vemos problema
en las cuestiones,
sin embargo, la inteligencia
artificial,
que no es futuro sino presente,
está aquí y para quedarse,
por fortuna y por mucho que
nos puedan ocasiones,
asustar o inquietar como seguro que
asustó la electricidad o el coche,
o Internet sin necesidad
de ir más lejos,
todo ello ha beneficiado nuestra
vida y todavía mejorar nuestra vida,
y eso va a ocurrir con la
inteligencia artificial,
la inteligencia artificial
para nuestra vida mejor.
Yo no tengo duda de eso y sin
embargo y de forma inevitable,
también va a causar daño,
igual que causan daños,
los coches que causa daño en
la electricidad y causa
daño en Internet hay una diferencia.
La diferencia y esto es donde
me quiero centrar
especialmente es que no estoy muy
seguro de que tengamos recursos
para jurídicamente tratar resaltar
aquí también a veces lo jurista,
juristas teóricos tendemos a
ser un tanto concéntrico
y cuando estamos viendo un
tema que nuestro tema
enseguida reclamamos una regulación
específica que era una ley, una ley
para lo mío porque yo he visto
los problemas concretos
y se necesita una ley yo creo que
son una oposición generalmente
equivocada el derecho civil lo que
lo hace grandes precisamente
los principios y que partiendo de
unos principios comunes de siglo
sino más podamos resolver la
mayoría de las cuestiones,
lo cual se sigue dando en muchísimos
ámbitos también
de la digitalización y
eso no hace grandes.
Si hubiera que hacer una norma por
cada institución jurídica
aplicada un nuevo problema, no
tendríamos un ordenamiento jurídico,
tendríamos un enjambre.
Yo luego le digo que no
sería derecho civil
y sería Sevilla administrativo,
lo cual no sé si puedo decir eso es
hoy aquí; en cualquier caso,
con la inteligencia artificial.
El problema es que puede
ser que en este caso,
si la irrupción sea tan grande
que no podamos aplicar
los principios generales,
y esto para explicar el
porqué voy a resumiré
algunas de las características
propias de la inteligencia artificial
y ver cómo dificulta aplicar
lo que todos conocemos,
como las reglas de responsabilidad
civil extracontractual.
Primera cuestión de 4
punto muy concreta.
La primera cuestión es que la
inteligencia artificial
en la inteligencia artificial
y en su desarrollo y uso,
interviene mucho sujeto.
Interviene como mínimo el
desarrollador el que a veces
alguna norma llame importador
o distribuidor,
el que finalmente acabe comparándolo
usándolo,
además de otros posibles
sujeto interviniente,
esto no imposibilite utilizar
las normas que tenemos.
Esto no es nuevo.
En mi teléfono móvil que tengo aquí
también ha pasado por toda esa mano,
pero añade una capa de complejidad
que se acumula a las que vienen.
Porque mi teléfono móvil es
algo único, tangible,
y claramente identificable,
como lo es un coche.
Por eso un coche puede matricularse
y por eso un coche puede asegurarse
en su individualidad,
porque se sabe que es el coche en
una inteligencia artificial,
que es un programa no es tan
fácil por 2 motivos.
Primero, porque es clonados;
es decir, se puede copiar,
y una sola inteligencia artificial
puede estar en muchísimo dispositiva
de muchísimos usuarios.
Esto ya dificulta el que se pueda
concretar específicamente
en qué objeto productor, del
daño estamos concretando,
por ejemplo, un seguro, pero no
solo eso, si bien los objetos
de un coche se puede cambiar un
motor, hay un motor que sale,
otro que entra y hay sujetos
que lo saben
y pueden hacerse responsable
en un programa informático
que estos matices no sé
si ustedes recordarán
el MTO seguro que la mayoría así
para que se haga una idea,
los programas son líneas
de código Homs 2
tenía unas 4.000 líneas de código
aproximadamente el bum, 2, 10;
tiene unos 80.000.000
de líneas de código
Google, con todos los programas que
tienen, segundos 2000 millones
de líneas de código
Por qué digo esto?
Si de esos 80.000.000 de líneas
de código o 40 o 10,
me da lo mismo, yo cambio una línea,
un programa diferente o el mínimo,
y, si cambio 100, si cambio 1.000,
si lo cambie el usuario y solo camión
jaque Cuándo estaríamos ante una
nueva inteligencia artificial,
y cuando ante la misma, esto
probablemente probablemente
esto también podríamos solucionarlo,
pero se complica más.
Cuando llegamos al siguiente paso es
que la inteligencia artificial
puede cambiar este código
por sí misma
para explicarle esto sí aquí
sí que necesito hacerle
un pequeño paréntesis para hacerle
no una explicación,
sino más bien una metáfora de cómo
funciona en inteligencia artificial;
a ver un programa.
En un programa el programador da
instrucciones a un sistema
para obtener un resultado.
Lo más sencillo y 7 a pensar sumar.
Introduce la norma de las
matemáticas que le hice
cuando hay 1 a 1 sumado
fácil y sencillo.
Si al programa informático
quisiéramos que sumar a persona
de una fotografía
o, mejor aún de un vídeo se
complica un poco más,
porque tendría que identificar
quiénes son las personas,
tendría, por tanto, que
diferenciarla de silla
ustedes, por ejemplo, que son
persona y que no es suya.
Ahí el programador tendría que
instruirle darle instrucciones
para localizar a personas
y decirle que las personas
son las que tienen ojo,
o las que tienen determinados
parámetros físico que con una cámara
puede captar bien, son las personas,
van entrando y saliendo, imaginen
para contar personas
en una manifestación estos
son programas reales
de inteligencia artificial
que voy a decir
se hace mucho más difícil hay
que entrar a la gente,
saliera, tendría que decir sí a
la inteligencia artificial
que contará que descontará y que
no identificara personas.
El individuo y esto se hace
cada vez más complicado
y el programador tiene que
dar más instrucciones
y hacer más líneas de código,
cada vez más difícil,
y esto es lo que se ha
hecho hasta ahora,
pero con la inteligencia artificial
se abre una nueva vía
y decirle.
Prueba tu es decir, se le da
una base que la hace capaz
de hacer intentos simplificando
mucho,
con esa base se le pone luego se
le da información, datos,
un vídeo, un vídeo, no
100 miles de vídeos,
donde hay personal y se dice cuenta
en la inteligencia artificial,
utilizando método que
vaya desarrollando
conforme a la instrucción inicial
de las que parten dice.
Imaginemos que hay 100 80, se la
hice mal; de falta volcó,
otra forma 85.
Bien va mejorando y va
a acabar haciendo
lo mejor hasta que llega
hacían bien 100, bien,
y cuando ha dicho en muchísimas
ocasiones
se han perfeccionado.
Hay ya lo hace bien.
Entonces la inteligencia artificial,
se cambiase misma porque
para ir cambiando,
para ir evolucionando ha ido
teniendo que reescribir su propio código.
Esto en principio
no parece algo que se
llama lo negativo,
porque si alguien le dice la
inteligencia artificial
que cuente, si la inteligencia
cuenta,
será responsabilidad suya donde
se complica el asunto.
Esto es lo que lo informático
llama resultados obvios,
no evidentes, y es que la
inteligencia artificial,
cuando aprende a aprender para
llegar al objetivo que le hemos dicho
que no siempre es el objetivo que
nosotros queremos de verdad,
un ejemplo de una inteligencia
artificial.
Esto es cierto, pues es real.
El ejemplo está programada
para acoger cosas,
para un programa que simplemente
es un brazo robótico
que tiene que coger objeto
agujero objeto.
Nosotros estamos muy acostumbrados
por nuestras sencillo.
Si aprieta fuerte rompe el vaso,
sean porque tampoco se
puede ver el vaso.
El vaso puede tener distintas formas,
tienen que aprender a hacerlo.
La inteligencia artificial empieza
haciendo muchísimas simulaciones,
cuando quieren que ya está
suficientemente entrenada,
pasa al ámbito real,
y si coge el objeto dicen
y lo hacen bien,
pasa otro objeto.
Si lo rompe o no lo coge,
o se les suelta.
Lo hace mal, dejen artificial,
empieza aprendiendo, vaya
desarrollándose,
hasta que descubre ella sola, a
base de intento que no cubre.
No se da cuenta, es consciente, pero
su intento le llevan a concluir
que si esta es la Cámara que
está agravando esto,
el paso de aquí la Cámara
y ahí no hace falta que lo coja,
si se pone en una dirección
suficientemente angular a la alenté
y cierra la mano la Cámara quiere
que lo coge y no lo coge,
como lo adelanto revisa usted han
visto la fotografía típica
donde 1 parece que está sujetando
la ley no es real,
eso aprende el interés, aprende
hacer trampas.
Nadie le ha dicho que haga trampa
y la inteligencia artificial
empieza a jugar con la ley,
no con el objeto;
la inteligencia artificial
finalmente se utilizan no para acoger objeto
de un pacto robóticos a día de
hoy se utiliza para óptica,
porque aprendió sin que nadie se lo
dijera cómo funcionaba la lente
y como engañar o no con
la perspectiva
la alerta aprendido de perspectiva.
Esto que nos parece un ejemplo
quizá ilustrativo,
pero no muy preocupante, se lo
voy a poner con otro ejemplo
que pueden estar un poco.
El ejemplo siguiente lo dijo
en una conferencia,
un teniente de la Fuerza
Aérea norteamericana.
Luego,
el ejército americano lo desmintió
no me importa si es real o no,
porque cuando me 9, pero símil,
una inteligencia artificial para
pilotar drones, drones,
como bombardearnos, drones suicide,
tiene muchos parámetros entre ellos,
tienen que mandar personas que te
hemos dicho de célula terrorista,
pero, por otra parte,
necesita obedecer a un operador
humano humano
que controla, que no haya
víctimas colaterales,
que en un colegio cerca
son sus 2 parámetros
principales.
Además de otro, son simulaciones.
En ordenador esto no es real,
no, no se no practicaron.
En el mundo real el dron
encuentra el objetivo
y le dice el operador.
No pueden bombardear de lo que
entonces da vueltas que hace,
aprehende optimizar la gasolina o
el combustible, mejor dicho,
que tiene para durar el
mayor tiempo posible.
La distancia en la que se tiene que
poner para no perderlo aprende cosa,
pero no puede cumplir el
objetivo primario.
Hasta que un día
esto son miles o millones de intento
la máquina descubre
que si bombardea al ser
humano, es decir,
si al operador que le prohíbe
atacar lo mata a cumplir,
un objetivo bombarderos urbano más
del ser humano ya no es obedezco.
Al ser humano bombardeo, terrorista
mata al terrorista,
he cumplido todo y para ella
ha cumplido su objetivo
y nadie cuando la programó pensaba
que iba a mandar al ser humano.
Entonces no nueva nueva premisa,
no pueden matar al ser humano.
Después de millones de intento
aprendido que se destruye
el terreno de comunicación no le
llegaba la orden de ser humano
y podía mandar terrorista, y los
niños del colegio también.
Esto se nos puede ir de la
mano en ese sentido,
porque nadie podía pensar que
iba a descubrir esto;
a esto son aplicaciones militares,
aplicaciones peligrosa,
pero es que esto tiene mucha
otras posibilidades.
Piensen una inteligencia artificial
que, por ejemplo,
para desarrollar un medicamento,
y se le dice Tienes que erradicar
una enfermedad
y lo que ella decide,
lo que ya decide,
no la conclusión a la que llega
es que si en 2 generaciones
esteriliza la gente que puede
contagiar la enfermedad
y a lo mejor produce un medicamento
así y no solo no sabemos
que lo ha hecho que esto es el
componente de impredictibilidad
a cabo, todo esto de que
sea imprevisible
de que sea inimaginable lo que
pueda llegar a hacer,
imaginen cómo afecta
principio civiles,
como la causalidad o como
la vigilancia,
cómo puede vigilar algo que no sabe
cómo va a acabar actuando.
Se hace muy difícil tanto
para el usuario
como para todos los eslabones
de la cadena,
pero es que luego el último problema
es que la inteligencia artificial,
o por lo menos alguna no sabemos
muy bien cómo funciona.
Es decir, estos procesos internos
que hacen para tomar decisiones
son opacos,
tienen lo que se llama un
sistema de caja negra,
hace muchísimas operaciones;
combinatoria que nosotros no
somos capaces de descifrar
no sabemos por qué ha llegado
a esa conclusión.
Inclusión a la inteligencia
artificial,
es que funcionan muy bien;
por ejemplo, radiodiagnósticos
le da una imagen médica
de un escáner y tiene
una probabilidad.
Cuando un médico no ve nada en un
80 por 100 de probabilidad
puede detectar que va a haber
un cáncer, por ejemplo,
pero no sabemos por qué
y no nos lo dice.
No yo detecto un cáncer
porque no lo sabe
y no lo podemos saber.
Esto genera muchísimos problemas
que a ustedes pueden pensar.
Los cogemos la alternativa
más segura,
la queja blanco podría hacerse,
pero saben qué pasa?
Que no funcionan tan bien.
La caja blanca,
día de hoy en este mismo
tipo de pruebas
tienen una eficacia peor
que los médicos,
porque la potencia de cálculo que
introducimos en inteligencia
artificial para quedar todo
este tipo de operaciones
con ese sistema da mejores
resultados.
De hecho a veces se propone que,
para poder desentrañar,
como lo hace habría que utilizar lo
de la inteligencia artificial,
que nos lo dijera,
pero, claro, luego haría falta una
tercera inteligencia artificial
para saber cómo la segunda
inteligencia artificial
está cifrando,
la primera y aquí ya nos vamos a
los vocales de las máquinas.
Es lógico, no probablemente
no sea el mejor camino
o un camino que nos lleva a
un callejón sin salida.
Con todo esto, elemento que están
ustedes viendo no sabemos
cómo funcionan internamente, ni
siquiera los demás programas
no sabemos qué van a acabar haciendo,
pueden duplicarse replicarse
de forma total o parcial
y además todos los sujetos
intervinientes.
Yo creo que nuestro sistema de
responsabilidad no alcanza claro.
Podemos hacer leyes nueva,
dicho todos ustedes habrán
oído hablar de ley.
Nueva ley, inteligencia artificial;
de hecho, hace muy poco
el 23 de octubre,
se aprueba, no es de inteligencia
artificial,
como tal, pero han metido
algún contenido
en la directiva de productos
defectuoso.
Esto no ayuda deberían,
porque deberían todas
las declaraciones
en el ámbito europeo desde hace
mucho tiempo decían.
En la inteligencia artificial hay
una premisa irrenunciable,
que es la absoluta indemnidad
de todas sus víctimas resarcimiento
completo y pleno.
Todas las instancias políticas
lo han dicho una y otra vez,
pero hay algo que no han dicho,
aunque ya lo apunta Julia,
y es que esto no solamente un objeto
que puede causar daños también
es una industria, una industria en
la que nos podemos quedar atrás,
no una industria en la que ya
estamos atrás de Estado,
unido y probablemente
también de China,
aunque sea a veces más
difícil de valorar,
y no solo una industria
también son productos
que van a beneficiar nuestra vida.
Nosotros queremos implementar no
directamente no la industria,
la inteligencia artificial, sino
nuestra industria general,
que con inteligencia artificial
podrán alcanzar,
o quedarse atrás a la
industria americana
o a la industria asiática.
Aquí donde la cosa se complica,
porque la indemnidad absoluta,
sobre todo cargando a los
productores frente
al funcionamiento óptimo del
mercado, no terminan de casa,
y con unos llegamos a
las normas actuales
de las que voy a hacer solamente
un breve repaso.
En cuanto a responsabilidad civil,
el reglamento de la Ley de
inteligencia artificial
tuvo muchas previsiones
originariamente que introdujera.
Norma introduce normas de
responsable civil,
no, lo que hace fundamentalmente
intentar evitar el colapso.
Es decir, intentar que aquella
inteligencia,
artificial de riesgo inasumible,
existan las prohíbe
y las que son de muy grave riesgo,
intenta evitar que produzcan
daños preventivo,
pero cuando el daño suceda
no da respuesta.
El año sucederá tarde o temprano
todo esto no nos sirve
Qué tenemos o tenemos ahora la
directiva de productos defectuoso
que he hecho en el artículo?
Creo que en su artículo 7, 2
probablemente la letra habla
de que entre los muchos criterios
que se tienen
que tener en cuenta para determinar
si un producto no defectuoso
que son todo decir que tampoco
es una indicación muy clara,
pero entre ello habrá que tener
en cuenta la capacidad
que tiene el objeto para
reprogramarse.
Asimismo, está pensando en
inteligencia artificial.
1 puede pensar.
Ya está aquí va a estar incluido,
no Por qué no?
Porque luego, en el artículo 11
habla de que cuando de conformidad
con el conocimiento objetivo
de la técnica y la ciencia actual
no sea posible saber
que se va a provocar un
daño con un objeto,
habrá una inclusión de
la responsabilidad,
y estoy muy probablemente
sea aplicable a toda la inteligencia
artificial actual,
con lo cual lo menciona,
que lo excluye bien
es cierto que al final el artículo 18
permite que el Estado puedan
excluir la exclusión,
pero no es fácil, y hay que hacerlo
de forma muy concreta, específica,
argumentada, comunicándolo.
No creo que eso vaya a hacer
demasiado Qué nos queda?
Bueno, ahí hay un proyecto
de directiva,
hay un proyecto de directiva
de responsabilidad civil
en el ámbito de inteligencia
artificial.
Más concreto, no puede ser.
De hecho, esta directiva
surge como el fracaso
de introducir en el reglamento
normas de responsabilidad,
y bien esto no lo soluciona,
pues no mucho de lo que trata
principalmente de prueba de carga,
de la prueba,
cuestiones que nosotros
consideraríamos más bien procesales,
y cuando habla de responsabilidad
civil
habla aquí de seguro obligatorio.
Claro, seguro, obligatorio
como en lo coche,
no ha funcionado bien, ha funcionado
bien, por cierto,
con criterios que no sé si sería
tan fácilmente asumible.
Hoy, por ejemplo, que el conductor,
que el usuario pague su propio seguro
los coches lo hemos aceptado porque
la conducción la asumimos
como algo activo, el principio
no todo el mundo conducía,
pero cuando la inteligencia
artificial, que es transversal
y todo el mundo lo utilice, se
dicen todos los ciudadanos
a pagar su seguro obligatorio.
No sé si se aceptara también, pero
bueno puede ser una solución.
Eso habrá que verlo.
En cualquier caso, que
dice la directiva.
Eso dice que hay seguro, obligatorio.
No.
Dice que cuando entre en
vigor la directiva,
en 5 años la Comisión
hará un informe,
y si de ese informe resulta que hay
que hacer un seguro obligatorio.
Entonces era una propuesta normativa.
Hay muchas personas que dicen.
Bueno, en cuanto a la directiva
se aprueba,
en 5 años tenemos seguro,
obligatorio tampoco tampoco.
Por qué?
La directiva lleva desde
2022 esta propuesta
porque hubo otras previas
discutiéndose todavía.
No se ha publicado.
Todavía no se ha aprobado
que publicar.
Si se aprobara como está no
son 5 años, son 5 años
desde que acabe el periodo de
trasposición, que son 2 Entonces,
si se aprobará mañana, que
no va a aprobarse mañana
tendría que publicarse;
probablemente ya en febrero o marzo,
después de eso tendríamos
que esperar 2 años
para que termine el plazo e
implementación después,
5 año para que haga un informe.
Después de ese informe, que
proponga una nueva norma,
que esa nueva norma se adopte,
que se apruebe,
que se publique y que acabe el plazo
de trasposición de esa nueva norma,
cuando estamos hablando 10 años
siendo optimistas, probablemente mal
Qué tenemos entonces?
Tenemos unos tipos de daño que no
encajan en nuestra categoría,
para las cuales nuestras categorías
probablemente no sean suficiente,
no sea suficiente,
sino un ingeniería jurídica muy
voluntariosa y desde luego,
originariamente confusa a saber qué
va a decir el Tribunal Supremo
dentro de 10 años de cuestiones
de este tipo
para la que no hay legislación
europea,
que nos sirva y que tampoco nosotros
estamos haciendo por hacer.
Esto nos tiene que llevar
al desánimo,
yo creo que tampoco.
Yo creo que tampoco, porque
a veces los juristas
y hablo mucho de los juristas
también somos optimista
y creemos que podemos regularlo todo
y que podemos arreglarlo todo y
además hacerlo de forma anticipada
y no siempre es posible.
La realidad a veces se
impone o se adelanta
o a veces sencillamente hay que
esperar que llegue para saber
cómo hacerlo bien.
Desde luego que esto implicará
tiempo e incertidumbre,
pero también implicará tiempo
de oportunidades,
oportunidades para cuestiones,
para empresa o entes
como lo seguro o, desde
luego, lo abogado,
no viendo la inteligencia artificial
solamente como una herramienta
de trabajo,
sino como un objeto de trabajo.
Eso también genera oportunidades
de desarrollo global
de desarrollo particular, y el
derecho llegará habrá soluciones
de los tribunales, los tribunales
no, no se quedaran callado
y el legislador europeo nacional,
tarde o temprano pondrá leyes,
que no habrá tiempo, que serán
peores al principio probablemente,
pero hemos vivido esto ante
la tecnología algo bueno
y que no ayuda, y yo creo
que teniendo en cuenta
de esto volveremos a salir
todos también mejor.
Eso es todo.
Muchas gracias.
Creo que después de haber
escuchado a abril
retomo un poco lo decía Julián
un mercado digital,
una asociación intervención,
no solamente los esquemas
actualmente ya son
pasaban quedar obsoletos de consumo
de usuario de esa tecnología,
sino como la repercusión
que puede tener.
La interactuación o el traslado
a tercero es un poco campo.
Bueno, para los abogados, insisto,
es un campo jurídico
que está por aflorar.
Yo animo e invito
a que nos animamos a verlo con
una perspectiva abierta,
con una mente abierta y no
como a veces nos sucede,
que nos quedamos a lo que tenemos
más próximo o más cómodo,
porque ya estamos instalados.
Por eso, quizá en esa transitoriedad
de tecnología
y de derecho enlaza muy bien
con la ponencia que nos va a poner
Fernando Martín Rodríguez,
al que creo conocemos
todos los presentes
o casi todos los presentes sería
raro no conocerlo a estas alturas,
Fernando Martínez Rodríguez
es el titular
del Juzgado de Primera Instancia
número 5 de Cartagena.
Yo he tenido el placer de hacer
esa laguna y muchas veces
y es un verdadero placer
por su seriedad.
Su profesionalidad es licenciado en
Derecho por la Universidad de Murcia
e ingreso en la carrera judicial
por turno libre
en el año 2001 miembros.
La red de especialista de derecho
de la Unión Europea del Consejo
General del Poder Judicial prestó
servicio como titular
del juzgado, entre otros, de Totana,
Orihuela y Cartagena en el año 2013,
colabora con el máster de acceso
a la abogacía y la procura
de la Universidad de Murcia, aquí
con sede en Cartagena,
siendo autor de diversos
artículos doctrinales
sobre responsabilidad civil
y derecho de consumo me consta
por experiencia personal
y por conversaciones que hemos
podido que he podido tener con el tema
de resultan un lujo, que es una
persona muy bien formada,
con una cabeza muy jurídicamente
muy bien amoldaba
y quien le doy las gracias
por estar esta tarde
cuando ha quedado Fernando.
Muchas gracias al Colegio de
abogados por la invitación,
a la fundación, a la cátedra de la
Fundación Integra y Almería,
Fernando por sus amables palabras
y por haberme animado a participar
en este día, y nos ha coordinado,
y nos ha puesto en contacto
a los a los ponentes.
Pues, efectivamente, agradecer
a la universidad,
al Colegio de abogados,
la oportunidad de hablar
sobre se me oye bien,
yo si no se grave, bien
porque acercan,
sino.
Sobre la incidencia de la
inteligencia artificial
en materia de responsabilidad civil,
yo pertenezco a una generación
y una promoción de la
carrera judicial
y de nuestra formación, que somos
completamente a analógica
que estamos en un grupo de entonces,
estudiantes de derecho,
y hasta ahora ya vamos por el final.
Con carácter general, por el
final de la licenciatura,
la mayoría de los que están aquí
en la foto son el día de hoy.
Han sido abogados, algunos estábamos
miembros de la carrera fiscal,
el que aparecen más alto
porque estoy en pie
en un sitio no porque yo lo sean
y soy yo y bueno ya estábamos.
Somos otra forma, pero bueno,
si vivimos a día
de hoy estamos integrados plenamente
en la con mayor o mejor fortuna.
Estamos integrados en la sociedad
que nos toca vivir,
y con los medios técnicos
que nos toca lidiar personal
y profesionalmente,
porque todos somos también usuarios
mayor o menor medida
de estas, estas estos programas,
de estos software,
esta materia y voy a centrarme en 3
puntos en 3 aspectos el brevemente.
Intentaré no repetirme.
La Unión Europea
ya ha explicado don Gabriel
Directiva sobre productos defectuosos,
responsabilidad contractual y
responsabilidad extracontractual.
También hablaré un poquito
del daño moral
y del derecho a la protección
del derecho fundamental
a la intimidad.
Tenemos 2 directivas, la de 1985,
que es la que se encuentra en
vigor la 1.000, la misma,
la Directiva 384, se ha dictado
recientemente la de 2024,
que tiene por finalidad esta
directiva, 24 de octubre,
tiene por finalidad modernizar,
acoger distintos aspectos que
quedan fuera o incorrecta,
porque quedan fuera de la regulación
de la directiva anterior
como consecuencia de la
evolución técnica.
La directiva primera de 1.185 se
refiere a bienes muebles,
pero efectivamente, los software,
los programas de interés artificial,
son productos incorpore ojos
y no encajan bien
en la noción de bien mueble, incluso
en algunas ocasiones,
por si pudieran tener acceso,
pero pero en general no es fuerte,
no, no tiene cobertura
dentro de la del concepto
de bien mueble.
Igualmente.
La Directiva de 1.185
tampoco considera.
Tampoco incluye como concepto
indemnizable el daño el daño moral,
la directiva y no haciendo
24 Perdón, 2024,
si se refiere al modelo obviamente
incorporado o no,
como atenaza el anterior
de la electricidad,
que también se expresaba
anteriormente en la 85.
Pero expresamente recoge los
archivos de fabricación digital la materia
y los programas informáticos excluye
de su ámbito los archivos digitales,
como son los archivos, multimedia,
los archivos electrónicos,
o el mero código fuente tampoco
lo considera aplicable
esta directiva de productos
defectuosos
sobre los programas informáticos
libres o de código abierto,
siempre que se utilice en un
contexto de una actividad no comercial.
Pero esta directiva,
que efectivamente,
que trata de solventar los problemas
que quedaron fuera, por obvias obvias
razones tecnológicas, a
la directiva 1985,
será de aplicación a partir
cuando concluya el plazo
de trasposición, que es el
6 de diciembre de 2.926,
mientras tanto se sigue aplicando
la Directiva
de 1985, además estas directivas
no son directivas de mínimo,
como sucede en la Directiva
de consumo.
Son directivas de obligada
aplicación.
De hecho, el Tribunal de Justicia
se ha pronunciado varias veces
diciendo que no, que no podían
establecer los Estados
una disposición,
una regulación más favorable
son obligatorias,
salvo que se diga expresamente
lo contrario Qué
entendemos por productos defectuoso,
un producto que sea contrario
a la seguridad,
el producto defectuoso?
No es un producto que no funciona
bien, no es una lavadora que no,
que su revolución en no no
me dejará de roaming
centrifugado no produce efectos, es
un producto que es peligroso,
que contamina normas de seguridad
y de calidad en el sentido
de que puede causar daños
a las personas,
daños a los bienes, no al
bien, no la lavadora,
no al programa informativo
que estoy utilizando
a otros bienes y, por tanto,
es un defecto,
será dañosa y que no es diferente
a el correcto o incorrecto
funcionamiento de ese de esa máquina
de ese producto informático,
y esa defectuosa edad
se tiene que regir por las
normas de seguridad,
por la norma de calidad y de
seguro y de seguridad.
Un producto es defectuoso
porque tiene o tiene la calidad
mínima que se exige
administrativamente o legalmente
para ese tipo de productos
porque no superan los las normas
de seguridad que tiene
o no se han realizado.
Las pruebas los ensayos suficientes.
En cuanto a la jurisprudencia
de la del real decreto,
donde la directiva disminución 85,
pues es bastante frecuente
en el ámbito sanitario,
como pueden ser la prótesis
de cadera,
un supuesto que fue también
muy famoso,
o las prótesis de cirugía estética,
de aumento de aumento de pecho,
es decir, vemos destinando a
producto y ahí se entiende claramente
lo que es el concepto de
producto defectuoso
o para que nació esa legislación
para responder de unos daños
y unos daños que por falta
de seguridad,
por falta de esa calidad que
afecta a la seguridad
y la previsibilidad de ese bien,
causan daños sobre las personas
o sobre los bienes.
Los productos informativos,
como los bienes corporales quedaban
fuera de esta de esta directiva
que se puede se puede entender
que se que se incluye los
bienes que causan,
que no cumplen su función, una
lavadora que mandaba bien.
Un vehículo que es un motor,
no responde a lo que tiene
que responder.
Se rige también por el texto
refundido de consumidores y
usuarios, artículo 114,
mientras que el producto defectuoso
está regulado, artículo 135
siguientes del texto del
texto refundido.
Esta materia
es una materia que en la que se rige
por un por responsabilidad objetiva,
conforme a la directiva y conforme
al texto refundido,
el demandante tiene que probar
que se ha producido el daño
y el nexo causal entre el producto
y del producto.
Entre el producto defectuoso
y el daño que ha sufrido no tiene
que cobrar ningún tipo de culpa.
La Directiva de 2023, 24
incide nuevamente
sobre la misma idea de seguridad,
un poco más descriptiva
a la hora de entender sobre qué
parámetros de seguridad
habla de la presentación y describe
esa presentación.
Conducta
-presentación ya está presente
en la Directiva de 1985,
cualesquiera de características
de etiquetado,
el diseño, composición, las
instrucciones de montaje.
Yo no puedo evitar.
Cuando prestaciones de
montaje pensar,
piensan en IKEA afectaría a que
me perdonen, yo soy usuario,
pues todas ellas es esa presentación.
No es solamente pues la carátula del
producto o lo que podamos ver,
sino que va más allá.
Se detalla y se extiende
un poquito más.
También habla,
puesto que se repetía en
la directiva anterior,
del uso razonable, previsible
del mismo, pero,
y dentro de la capacidad del
producto de seguir aprendiendo.
Es una novedad absoluta que ha
comentado antes de abril.
Es una novedad
y que cuando yo creo que también es
una cosa que yo por lo menos no sé
hasta dónde se puede llegar
ni a lo mejor
hasta dónde puede llegar ahora
y donde puedan llegar
dentro de unos años, pero bueno, que
es un elemento a tener en cuenta
y deberá pues informarse advertirse
o tenerse en cuenta a la hora
de incluirlo o no en las
características de ese producto
y también la ciberseguridad,
la seguridad de productos
y adaptarnos al Consejo de Seguridad,
que se arrastra de 1.185,
sino también la ciberseguridad
y también tener en cuenta
con el segundo endurecerá
del producto
si quienes su destinatario final,
los sujetos responsables piden,
pues podemos entender como
sujetos responsables
hacia la ley.
Aquí una serie de diferenciaciones
viene a ser la enmienda 85,
es más sencillo y es igual,
pero más más compleja, más extensa,
porque porque diversifica
las posibilidades
de responsabilidad, la de 1985,
es una responsabilidad solidaria
en general,
mientras que la de 1.202 1.024 es
una responsabilidad que en cascada
o subsidiaria.
En primer lugar, el fabricante
productor
utilizado 2 términos
en una directiva,
pero viene a ser el concepto
del mismo,
siempre será responsable en
materia de informática
en materia de productos informáticos
, el desarrollador,
porque no hay un fabricante no
es un concepto diferentes,
más mental que la creación de
ingenio y más que de una cosa tangible
el importador.
Si el importador no tiene domicilio
en la Unión Europea
será el representante autorizado,
eso es una persona que tenga
un mandato escrito del fabricante
o del desarrollo del producto
y también se incluya al personal que
preste los servicios logísticos
en vehicular de otras
características,
donde las características
que dice la esta,
esta directiva e incluso a
veces el suministrador,
si fallan las anteriores vivíamos
una responsabilidad.
El legislador pretende,
pues, ir cubriendo diferentes
estadios a fin de nuevas.
Quien lo ha hecho es 1 de las
personas que se benefician
o que participan
en la comercialización de
ese tipo de elementos,
que pueden ser peligrosos por
una falta de diligencia
o de seguridad.
Simplemente, no debe ser dirigente
de seguridad,
una responsabilidad objetiva.
Como saben el responsable efectivo
no hay que probar la culpa,
pero hay que probar como
he dicho antes,
que se ha producido un daño que ese
daño proviene del producto
y ese nexo causal entre ambos.
La Directiva de 2009,
que no la anterior, se hace una
serie de presunciones,
y tanto del defecto como nexo
causal aglutinen poquito
más adelante a ellas.
Pero a día de hoy, hasta 9
de diciembre de 2026,
no podemos aplicar la
Directiva de 2024,
tenemos que aplicar pues los
mimbres que tenemos
y que teníamos antes hace 10 años,
o que la responsable contractual,
la extracontractual,
la tutela del derecho fundamental
por supuesto,
y en su caso con la Directiva
de 1985.
Si lo fuera.
Hay una sentencia del provincial
de Madrid muy reciente
sobre un software que se
hace para una empresa,
un grupo de empresas que tiene
3, 3 laboratorios,
que le llevará a la gestión de
los laboratorios clientes,
y no ir sistema es es;
es inhábil para el final
que se destina
a la gestión de estos 3 laboratorios,
clientes, proveedores,
sistema productivo
y no cumple las necesidades
de de Quién?
Lo encargó y la audiencia dice
que es un contrato de obra
que tiene que prestar, tiene que
concluir en un resultado,
no tiene que responder de
ese de ese resultado,
y el incumplimiento es es
pleno, que es inhábil
y que de aplicarse, 2000 124
restituir recíprocamente
las prestaciones debe restituir
íntegramente el precio
y debe restituir con los intereses
como si nunca hubiera producido
efectos y además ya,
y además establece una indemnización
por el tiempo en las horas de trabajo
que necesitaba la.
La, la persona que encargó
la sociedad,
que encargó este proyecto,
sus propios empleados
tuvieron que volcarse en horas
extras para reconducir esos datos,
reconducir esa información y
extraer las consecuencias
que el software tenía
que haber extraído.
Otro supuesto que también
puede ser interesante
y que nos puede ilustrar para
supuestos sucesivos
que podamos tener sobre
la aplicación,
inteligencia artificial o sobre
otros sistemas informáticos
también complejos es el tema
del software manipulado
que instauró la multinacional
en sus vehículos
para esconder las emisiones
reales de contaminación
que tenían sus sus productos.
Claro, si atendemos al artículo
1.256 del Código Civil,
los contratos se producen efectos
entre las partes que lo firmaron
y sus causas evidentes Pues
vuelvo a que en España no
ha traído a la matriz,
pues cuando hubiera concesionario
a mí no yo firmo,
con con el que sea hache motor
o con la que sean afirmar
como con nadie más pero claro
h motor del coche
yo lo vendo yo no claro entonces
que aquí no se puede aplicar tampoco
la autoridad del producto defectuoso
porque el vehículo el
funciona funciona
estupendamente contaminada y
que contamine más o menos.
Bueno, no contaminara que te mentía
sobre la contaminación,
a mí me mentira entidad
Administración y no mentía todos,
o la sobre la contaminación,
el producto,
pues si funcionaba bien, no
funcionaba mal, independiente
de ese software erróneo, que sería
que sea bueno erróneo.
Ese software y exacto que se le había
que se le había implantado de
manera que lo que produce,
lo que se debía aplicarse
el Código Civil
y el Tribunal Supremo,
haciendo una interpretación conforme
a la realidad social
del tiempo que nos toca que le
tocaba resolver esta cuestión,
así como a la norma de
principios básicos
de los derechos de consumidores
suele artículo 8.
El texto refundido considera que
se deben ampliar los estrechos
con los los la estrechez
del artículo 156
entenderla con la realidad
social del día de hoy.
La distribución en el ámbito de la
instrucción de los automóviles,
efectivamente, de manera que el
vendedor no no es independiente,
sino que está vinculado
por el fabricante
o por el importador, en este caso,
y concluye que la responsabilidad
se extiende tanto
a la empresa vendedora como
a volver en España.
Para ello vuelvan a hacer un
razonamiento bastante razonables
y bastante perdonen la redundancia
y que se apoyan normas de
derecho internacional,
penal básicos de derecho
internacional
y llegue a la hora de declarar que
todos los comportamientos
de bajen y que, pero considera que
no se la resolución del contrato,
se pedían daños y perjuicios
y considera que no procede
la resolución del contrato
ni con el Código Civil
ni con otra normativa de protección
al consumidor y usuario,
porque el vehículo es idóneo,
asume unos vehículos que en alguno
de los casos entre 6 9 años
haya disfrutado del vehículo
último más que razonable.
No con no digo no corresponde ahora
que se devuelva el vehículo,
usted que levantó el precio y en
el daño moral se reclamaban
1 de ellos casi 11.000 euros en
ese reglado un poquito menos,
bastante menos, así como la mitad,
pero el Tribunal Supremo es bastante
contenido a la hora
de fijar esa responsabilidad civil a
fijar mínimamente en 500 euros.
Por qué?
Porque no afectan al funcionamiento
del producto
porque no afectaba al derecho,
dice que no queda aprobado,
que le causó un daño moral
a la persona.
Tiene un coche que contamina más de
lo que ya pensaba que podía,
que podía tener y tiene en cuenta
la antigüedad y de hecho,
incluso no le no considera que deben
aplicarse los intereses del artículo
1.100 1.108, sino solamente
los del 576,
es decir, el interés general de
los intereses desde la fecha
de la de la sentencia.
Hay 2 sentencias de Pleno que
he puesto aquí al pie
de la presentación que recoge
en esta esta doctrina
sobre esto es importante, sobre
la legitimación pasiva
y la responsabilidad en esta materia
de productos no defectuoso
sino productos que realmente son.
El Tribunal Supremo
habla con claridad que ellos
son siempre muy fino.
Soy muy prudente, habla de dolo.
Efectivamente, hay un engaño,
un engaño civil,
hay un engaño a las partes
de contrato,
texto refundido de Ley de
Consumidores y Usuarios,
pues, como ha dicho el artículo
134 siguientes,
el software es un bien corporal no.
Si este incorpora otro bien, podría
ser un bien popular,
pues podríamos entender
que si se incorpora,
como habla de productos de
habla de bienes muebles,
que incorporen incluso
de bienes inmuebles,
podríamos entender que esta
podríamos entenderlo,
pero también quizás en algunos casos
se vean más claros en otros,
pues será más complicado entender
que ese programa informático
está incorporado a otro, bien, y
luego el tema de la evolución
de estos programas de inteligencia
artificial
que van aprendiendo, que no
son que no son estáticos,
sino que van haciéndose
más complicados
y más y más poderosos y más sabios.
Pero, claro, dónde tenemos que pensar
qué pasa con un software que no
tenga inteligencia artificial,
que tenga esa capacidad de aprender,
pero que se haya colocado
en un sistema
para facilitar el aparcamiento,
ese EPI que nos hace el coche,
pero no funciona bien.
Han salido una partida, se
haya realizado mal,
se ha inventado 1 esto no se ha
hecho bien y vemos la detección
de obstáculos mentales
ante la Comisión
o de peatones y tampoco funciona
bien y se afecta a la seguridad.
Allí no hay duda
de que se para la batalla donde un
producto que afecta a la seguridad
o determinadas fallos de motor,
que pueden afectar también a
la seguridad del vehículo,
y de hecho no lo he puesto,
pero hay un supuesto,
hay una sentencia del
Tribunal Supremo
muy interesante sobre un sistema
de seguridad anti
colisión de unas aeronaves,
a ver lo que pasa,
que se aplicó el tema del tribunal.
Se van hacia el esfuerzo argumental,
sobre todo en materias de qué
derecho se debe aplicar
y se acabó aplicando el derecho
de Estados de Estados Unidos,
pero era un sistema de software
aplicados a unas aeronaves
que provocaron una colisión, y creo
que ha estado hasta con muertos
porque no el sistema no funciona, y
de hecho se detectó por defectuoso
y los retiras de todo
de todo el campo,
como la aviación, se retiró
de todos las aeronaves,
en la que se había utilizado
derechos fundamentales.
Pues efectivamente tenemos una ley
orgánica de 8.182 aparatos
de escuche.
Financiación de dispositivos había,
pues si alguien no he pensado bien
ha comentado 1 de los amigos que
que parece que nos escuchan
en el móvil, el ordenador y
ya los anexas y similares
o o que Google, pues lo hemos
comentado todos.
Lo hemos oído comentar todo.
No, yo no sé si es eso Eso será
el orden no sé si habrá,
pero todo lo demás y recalentar,
pues es una infracción de
derechos fundamentales
o con un programa de retoque
de fotografías,
pues maravillas o perrerías
como lo queramos ver,
porque en algunos casos eso perrería
una vez con finalidades,
simplemente jocosa de productos de
personas que son evidentemente
no son verdad y somos
simplemente juegos
y otras veces ha hecho con
personas sencillas,
incluso adolescentes que para han
hecho daño a unas personas a otras,
poniendo en posturas o en
situaciones de inmigrantes y efectiva
de sus Nacho gran daño,
muy grande las los derechos
fundamentales y a la intimidad
y al honor,
y hablamos de las personas que
se puede aplicar la ley.
Hay una división, una intromisión
ilegítima.
Se presume que hay un daño
moral, y la gravedad,
pues se tiene en cuenta.
Teniendo por el bien jurídico
protegido a la persona
y a la difusión que ha tenido
ese daño, Madrid,
la protección de datos nos dice
el Tribunal de Justicia.
La Unión Europea hace
un par de meses.
No toda infracción de la Ley de
Reglamento de Protección de
Datos supone un daño moral.
De todas formas, aquí tenemos
una ambulante.
Una abundante jurisprudencia
en cuanto a la cuantía del llamada
en materia de fichero de morosos,
que quizás viendo la influencia
el acceso mayor o menor
que se ha tenido a esa a ese
esa revelación de datos,
pues podría ser un criterio
a la hora a la hora
de indemnizar esos daños morales.
En cuanto a la protección de le
datos responsabilidad extracontractual,
pues bueno, el clásico 1902
del Código Civil,
la prueba hay que probar
todo el culpa anexo,
la acción, el daño que,
como he dicho antes,
la directiva contiene una
serie de presunciones,
que tampoco veo que sean tan
tan generosa perdonar,
pero a lo mejor que yo soy un poco
un poco no sé yo la veo muy,
muy normalita, la las.
Las presunciones que
hace el artículo.
El artículo 10, 2 no las he puesto
aquí en la diapositiva,
sino aquí.
Si el requerido se le requiere
al proveedor,
al desarrollado que aporte
unas pruebas,
no se ve en los códigos
de concentrarse.
Información de que ha tenido
en cuenta siempre
la afectación en el derecho
de propiedad industrial
o intelectual, y no la
quiere exhibir,
o el producto no cumple la norma
de seguridad obligatoria
puñeta por sí sino como no
hace falta tampoco irse
a cambio de una directiva,
es que el producto no cumple la
norma de seguridad administrativas
o legalmente se le impone
ese tipo de productos
para que yo pueda presumir
un carácter defectuoso.
Pero bueno y claro, y
si tenemos un daño,
pues también se presume que
un producto defectuoso
y un daño se produce un nexo causal,
creo que con las presunciones
normales y corrientes,
de andar por casa que tenemos
en el día a día
de cualquier otro tipo de
daños y de siniestro,
pues se lo dice el legislador
europeo mejor
y a lo mejor que yo efectivamente
soy un poco sencillo
en las minoraciones,
y ahora productos
y situaciones mucho más complejas
por esa opacidad
que nos puede arrastrar inteligencia
artificial,
y las excusas que pueda que puedan
verter los desarrolladores
o los importadores o quien sea,
y a la hora de desvirtuar
esa esas presunciones,
pues efectivamente, la carga de la
prueba se traspasa a la parte
demandada y te hicieran un esfuerzo
más mayor a la hora
de aprobar esa esa falta de derecho
o esa falta de efecto.
En el producto lo que se
llama beneficiosa,
será la más beneficiosa.
Las directivas en materia
de prescripción
serán mucho más beneficiosas
en sus plazos
y, bueno, bueno, pues esto ya
lo he comentado antes,
no se presume.
Se presumen nexo causal
en la directiva,
no en el no, en el código,
no en el código,
en el Código Civil una cosa que
decía la directiva anterior
y la actual es que es compatible el
régimen de productos de reposición
por productos defectuoso,
con la responsabilidad,
por culpa a esta contractual, por
vicios y por culpa contractual
jurisprudencia.
Lo dice el artículo en
el artículo punto 4
de la nueva directiva y para
acabar en positivo.
Yo creo que hay que hacer,
como el artículo 4
del Reglamento alfabetización no
solo proveedor responsable,
sino también las empresas.
Los usuarios deben
o debemos formarnos ser responsable
del código de conducta,
practique la transparencia,
y las personas jurídicas
que lo utilicen.
Deberían hacer incluir
en el compliance
es que tengan códigos de conductas,
responsabilidad corporativa
en materia de inteligencia
artificial, no solo
porque por la responsabilidad
penal que pueden incluir,
sino también por tener protocolos
de seguridad
y de evitar o minimizar los daños,
se detecta un defecto,
se corta.
Muchas gracias.
Bien, continúo hablando con
el orden en positivo.
Tengo el enorme placer presentar al
tercer ponente, José Muelas,
sobre la que nos conocimos
ayer, verdad?
Sí?
Sí es un verdadero.
Aquí han pasado, no yo todavía luego,
como diría algún plagiando
alguna compañera,
mi Rubio natural, donde entonces
quiero decir que no conocimos ayer,
evidentemente es entenderé, que es
una verdadera satisfacción,
un verdadero orgullo poder
presentar como ponente
y poder ser quien tenga una mesa, la
captación, José Muelas Cerezuela,
para todos nuestros compañeros
y todos nuestros amigos.
Es abogado ejerciente
del Ilustre Colegio de Abogados de
Cartagena decano de mérito,
abogado especializado en el ámbito
específico de derecho,
la nueva tecnología.
De quién podríamos destacar?
Entre muchas cuestiones?
Aparte de haber sido contrario
a muchos procesos ya verme,
ha complicado la vida y normalmente
que no quepa
la menor duda que en el año 2003
ya era experto español para
el programa leal
de la Unión Europea y programador
de su base de datos,
conocimientos en coordinación
con la universidad de Turín
en el año 2015
participó como experto en
el encuentro plenario
del Consejo de Europa,
Comisión Europea para la eficiencia
de la justicia,
han realizado en el Parlamento
de Estrasburgo
en el año 2018 intervino como
experto compareciente
ante la Comisión de Justicia
del Congreso de los
Diputados para la redacción de la
Ley Orgánica 32.018 de 5 10,
de 5 de diciembre, de protección
de datos personales
y garantía de derechos digitales,
miembro de la sección
de Derecho Procesal,
de la Real Academia Española de
Jurisprudencia y Legislación.
Ha sido secretario general de la
asociación murciana de empresas
de nuevas tecnologías
y como curiosidad.
El 27 de julio de 2017 fue
precisamente don José Mola,
quien puso de manifiesto al
Ministerio de Justicia la existencia
de un fallo crítico de seguridad en
el sistema de comunicaciones,
que ya conocemos como
elemento para mí
quizá la mejor presentación que
puedo hacer desde el punto de vista
de la incumbe, que es
un gran compañero,
un gran amigo, con lo cual gracias
por estar aquí gracias.
No voy a decirlo ahora, pero no,
pero García Lorca no habría crédito
una vez así que pasen 20 años
han tenido que escribir un lado
veces es vértigo, verdad?
Sí, pero vivimos una, vivimos
una época apasionante,
los los historiadores, lo científico,
los catedráticos que se dedican
al al estudio y al estudio
de la historia del género humano
han clasificado siempre
las edades del hombre, de acuerdo
con las tecnologías,
que el ser humano ha utilizado para
transformar la realidad.
Por eso durante un larguísimo
periodo de la historia humana,
el más amplio se habla de él
como de la Edad de Piedra,
tras la Edad de Piedra, bien
el alcohol y pico,
porque se utiliza el cobro
y después el Bronce.
Después El Hierro después llegan
las revoluciones industriales
y hoy estamos viviendo esto
y es importante saber que acabe
el cambio tecnológico,
ha seguido un cambio ideológico
conceptual e incluso de la justicia.
Y qué ha generado cada 1 de esos
cambios tecnológicos?
Una nueva clase dominante.
Cuando alguien descubrió
que mezclando el cobre
con el estaño, apareció un metal
más importa más duro,
más resistente, que ofrecía ventajas,
como el bronce.
Pues apareció una.
Una comunidad, una civilización
de de maravilloso navegantes
que remontaron,
que atravesaron el las columnas de
Hércules remontaron hasta Galicia
y llegaron incluso hasta
las islas británicas
a la búsqueda de los fenicios
apareció una nueva clase social
que dominaba la nueva tecnología,
y esto ha pasado también en el
tema de las tecnologías
de la información.
Hay un algoritmo que se llama, se
conoce como el algoritmo de Rus,
coz, en el que determina
que la clase dominante
siempre ha dominado una tecnología,
mientras que la clase dominada
estaba justo un escalón
de abajo tecnológicamente hablando,
es decir que cuando el sacerdote
leía en el púlpito del pueblo escuchado
cuando el pueblo fue capaz de leer
la clase dominante tenía la imprenta
y decidía qué era lo que conocía el
mundo y ahora estamos viviendo
1 de esos cambios ahora en una fase
de revolución industrial,
a la que se conoce por la
mayoría de los expertos
como capitalismo información.
Al.
El valor ha pasado de la materia
o de la tierra,
como fue en un principio, ha
pasado de la energía,
como fue en las revoluciones
industriales,
y ahora el capital es la información.
Ayer Varufakis, si ayer perdón
hace unas semanas
Varufakis señalaba, como
la industria china
o Tesla su superioridad no la llaman
tanto en la ingeniería
que la alemana perfecta,
sino en un capitalismo que llaman
capitalismo de nube,
es decir, capitalismo de los datos,
los chinos tienen monopolios de los
datos que tienen sus redes
sociales y son capaces de ofrecer a
la gente lo que la gente desea,
y el único país o la única comunidad
que puede competir con estos datos,
con este capitalismo de datos
conecta apropiación de datos,
pues son los Estados Unidos,
Europa no pinta nada y viviendo
esta revolución,
que la inteligencia artificial
tiene un altísimo componente
de caja negra.
Yo creo que es interesante
que tratemos de mirar
dentro de la caja negra y
saber cómo funciona,
porque al final podemos estar del
lado de los que escuchan.
El mago.
No dice.
Podemos tratar de conocer
las escrituras,
lo que pone el documento,
y eso es fundamental.
Finalmente, para saber cuándo
algo falla Quién
es el responsable de que algo falla,
y esa la responsabilidad civil,
aunque solo sea para que se
queden ustedes conecto,
es decir, el es maravilloso como la.
El hombre y Mita la naturaleza,
y normalmente no encuentra
mejores soluciones
para hacer lo que hace la naturaleza
que imitar y copiarlo la naturaleza.
Esto nos lleva al canon
de la belleza griego.
Aquí tenéis una Neurona normal de
las que tenemos en el cerebro
o en el sistema nervioso central y
aquí tenemos una neurona artificial
de las que componen las redes
neuronales que están
en la base del funcionamiento de las
inteligencias artificiales.
Como ven, no hubieran diferencia.
Hay unas horitas unas entradas
que recibe una información
para que la neurona la procese, pero
fijados en la uve doble boom,
doble 2, uve doble.
3 aparecen en las entradas.
La neurona artificiales sube doble.
Quiere decir Qué?
Cada una de las informaciones
que entran al horario honor
a la neurona artificial no
tienen un peso estándar,
sino que el peso puede ser ajustado
por el programa frente a.
Una misma entrada de datos,
una neurona no se va
a comportar igual,
dependiendo de cómo la ajuste,
dependiendo de cómo la afine,
llaman ellos cada 1 de
los programadores.
Finalmente, dentro de lo que es el
cuerpo de la Unión Europea,
se plegó a una determinada
función que,
en función del resultado, dará lugar
a que una función de activación
determine si conecta
o, si no, conecta esto.
Finalmente, todas estas neuronas
se incorporan lo que se llama
una red neuronal que tiene
una zona de entrada,
unas capas ocultas donde se produce
el fenómeno de caja negra,
que decía Gabriel y una salida.
Claro, si esto falla Quién
es el culpable?
Porque aquí interviene mucha gente,
el producto ha fallado muy bien,
pero quién es el responsable?
Claro, puede ser un fallo de diseño
de esta, con lo cual el responsable,
pues sería el desarrollador puede
ser un defecto de uso por parte
del usuario o propietario.
Por ejemplo, muchos de vosotros
tendréis change.
Vuestra en vuestro teléfono
es un modelo del lenguaje
Qué pasa si le decimos change?
De cuántas son dogmáticos.
Esto lo sabe multiplicar
o nos duele respuesta.
Por otro motivo, estas redes,
cuando son redes del lenguaje,
son entrenadas con datos,
por eso quien las entrena es quien
tiene ese capitalismo de nube
que dije antes los chinos
pueden entregar
la industria norteamericana,
puede entrenar.
Quiénes son los grandes captadores
de datos a día de hoy?
Las redes sociales.
Pero si no programamos bien red,
pues finalmente, bueno,
si la programamos
para que sea como Change, PT
un modelo de lenguaje,
tú puedes decirle dogmas, 2, se mira
la multitud de información que tiene
y dice Vaya siempre que
veo los archivos veo
que la secuencia a dogmas,
2 sigue 4 dice.
No es 4, pero no porque
se va a sumar,
sino porque tiene a su disposición
un conjunto de información tan grande
Que puede perfectamente simular
que sabe sumar.
El otro día me permitió hacer
un experimento con Change
y le pregunté.
Oye, tú sabe jugar, me dijo Sí
claro, igual somos una partidista,
comenzamos a jugar hasta
la juega número 10,
change jugó un max langue
de la defensa
de la apertura italiana.
Perfecto, podría pensar que dejó a
maravillosamente bien a nivel
de gran maestro; sin embargo,
según la partida,
se fue individualizando,
echar empezado a carecer de
referencias en su base de datos
resultó que incluso infringía
las normas,
es decir, no sabía en cuanto
comenzaba a perder
la información.
Por tanto, si tú utilizas utilizas
un modelo de lenguaje
como change para algo, para
lo que no está pensado.
La responsabilidad va
a ser del usuario
va a ser realmente tuya, siempre
y cuando se cumplan una serie
de condiciones que no dice el
Reglamento de la Unión Europea,
y ahora viene una tercera
responsabilidad, que es seguramente
la que a mí más me preocupa
la responsabilidad
de quién suministra los datos,
porque si hemos de pensar en
jurisprudencia del ramo
Cendoc empezamos a meter todo
lo que yo entiendo
hasta cierto punto.
Tenemos la garantía de que
esa jurisprudencia,
la que es perfectamente aplicable
para los juzgados
y tribunales españoles.
Pero qué ocurre si estamos hablando
de una inteligencia artificial
general o de otra especie.
La humanidad va a tener muchos datos,
sobre todo de los países
desarrollados.
Vas a tener muy pocos datos de
los países que tienen muy
poco grado de subdesarrollo.
Los conjuntos en los datos
sets concreto estas,
alimentando la la inteligencia
artificial, son dataset sesgados.
Y quién es responsable de
esa recogida de datos?
Si vamos a valorar una enfermedad
de un ciudadano,
de determinada procedencia
o de determinada etnia
Qué valoración va a hacer?
La inteligencia artificial
va a ser correcta
cuando se está nutriendo de datos
de determinados países,
y no de determinados?
Otros Quién va a ser responsable
del sesgo
de esos de esos datos?
A quién le manda.
Claro, la mayor parte de las veces,
la responsabilidad civil
del funcionamiento de estas
redes no va a ser,
no va a ser de 1 o de
otro, o de otro,
porque lo normal es que sea una
responsabilidad conjunta,
una responsable, porque al final,
el desarrollador sabe con qué
datos se está entrenando
a su inteligencia artificial, salvo
suministrador de los datos,
no le haya dado los datos
de la calidad adecuada,
y esto entra por ejemplo,
tenemos aquí profesores
de universidad,
ellos saben perfectamente cómo
funciona la publicación
de artículo científicos,
no solo en derecho,
sino en medicina, en ingeniería,
y en el resto de las de las
de las especialidades.
Los datos de las revistas
científicas no son datos abiertos,
los mejores textos son datos que
solo se suministran de pago,
y esos datos no están en
las inteligencias.
Ese punto la labor es importante,
dado que gratuito
y que los datos públicos,
los datos que producen
las universidades,
las entidades públicas, siempre
debieran ser públicos
porque están pagados con
dinero de todos.
Es decir, el ejemplo más claro
son las fotografías de la
NASA de Apolo, 11 o 12,
llegando a la luna.
Esas fotografías no tienen
derecho de autor
y no tienen derecho de autor,
porque todos los norteamericanos
pagaron de su bolsillo
y con sus impuestos el
dinero necesario.
Para que un ciudadano norteamericano
pudiese tomar fotografías.
Tendríamos por tanto que
replantearnos Cómo
funciona la propiedad de los datos
y para averiguar qué quieren
responsabilidad dentro de este
abanico que hemos dado?
Pues lo primero que tendríamos
que hacer es abrir la caja
y ver cómo funciona, saber si
ha sido el programador,
si ha sido el usuario,
si ha sido el suministrador
de los datos.
Quién ha sido el responsable civil?
Porque a partir de ahí
el juez sin duda
puede comenzar a evaluar pruebas.
Son abrirles estas cajas negras.
El Reglamento se preocupa muy mucho
desde un principio, que es el
principio de transparencia,
en virtud del cual podamos atravesar
el velo de los programas
que la legislación permita al juez
atravesar ese velo y entrar a ver
cómo funciona, cuál es el
mecanismo del juguete,
y no me resisto a contarles
una experiencia personal.
No sé si era 2019, cuando se
puso de moda en el Juzgado
de lo Social españoles efectuar la
primera notificación en la sede
de la dirección electrónica
de las empresas,
una práctica torcida bien.
Me llegó a un cliente que,
a juzgar por su aspecto
externo para él, era lo mismo;
una caja de puros, que una
dirección electrónica.
Ya no era, no era capaz
de distinguirlo,
se le acababa de llegar
ya al embargo;
es decir, han notificado nada;
bueno, no le han notificado
nada; acudimos al Juzgado
de lo Social y efectivamente
el sistema Lexnet
decía que sí que estaba notificar
a mi cliente jurado y perjurado
que no le habían notificado nada,
así que así que hoy la oportunidad
de hacer un experimento
que hacía mucho tiempo deseaba
hacer y que fue también
el que me llevó a verificar
el funcionamiento
de determinados programa
de gestión judicial,
y yo firmamos que pusimos un
incidente extraordinario,
nulidad afirmado que el sistema
no había funcionado bien; aquella
aquella advertencia
de que si se había producido la
notificación era incorrecta
y que queríamos ver.
Queríamos analizar, queríamos romper
el modelo de la caja negra
y entrar dentro a ver si ese sistema
había funcionado bien o mal.
Esto es lo que se llama, que
un sistema sea auditable,
o no sea auditable.
En principio.
No dijeron que no, claro,
el juez no dijo Mire,
el sistema dice que esto
está bien hecho
de que seremos esto está bien hecho,
y vaya usted a otro lado.
Formulamos el correspondiente
recurso de amparo
ante el Tribunal Constitucional
y lo fundamos precisamente
en un tema que fue un caso
parecido al de Europa,
que es un tema que en Estados Unidos
dio mucho que hablar,
y en el caso del Canfranc en
un a un determinado juez
le llevó a una señora que había
atropellado un peatón
y cuando el juez le pregunta.
Oiga, señora, porque veía usted
este pobre hombre,
la señora dijo que mi vehículo ha
acelerado solo el juez le dijo,
la creo y naturalmente la condena.
Pero varios meses después
apareció otro caso.
Los atacantes se habían vendido
a decenas de miles
apareció otro caso en el que otro
propietario de un taka
Enric afirmaba si es su coche,
pues también había acelerado
voluntariamente.
Había tenido una colisión.
Hubo una parte que peleó
muy duramente
por analizar el software que
gobernaba el acelerador
porque yo ya no era un acelerador.
Como lo de nuestra generación que
tiraban de un cable cito,
habría, habría carburador
y y el coche aceleraba,
sino que era un acelerador digital,
se empeñó en poder abrir aquello
y encontraron un juez que no
hizo caso a la empresa
ni defendió el secreto la
propiedad intelectual,
sino que finalmente con las
cautelas precisas dijo
el software de este y que lo vean
3 expertos independientes.
Los 3 expertos llegaron a
una conclusión de aquel
de que aquel software era basura
ya había sido hecho con corta
y pega de otros programas,
y que esto hacía que su
comportamiento fuese errático
y que algunas veces pocas, pero
algunas veces pudiera dar lugar
a una aceleración espontánea.
Nosotros sabemos cómo se han hecho,
como se ha hecho el software
que gobierna
los sistemas de gestión de la
Administración de Justicia Saben
cómo se empezó a cómo
se empezó a hacer.
Sabemos cómo se empezó a hacer Sabe
lo que ha dado lugar a fallos
verdaderamente graves?
.
1606
01:26:47,520 --> 01:26:49,500
Por qué no podía estar
fallando el sistema?
Claro.
El Tribunal Constitucional admitió
a nuestro recurso.
Lo tramitó y para mi sorpresa
la ponencia,
por cierto, le correspondió
a Alfredo Montoya Melgar.
Antes de sufrir, bueno, pues
el estado de salud
en el que está ahora.
Y de la sentencia lo verdaderamente
importante,
porque la sentencia estimó
declaró nula,
la notificación dijo; No, no;
la primera notificación siempre debe
ser personal tal cual; nula;
pero no la pericial que
pide el letrado
como ya no hace falta.
Bueno, no se hace claro
Alfredo Montoya.
Hace un voto particular
estoy deseando volver a llevar
al Tribunal Constitucional
porque dicen no está pidiendo eso la
parte lo que quiere verificar
el regular funcionamiento
del sistema,
y nuestra respuesta debe ser es.
Podemos levantar el velo del sistema
y ver cómo funciona
y se pronuncia positivamente
a favor de pensar
que el funcionamiento de
un sistema informático
nos puede mandar a prisión un radar
que afirme que basa 240 por hora
o a 200 por hora en el centro
de una ciudad?
Puede mandar de prisión y dice
No, el radar está homologado
por el Centro Español
de Metrología, sí;
pero está gobernado por
un fin Wert Digital,
y eso firma digital puede esconder.
Huevo de Paco.
Tengo yo derecho, abrir la caja
negra para verificar
el correcto funcionamiento
de ese software.
Por eso los abogados tenemos
que por lo jurista,
mejor que los abogados los juristas
tenemos que tratar de entender
toda esa confluencia tecnológica
civilizatoria.
Tenemos que estar en la pugna.
Yo no se lo he contado
1.000 veces aquí
pero no me resisto a contarles ahora.
La etimología de ius.
La tipología de ellos es el
sánscrito y en un una raíz
Qué significa unir?
Sobre todo al cocinar.
Por eso las palabras que incorporan
ese IEO en medio suelen tener mucho
que ver con el ius y, sobre todo,
conjuntar con cocinar, no es decir,
cuando vivimos juntos
tenemos cónyuges,
y si nos unimos o no voy sería mayor
y o cuando vivimos en una ciudad
esto se llama ayuntamiento y el Josep
se esconde debajo de todas
estas palabras,
que son las que dan cierto sentido
a lo que los juristas hacemos.
Tratamos de entender cómo
funciona la sopa,
porque ellos también significa eso ;
podéis buscarlo en otro diccionario
de latín o ir a por ella,
y veréis álbum temo, polio, en
que pone yo en solitario
que no quiere decir que
tenga derecho a leer,
sino que tiene, sino que venden.
Yo solicitud de las OPA
que huele de menester por eso
he representado al jurista
ejerciendo un poco la
labor de cocinero,
porque tenemos que entrar a la sopa
y ver en qué proporciones antes;
lo comparaba con parada
Gabriel un software a un a
una receta de cocina.
Nosotros necesitamos saber que lo
que le damos a nuestro hijo
el leche al cabo de hienas y azúcar,
pero no una sustancia negra
que no sabemos qué tiene nosotros,
no podemos dejar el Gobierno
de la sociedad en manos de
una sustancia negra
que no sabemos qué tiene.
Si lo que tenemos que ser capaces
de investigar Cuál
es el fondo Cuáles son los elementos
y de desentrañar Cuál
es la responsabilidad de cada una
de las conductas concurrentes?
Por eso el reglamento
se ocupa muy mucho
de que la transparencia sea máxima
en todas las en todas
las inteligencias artificiales que
tengan que ver específicamente
con la aplicación del derecho o
con sistemas de prevención,
calificación allá donde puedan
hacerse de perfil,
es decir, puede haber sistemas
allá donde la ley
lo permita Qué?
El otro día, en una conversación
previa
que hicimos, afirmaba Fernando,
planteaba el caso de un Mercadona,
que tenía una orden de alejamiento
y que preguntaba si podía poner
una cámara con reconocimiento facial
de cara a identificar
o a verificar si esa persona
que tiene nada que tenía
una orden de alejamiento respecto
del del establecimiento,
podía o no podía entrar.
En principio dijeron que era excesivo
y que no se podía hacer
tal cosa, pero bueno,
como siempre, la opinión de un juez
depende de que una ley lo permita
o no lo permita en el
futuro y en función
de la que cualquier noticia que
pueda saltar a la actualidad
pues puede aparecer una demanda
de este tipo de medidas.
Aparezco no aparezca, lo que
sí tenemos que saber
es que la transparencia en el caso
de estas inteligencias artificiales
obligatoriamente, ha de ser
máxima y no solo máxima,
sino que el reglamento obliga a que
se registren en un anexo especial,
en una relación especial de
inteligencia artificial,
que tratan de verificar este tema.
Obviamente,
esto para los juristas puede llegar
a ser de la máxima importancia,
porque no solo son ya perfiles
para evitar el alejamiento,
sino incluso de peligrosidad.
Cómo se hacen los perfiles
de peligrosidad
o de riesgo de comisión de delito?
El otro día tengo 4, estoy
en violencia de género
y tengo 4, 4 detenidos, de
los cuales 2 presentaban
deficiencias cognitivas,
2 eran extranjeros.
Podemos decir que quien padece
deficiencias cognitivas
tiene un mayor riesgo o ese
sesgo es intolerable.
Podemos decir que quien
está expatriado,
quienes extranjero en otra sociedad
presenta mayor riesgo
o eso es inaceptable, porque al
final los 4 lo que sí era eran pobres.
Pues entonces tenemos que considerar
que un pobre es un seguro.
Es importante, por tanto,
que ya están bueno,
creo que creo que me he ido
demasiado a aspectos generales.
Lo que sí me gustaría que percibiese
es que están cambiando
las reglas del juego,
que lo importante ya no es la
materia como nuestro Código Civil,
lo importante ya no el ley, la
energía, nuestro Código Civil
y la propiedad es especial
porque no acaba de entender bien
nuestro Código Civil.
Techo para una sociedad del XIX
que no tiene en cuenta la existencia
de bienes informacionales
ni controla bien la energía, de
forma que sí que necesitamos
una nueva comprensión
De qué es ese bien
y ya no me da tiempo a entrar en eso
de que ese sería en que llamamos
información y de cómo su regulación
ya no se cómo como para su regulación
ya no sirve esos criterios que
nuestro Código Civil utiliza
para que para los bienes materiales
creo que con esto tengo que terminar
porque ya me han sacado la tarjeta.
Me gustaría hablar más tiempo,
pero, pero nada agradecer a
agradecer a Fernando, a Fernando Abril,
la magnífica compañía que hacen
y bueno y a vosotros,
porque es un placer.
Siempre trae aquí muchas.
Segundo, si la entrada en vigor
del reglamento de 2024,
entrada en vigor acaba el
plazo de trasposición
en el 9 de diciembre 2026 se
aplicará respecto a productos introducidos
en el mercado en esa fecha, es decir,
que su aplicación será todavía se
difiere un poquito más bien
fue.
Yo.
Gracias, Hernando.
Yo animaría a iniciar un turno
de posibles preguntas
entre el público a que presente
entre el público,
aunque también así online,
y lanzo simplemente una reflexión
con lo que acaba de decir Fernando.
Enlazando con ello tenemos una
transitoriedad jurídica
y tecnológica muy eran eso
es un caldo de cultivo
a procesos pleitos, a disputas
y, en definitiva,
un campo de trabajo o no
para el ejercicio
de la abogacía, para la docencia y,
por supuesto, para la literatura.
No tendrá que escuchar
a unos y a otros.
Por tanto, cualquier pregunta
que queráis hacer,
y vamos dando turno de intervención,
por supuesto, sin lugar a dudas.
En materia de responsabilidad civil
veo algunos compañeros incluso
de mi propia asociación.
Esto es el inicio de una.
Era diferente,
alguna pregunta que queráis formular.
Público aquí presente.
Si hay alguna pregunta.
Bien, pues yo sí planteo
una cuestión,
a mí me produce inquietud
porque lo que decía
PP lo último que decía me parece
absolutamente importante,
o sea, tenemos que pasar página.
No nos creemos que tenemos tantos
sustantivos como procesales,
se quedan obsoletos, ya es una
obsolescencia geológicas
y queréis también la del
propio derecho.
Entonces, enlazando un
poquito con ello
y por decía Gabriel, por ejemplo,
hay una cuestión
que a mí me ha llamado la atención
ya en el 2017 del Parlamento Europeo
se planteó por ejemplo si otorgar
o no personalidad jurídica
a los robots, y tenemos el
precedente aquí en el caso de Murcia,
de la personalidad jurídica
del Mar Menor,
que nos puede aportar en ese
sentido, hacer eso.
En efecto, en 2017, dentro
de una propuesta
se incumplió como 1 de
los recursos ojo,
de responsabilidad civil, no, no más
allá salvo una pequeña cuestión,
que lo único que le comente otorgar,
otorgar personalidad jurídica
a los robots y por extensión también
se podría entender;
sistemas de inteligencia artificial,
un concepto más físico
pero asimilable.
Lo que ahora no le interesa esto que
provocó resistencia inmediata
porque todo lo nuevo produce
siempre resistencia.
Como aquí mi conclusión, que
estoy un poco más complejo
es que no hay ningún problema,
mejor dicho,
no hay ningún obstáculo insuperable
del punto de vista civil
para que pudieran tener personalidad
jurídica.
De hecho, si yo dijera ahora mismo
no veo una cita literal porque
no la recuerdo,
pero si le dijera algo así como
que resultó interoperable
de su reconocimiento el otorgar
o extender la persona jurídica
a estos nuevos sujetos,
error del que espero salgamos
pronto preparándolo,
ya le digo esto parece que alguien
esté hablando del Mar Menor,
pero no es posible porque esa frase
más o menos de 5 de Castro,
Federico de Castor, que
estaba escandalizado
ante la insoportable idea, que
él pensaba Habana y fugaz
de que se otorgara personalidad
jurídica
a la sociedad anónima que decía
que era algo imposible
y sin embargo vivimos con
ello y no va mal.
Quiero yo con esto decir
que sea buena idea
otorgar personalidad jurídica.
Lo probó yo creo que no, pero
no porque no se pueda
sino porque creo que no es útil.
De la misma forma que tampoco
me parece una imposibilidad
de otorgarlo el Mar Menor
y sin embargo,
a la vista de la ley, yo creo que
tampoco es útil necesario
expresarlo, pero ya que
estamos hablando,
lo comento también.
En cuanto a los robos,
la idea lo que se quería era decir,
como no sabemos quién tiene
que responder,
le damos personalidad jurídica
y que responda a los robots
que paguen los robots,
pero esto en realidad nos
resuelve el problema,
porque el problema entonces
con qué dinero
pagan los robots dicen.
Bueno, pues que los robots tengan
un patrimonio bien,
pero ese patrimonio quien lo llena
y volvemos al mismo sitio
alguien tiene que aportar dinero,
lo aportan los usuarios,
lo aporta, la empresa lo aporta.
El Estado no soluciona, yo
creo en ningún problema.
Aporto nueva capa de complejidad
que quizás explique,
porque justo con la responsabilidad
civil
también se decía que podía servir
para nuevas formas
de cotización social, es decir,
que sin máquinas ocupaban de
trabajar para reforzar sistemas laborales
a través de prestaciones
también pudieran pagar
o quizás explique por ahí no
creo que sea una solución,
pero a mí no me parece mal que se
exploren nuevas soluciones,
tenemos que ser osados a veces
a la hora de asomarnos
a cualquier cosa sin perjuicio sin
prejuicios perdón explorarlo
y si luego no sirven no sirve pero
descartarlo de principio creo
que una mala opción
dentro de la verdadera honestidad
académica, siempre bien,
antes de dar paso a preguntar solo
hay una pregunta online que voy
a leer, mar Lobato.
Dice.
Buenas tardes y gracias por
las ponencias magníficas,
tan solo cogiendo el guante del PP,
creo que ha aquí una reacción
dice cómo formarnos
en materia de inteligencia
artificial respecto de nuestra perspectiva
de juristas y aquí lanzado
una pregunta que yo creo
que más bien va para el colegio,
tenéis previsto hacer formaciones
al respecto.
Yo yo personalmente creo
que es difícil
formarse jurídicamente en una materia
si no conoce técnicamente
también la materia;
es decir, es importante que hay
ahí interdisciplinariedad
que cuando que no solamente
escuchemos juristas
sino que escuchemos también
tecnólogos, ingenieros,
esa parte me parece que los colegios
podrían hacer una labor interesante
pidiendo a tecnólogos e ingenieros,
ingenieros informáticos,
sí pidiéndoles una tarea divulgativa,
que expliquen cómo funcionan
las cosas
Qué trascendencia jurídica
pueden tener?
Porque ellos también le falta, y
para ellos además con Julián,
un acuerdo de 1999 de
lo que se hablaba
era del tema del software, libre,
software abierto de ellos
se planteaban.
El tema de la propiedad por ejemplo
es una era una leyenda urbana
muy típica.
En 1998, 1999 que la primera Ley
de Propiedad Intelectual
fuese el Estatuto de la
Reina, en Inglaterra,
mientras que yo naturalismo
traduce tradicional
de la Escuela de Salamanca sostenía
que ese tipo de leyes,
las leyes de propiedad intelectual
eran aberrantes y contra natura,
y entonces ponían el típico ejemplo
que utilizaba a toda la comunidad
del software libre para
la materia está bien.
Si yo te doy el teléfono,
tú tienes el teléfono
y yo no, porque es un
juego de suma 0,
pero si yo te doy una idea, tú
tienes la idea y yo también,
porque es un juego de suma 0.
En el campo de la información
no existe la escasez;
por lo tanto, tratar de entender el
comercio como si la información
fuese materia, es una
grave incorrección,
y todo esto se atribuye a la Suárez
a la escuela del iusnaturalismo,
tradicional español de Salamanca,
esa visión probablemente Richard tal
mano habría quedado fascinado.
Diciendo Estos tíos son un auténtico
genio, sin embargo,
un mundo material y en
el que el derecho
no ha entendido otra forma
de percibir la realidad,
que como algo de hecho de materia
finalmente dijeron.
Si no hay escasez,
la generaremos artificialmente;
si tocan tras una canción,
tú no puedes contarla salvo
que él te deje cantar,
y ese debate, que ha acompañado
al al mundo de la informática
es algo que, por ejemplo, preocupa
mucho programadores;
preocupa a muchos ingenieros
informáticos,
ahí pueden estar los abogados
que entienden de derecho
para explicar algunas cosas,
mientras que nosotros deberíamos
comenzar a aprender del mundo
de la tecnología y eso daría lugar.
Un programa de formación
verdaderamente interesante,
es decir, el dibujito del
cocinero estrecho
con inteligencia artificial;
no me iba a poner yo
a hacer ningún tipo de dibujo,
no, pero si usamos
las inteligencias artificiales,
si conocemos el mecanismo
del juguete,
seremos capaces de entender mejor
cuál es la regulación y, sobre todo,
si leemos a quienes soñaron a gente
como Minsky, a esos perdón,
todas las revoluciones tienen
sus manifiestos,
Porter tuvo antes de la Revolución
Francesa Marx,
tuvo antes de la revolución
soviética,
pues antes de la revolución
información,
al hubieran soñadores que
escribieron textos y hay que leer esos textos
para entender ver Hacia dónde vamos?
Si lográsemos conjugar ambas cosas,
tendríamos 1 juristas
absolutamente plan
y, sobre todo, capaces
de ganar el futuro,
porque qué futuro queremos para
la Región de Murcia,
para nuestra ciudad?
Cuando Enrique VIII quiso
que Inglaterra
fuese la nación más importante.
Lo primero que miro es cuál es la
tecnología más importante.
Ahora que tienen españoles
y portugueses lo tuyo,
saben hacer barco
y y están agrandando el mundo.
Yo para España, para la
Región de Murcia
y para mi ciudad quiero barco,
quiero ser nuevas tecnologías
y quiero esa gente preparada porque
no hay mayor riqueza
a día de hoy en un capitalismo
y formación,
la gente preparada y la pregunta,
además, muy pertinente,
porque lo que nuestra clase
política, el derecho,
va siempre detrás de la
de la tecnología
y de la realidad, y yo creo que sí
que sería una bonita experiencia.
La Universidad de Murcia tiene
ingeniería informática,
la Universidad de Murcia
tiene derecho a la Universidad
Politécnica de Cartagena
, tiene Teleco,
se podría hacer un magnífico
programa e interdisciplinar de formación
que permitiese generar visitas
que entendiesen la realidad
en la que ahora estamos viviendo
Qué lo que debe sentir?
La?
Entiende no más de un 0 a 0, 0,
5 por 100 de la población y de
nuestra clase política,
nadie.
Gracias.
Veo que hay alguna pregunta aquí
en público, José Manuel.
Yo traslado una pregunta
de nuestro decano
que ya ha perdido la voz del todo.
Yo tampoco estoy muy allá
pero yo lo intento.
Dice que habría que ha comentado
que es posible que un sistema
llegue a adoptar decisiones
autónomas que puede ser causante de un daño.
Quien respondería a la
pregunta es fácil.
Si se creó el problema es
que no, no lo sabemos
y que probablemente no lo podamos
ver a la cuestión
sería si se sabe que hay un error
de programación originario,
previsible o que hubiera debido
preverse de conformidad
con el estado actual de la ciencia,
y la tecnología.
Probablemente sería el productor,
programador y además también
el distribuidor, muy probablemente,
pero puede que no puede ser que
estén con toda la tecnología que tenemos,
con la mejor tecnología, la
exclusión tecnológica,
lo que pretende no cerrar el
camino a la innovación.
La innovación siempre se enfrente
a la incertidumbre algo nuevo.
No sabemos cómo va funcionando
en 5 años
y decimos que los nuevos
responde igual.
No innovamos, innovan
otros por nosotros
y al final no acaba llegando
igual ya sea chino,
que ha estado lío.
De ahí que se intente excluir
de esa responsabilidad.
El problema que tenemos aquí es que,
como la incertidumbre intrínseca
de la inteligencia artificial
lo seguro
para que no entendamos por qué no
hay seguro obligatorio de base,
porque las entidades aseguradoras
dicen que no pueden asegurar,
pero cómo van a hacer un
cálculo actuarial
de algo que no saben qué va a pasar?
No sabemos si el siniestro va a
ser mucho o poco irregular
No, no, no funcionamos
con la especulación,
no pueden hacerlo a la empresa
que lo fabrican.
Saben que algo puede pasar,
pero también puede producir
beneficios.
De hecho, lo más probable es que
ven más beneficios que daño,
y en medio lo que pase
muy difícil de saber
la inteligencia de Casa Blanca
es intentar hacer.
Pero cómo habría que dar tantos
proceso, digamos,
simplificando de nuevo.
Sería decir, si introducimos
cada nueva variable
en cada vez décimo ahora me temo
que son determinadas raza
o ahora son de determinada edad
cuando podríamos ver qué hace
decidir en cada caso,
pero son cientos de variables
simultáneamente.
En operaciones conjunta no podemos
ir digo 100 o 1.000,
ahora mismo, con nuestra
potencia de cálculo,
si algún día hubiera computación
cuántica que encima tiene distinto
Estado del binario, sería
imposible saber
como ver a alguien el cerebro por
dentro no exactamente igual,
pero muy difícil teniendo en cuenta
alguien hace su programa
con su mejor intención, con
su mayor diligencia,
y no puede saber si dentro de 15
años va a tomar una decisión diferente
o el escenario más catastrofista
que a veces proponen,
que ni siquiera tiene por qué
ser lo que es lo que llaman
la singularidad.
Una inteligencia artificial
se convierte en general,
luego o toma conciencia de sí
misma, según quizá un canon
más de ciencia ficción,
o empiezan a tomar
decisiones autónoma al margen
de la indicación original,
creando otra inteligencia
artificial, para que le ayude,
mientras se propaga suelen
ni siquiera impensable.
Desde el punto de vista del riesgo,
a mí la catástrofe extintiva no me
preocupa porque estoy muerto.
Quiero decir eso a efectos de cómo
no sé si ustedes recuerdan,
cuando iba cohesionador de
ladrones que decían,
a lo mejor era un agujero negro.
Por eso no hay que asegurarlo
porque se lo crea,
pues ya va a haber poca demanda.
Después no fue entonces
algo parecido.
Eso yo no me ocupo del apocalipsis
después ya yo no me ocupo
y si no haya poca al irse
habrá que ver cómo,
como sucede con los coches,
pasó algo parecido.
Los coches se sabía que
iban a causar daño
y de quienes culpa Pues como
no lo tenemos muy claro,
sistema de responsabilidad objetiva,
seguro, obligatorio y solución,
pero aquí eso no es tan
fácil de hacer
ni siquiera los coches autónomos.
Por cierto, entre otras cosas
porque depende del nivel
de conducción,
pero cuando sean de conducción
autónoma, 5, es decir,
la persona no hace nada técnicamente
ni siquiera conducción
aquella ni siquiera sería válido
lo que tenemos ahora entonces
que se va a hacer?
No lo puedo saber.
Qué hacia dónde ha apuntado
que haría eso?
Podemos discutirlo,
pero eso ya mucho más especulativo,
también, mucho más interesante,
pero probablemente desborda la
sesión de muchas gracias por la pregunta,
solo un matiz.
Hay una cosa muy importante y es
que la inteligencia artificial
en riesgo 1 de los principios éticos
de los 7 principios éticos
que establece la Unión Europea
es el de supervisión humana;
es decir, que el coche conduzca
por sí mismo está muy bien,
pero eso no significa que tú no
esté detrás y a los mandos
y supervisando lo que está haciendo
la inteligencia artificial
en cada momento.
Es que en un sistema 5
no será posible porque, de
hecho lo que se estima
es que los que generamos problemas
somos nosotros.
Quiero decir los coches
autónomos estrella,
pero dicen que se tenían por
qué ha pasado humano,
que si no hubiera humano que generan
incertidumbre no se modelo.
Otra cosa es que yo llegué
me ha dicho un coche
no sé hasta qué punto podría haber
calificarse como el riesgo,
porque todavía tenemos que ver cómo
se desarrollan los modelos
de los distintos etapas de riesgo,
pero en la conducción autónoma
e podrían nivel sea tener ni
opaco todo tu espalda.
Leyendo llegaremos ahí o no No lo sé,
pero lo que se preconiza es que eso
será la verdadera seguridad,
porque no habrá un elemento
falible humano
que estorbe la percepción de
la conducción mecánica,
que tendrá fallo, aunque sea
un fallo inesperado,
pero mínimo en comparación
con lo que nosotros,
con nuestra familia falibilidad,
podemos generar bien.
Hay una pregunta aparte
de la observación
que hacer fue Generating Rosal.
Honrubia.
Nos plantea cuáles deben ser
los límites, uso de la ya
en el campo de la abogacía.
Si podría salvar lo voy a enlazar
con el caso de esta este letrado,
que ante el tribunal los
tribunales de Navarra
pues confiando en Chad
GMT cita derecho
creo desde Colombia Colombia
Colombia quién tiene la culpa Change 20
o un profesional?
No es supervisión humana, pero
es que es que, además,
supervisión humana es que
es un profesional,
o, como lo que hemos tenido, alguna
vez, casos de responsabilidad
contra un profesional del derecho de
graduado social de la medicina,
se entiende que conoce
lo que trabaja,
que conoce la lex artis, que
conocen el derecho,
que está aplicando.
Claro, si yo le lo delegó 100 por
100 Change PT habrá fallado,
pero es que yo he fallado más
que echar como profesional
y como no, como ser humano
y como todo,
entonces Pues yo creo que
ahora que caso por caso
y efectivamente, las bases de datos,
no sé si técnicamente se
pueden considerar
inteligencia artificial ahora
definitivamente de credibilidad,
pero la base de datos cada vez
son más sofisticadas.
Te dan más rápidas las respuestas
a cierta rabia las aceptan
o menos rápido pero son instrumentos
pero claro no son no son la solución
entonces pues efectivamente son
instrumentos que pueden ayudar,
pueden ser por lo que hace
una administrativa,
lo que te puede hacer un pasante,
pero que supervisar.
Hay que estudiar y hay que
trabajar en cuestión.
Antes de venir aquí la semana pasada,
hice una prueba con la inteligencia
artificial del colegio
y con otra inteligencia artificial
que está a disposición de todos.
Vosotros, la podéis, se
llama la patrocina.
Ese bufete odiado por ahí cómo se
llama de las hipotecas exacto
es 1 de los grandes patrocinadores.
Justicia punto es y les pregunté.
Hay nada más interesante
que preguntarle a una a una
inteligencia artificial Cómo
funciona la responsabilidad civil
de la inteligencia, artificial,
a ninguna de las 2 mencionó el
Reglamento de la Unión Europea
y la de riadas firmaba
estar actualizada?
La riada, perdón, disculparme
esa han y al final,
publicidad de riada, ponía después
actualizada a fecha de hoy,
es decir, si tú confías ciegamente
en lo que te está diciendo
es lo que decía Fernando.
Si tú confía ciegamente,
mira el abogado,
es el ella ya no, tú
estás autorizando,
conducir a un resultado
que tú naturalmente,
debería supervisar como
humano Qué ayuda?
Sí claro que ayuda, y un montón
de ideas interesantes
y un montón de argumentos
interesante.
Pero la última supervisión tiene
que tenerla siempre.
Un jurista, yo creo que este caso
un caso en el que interviene una
inteligencia artificial,
pero no un caso puramente de
inteligencia artificial.
Es como si un abogado contrata
a un becario,
un alumno de primero de Derecho,
de Chile y le dice Dame la demanda
y se lo hace mal,
y la firma no es tanto el problema
de la inteligencia artificial
como la fuente haber tomado yo
con alumno en prácticas,
como ustedes imaginarán, utilizan
la aplicación,
lo cual a mí no me parece mal,
siempre y cuando sea una herramienta
que sumen como una calculadora.
Yo no quiero que hagan
raíces cuadradas
y toca que hagan la cuenta, pero
siempre se cuela aquello
de vez en cuando alguien
me dice el artículo,
el último era 4.600, del Código
Civil y a veces se lo sabe usted.
Todo.
Hay diversas legislaciones que
tienen la inteligencia artificial
que eso, obviamente, suspenso.
Pero si alguien lo utiliza
como apoyo,
igual que buscar en Google un apoyo,
no se puede 1 fiar de todo resultado,
pero puede utilizarlo la
medida ponderada,
razonable que yo en esa sanción
quiero decirlo también confieso
que no jugara con el chavismo
déficit 0.
Así lo muestran alguna Prieto de
cuestiones de orden tecnológico.
Fernando van a entender
perfectamente el tema de daños derivados
de alteración en la prestación
normal de un suministro de energía eléctrica
y he podido comprobar
cómo la formación
ahí era de gol a favor del letrado.
Si por eso el tema de supervisión
no Sí sí el tema de supervisión
lo considero esencial.
Al hilo de lo que he venido diciendo,
quiero hacer una reflexión.
Pregunta me contestó a quien sea sé
que no se vean algunos compañeros
también del sector asegurador
sabe que yo intervengo habitualmente
por parte
de un grupo en concreto asegurador y
al hilo de lo que comentaba antes,
Gabriel creo que los esquemas
de la responsabilidad
y Solimat se nos quedan
absolutamente obsoletos,
que vamos encaminados quizá a
una prueba de la prueba.
Creo que lo comentaba también con
el adelante en esta materia.
Donde las presunciones pueden ser
el instrumento para llegar
a la prueba de la prueba puede ser
más razonable la de los inicios,
como va a afectar.
En definitiva, todo esto al ejercicio
de la abogacía.
En cuanto a lo contenido, pregunto.
La inteligencia artificial.
Prueba de la prueba ahí ya hace
tiempo, nos en España no mucho,
pero algunos países dudan
de la eficacia
en algunos aspectos que pueden
tener, por ejemplo, un profesional
como el notario.
En un mundo en el que hay vicia
ejemplo que aporta;
cuando no hay asesoramiento
jurídico, una que aporta un acta,
si lo puede grabar en vídeo y esto
se sostuvo durante un tiempo
se está regulando esto porque con
inteligencia artificial,
a día de hoy no se puede,
pero de aquí a no mucho
tiempo es posible
que lleguemos a un mundo donde
no se pueda saber
si un verdadero decir que
haya vidrio generado,
que puedan demostrar cualquier
cosa y que,
sin embargo no podamos probar
que el vídeo existe,
porque el vídeo puede
no haberlo hecho.
Esto afecta a muchísimas cuestiones
desde el propio concepto de
intimidad que ustedes piensen
un día que tienen ustedes porque nos
salen a lo mejor del nudo al balcón
por si lo ven como se le quedaba,
como lo hacen, fondo.
Pero sea un mundo donde cualquiera
puede tener foto y vídeo,
donde usted, con mucha probabilidad
de que sea su verdadero cuerpo,
porque solo calcule importará,
ya, siempre podrá negarlo,
no solo eso, soy inteligencia
artificial,
eso no sea que la barrera
de lo que se hace
o lo que no se hace del punto
de vista que no grave cambia el
concepto de la propia intimidad,
valía sobre todo las generaciones
nuevas y no una prueba.
Me imagino un proceso en
el que la fotografía
y los vídeos ya no puedan existir,
porque no se puede saber
si son reales.
Eso va a cambiar ahora se utilizarán
entonces otra inteligencia artificial
para que analice los vídeos y
digan si son de verdad o no
o poner el contexto.
Vamos hacia donde 1 grava al que
está grabando y muy difícil,
pero esto el futuro a veces
genera problema
y luego da soluciones también.
Esto pasa en muchos ámbitos.
Cuando dice.
Si hay computación cuántica, ha ido
a las contraseñas contraseñas,
ya no sirve, pero bueno, a lo mejor
hay incriptación cuántica
que no nos va a faltar comida,
pero luego tenemos,
desarrollamos nuevas tecnologías.
Yo no soy pesimista.
En la tecnología, y creo que
ni en la tecnología
ni en la sociedad en el
ámbito tecnológico,
en otros muchos no soy tan optimista,
pero creo, creo que encontraremos,
solucione,
aunque ahora mismo temamos,
los problemas.
Pero yo creo que aquí he encontrado
con un problema,
y es que, por ejemplo, desde el
punto de zapa seguramente,
aunque antes lo mencionaba, que
la responsabilidad civil
va en la mano del aseguramiento
es cómo vamos a organizar
un aseguramiento a estos niveles
con algo que está cambiando
continuamente.
Vamos a tener que volver a
la bandeja tradicional,
concepto de cláusula limitativa,
delimitador limitativa Cómo.
Vamos a encajar los sistemas
de aseguramiento?
De un contrato fruto de autonomía?
Voluntad que va a aceptarla
ya, a todos los ámbitos,
a todos los ámbitos empresariales,
de relaciones entre particulares,
a todo,
pero con un dinamismo que no está
previsto en nuestro sistema actual
y menos obligación, fernández
contra de la prueba?
Yo creo que en esta materia,
de la prueba por indicios
es casi más importante
que las presunciones que
estaba establecido
en el legislador, porque
realmente, claro,
pero lo que dice que son reales
no son indicios.
Pues si el problema es sencillo, se
inició con creerse problema,
complejo en la inteligencia
artificial, sofisticada y muy lista.
El problema sea mayor a la
hora de sumar indicios
o de acreditar los hechos,
y la Directiva
de 2024 establece un sistema de
no de diligencia preliminar,
sino durante el procedimiento de
exhibición de pruebas por parte
del demandado.
En este caso será el que sea claro
desde los distintos escalones
y esa esa carga de la
Facilidad aprobado.
Ya sé que estamos en el olivo,
solo principio clásico, indicio
facilidad probatoria
si yo le solicito la exhibición
de prueba al profesional,
al que ha introducido ese
producto en el mercado
y no lo hace posible la carrera,
unos perjuicios.
No, no me facilita esa prueba
esa exhibición de prueba.
La carrera era un perjuicio
al demandado.
En este caso establece el artículo
9 de la directiva,
y eso no se había introducido
el derecho colaborativo
de alguna forma u otra en nuestro
ordenamiento jurídico.
Me pregunto.
Tenemos algún experto en materia
de derecho colaborativo,
algún compañero de esta sala y a
mí y creo que o modificamos
el esquema regulatorio actual
en todos los aspectos
nos hemos quedado cortos,
creo pregunto,
y desde luego esa transición va
a ser un caldo de cultivo,
a mucho trabajo para los letrados, y
os animo al uso de la tecnología.
No suelo hacer una precisión
el tema de suplantación.
Creo que el reglamento
de la Unión Europea
en ese punto es bastante acertado,
en el sentido de que cualquier
inteligencia artificial
que permita su implantación o
suplantación es obligatorio
que dentro de su programación llevé
las instrucciones precisas
para que cualquier imagen generada
con ella se pueda saber
que efectivamente ha sido generada
por inteligencia artificial,
marca de agua,
o aunque no sea visible que sea
fácilmente comprobable,
haya una una inserción
que permita saber
qué fácilmente, comprobable bien.
Creo que la tecnología a tiempo
cronos nos manda aquí.
Bueno, ya simplemente para terminar,
reiterar el agradecimiento al
Colegio Naval de Cartagena
por su amabilidad.
Al acoger esta jornada, dar las
gracias a los 3 magníficos ponentes,
que hemos tenido aparte del aplauso,
que seguramente darán
presencialmente.
Dentro de un momento en Internet,
también los comentarios por el
chat han sido muy elogiosas
y con relación a este
tema de la prueba.
La entidad artificial hace un mes,
un poco más hicimos una,
un seminario con un jurista
especialista en tecnología
y no noche a la misma, María
Fernández estuvo allí que fue
realmente impactante y está grabado
en tv punto punto 9.
Junto a eso lo podéis ver
y en ese sentido el compromiso de la
cátedra es generar contenidos,
actividades e iniciativas
formativas, siempre en abierto
y para que esté todo disponible.
Entonces también tenemos la idea
con el señor Salvador Thomas
conoce bien,
María Fernanda de organizar
una actividad formativa
sobre precisamente la incidencia
que tiene
la artificial en la prueba.
Ya informaremos oportunamente
al colegio.
Por supuesto, me ha parecido
que hay una mano levantada
si es el canal de televisión de
la empresa de Murcia tv.
Punto me apunto es Ignacio
a la mía Domingo prueba
inteligencia artificial tenis
el vídeo corredor social
el incidente entre también lo
puede ir, está accesible
y, si no, con mucho gusto le doy
mi correo ahora al terminar
y merece la pena escucharle,
porque allí nos explica todas las
tecnologías de inyección
que están utilizando actualmente
para suplantar la entidad
y no somos realmente conscientes
del impacto que tiene,
no en la actividad judicial y en
la vida social en general.
Yo me voy a auto moderar y no
voy a entrar en detalle
porque tengo algunas opiniones
parcialmente discrepante
con cosas que se han dicho aquí pero
no es el momento ni el lugar
y simplemente termino agradeciendo
nuevamente la oportunidad
y ofreciendo la colaboración de
la cátedra para el colegio,
si lo estima oportuno pueda realizar
nuevos eventos que incidan
en ese desafío que, como decía,
tenía la profesión en general,
y la abogacía en particular, que es
formarse en temas digitales;
una cuestión puramente prácticas.
Si alguien quiere un certificado
Florencia horas, tomaran nota de las
instituciones para generarlo,
creo que de manera automatizada.
Muchas gracias.
Un la.