Bueno, pues una vez inauguradas
las jornadas doctorales,
vamos a comenzar con la
primera plenaria
que tenemos que sacar con el
profesor Alexandra mantener
o es profesor de derecho privado
y derecho de la tecnología.
En la Universidad Politécnica
de Turín
y en 2022 en recibió de
la Comisión Europea
la cátedra Jean Monnet en derecho
de sociedades digitales
Mediterráneas, además, es miembro
del grupo de apoyo de expertos,
del Consejo Europeo de Protección de
Datos, de inteligencia artificial,
datos y privacidad de
la OCDE y experto,
el Programa de Naciones Unidas para
el Desarrollo en los derechos humanos
y la inteligencia artificial.
Bueno, es una persona que toda
su carrera investigadora
ha rondado en torno a los temas
sobre ética e Inteligencia,
Artificial y yo creo que para
nuestros alumnos de doctorado,
pues la es quizá el mejor experto
que podíamos tener,
el mejor experto que se podía traer
y al final lo hemos conseguido
para que nos explique bueno
los puntos de colisión
que hay entre la ética y el uso de
la inteligencia artificial.
Muchos de vosotros lo
estáis utilizando
en nuestras tesis doctorales, y yo
creo que la escuela de doctorado
pensaba que era un buen momento
para hablar de este tema,
así que nos dejó con el profesor
Alexandra mantener
o a continuación, después de él,
se abrirá una mesa redonda
donde van a intervenir los
coordinadores de los diferentes,
las 5 ramas del conocimiento,
la mesa, la dirigida a
José Tomás Palma,
que es coordinador de investigación
de la Universidad de Murcia,
y a esa mesa se incorporarán
Elisa Palacios,
que es coordinadora del programa
de Física Sebastián Cánovas,
del programa de Biología y
tecnología de la salud reproductiva.
Varias y Cilia -Piñero, del
programa de Ciencias
de la empresa y Ramón García,
del programa de doctorado
de historia.
Todos ellos se incorporarán después
y junto con el estando a mantener
o se establecerá una mesa.
Muchas gracias.
Es un placer volver a la
Universidad de Murcia
y, primero quiero dar
las gracias a todos para esa
invitación a las 2 universidades,
a los rectores, al profesorado
en las 2 universidades,
siendo de Italia.
Mi palabras en castellano votará
a ser no demasiado correcta
o pido perdón al principio esa
el tema que vamos a discutir
es el tema del impacto de la
inteligencia artificial
en el marco de la investigación, la
razón para estar aquí básicamente
que, como he dicho, he trabajado
en este sector
y estoy trabajando con la dirección,
el rectorado de Unión Europea
sobre investigación
que quiere definir un marco
para la investigación,
Relacionada al interviniente
artificial.
Como ustedes saben, cuando vas
a ser proyectos europeos
tenemos que rellenar una parte
de autoevaluación;
en esta parte de autoevaluación,
de momento hay muy poca cosa
relacionada con la intervención
inicial,
se hace referencia a las
directrices de la.
La del grupo cree,
se creó por parte de la Unión
Europea antes de la AEAT,
así que digamos, son directrices
un poco viejas
y también con una perspectiva que no
es exactamente las perspectivas
que tenemos en el reglamento de
inteligencia artificial.
Por eso, en el electorado en pulso,
2 tramos de trabajo, 1
específicamente sobre la ética
y la otro sobre los derechos
fundamentales,
siendo de derecho no de ética
he trabajado más claramente
el experto que ha trabajado para
hacer estas nuevas directrices,
que son directrices para
los investigadores
y para los legisladores,
claramente las direcciones,
es la propuesta,
sea guiada a la Comisión
Europea en diciembre,
ahora, como siempre, estaba
esperando que se aprobara.
Es un poco el marco para explicar
por qué estoy aquí hablando
de este tema.
Si vamos a mirar más al digamos,
al impacto de la inteligencia
artificial,
tenemos que considerar que
cuando hablamos de ética
en el sector de la designación,
además del proyecto europeo, es una
decisión muy amplia y ética,
porque, como ustedes saben, cuando
se hace una evaluación
de ética hay muchas cosas que no
son estrictamente de ética.
Si no están bajo ley, bajo normas,
hablamos de animales,
hablamos de igual, Josep hablamos
de Protección de Datos,
son todos aspectos que claramente
tiene relevancia ética,
porque afortunadamente, el derecho
se demanda sobre la ética,
pero digamos tan normativos,
tan con normas específicas
que tenemos que cumplir.
Eso él lo mismo
de los derechos fundamentales.
Los derechos fundamentales también
son parte importante
en nuestra cultura de nuestro ethos
en sentido más amplio,
pero también está regulado por la ley
y claramente el impacto de la
inteligencia artificial,
o no quiero repetir cosas que
casi todos los estudiantes
de otras las saben.
El impacto de la inteligencia
artificial
es un impacto muy significativo
sobre la societa
y eso claramente crea problemas
con una relevancia ética,
con relevancia sobre los derechos
fundamentales,
porque en inteligencia artificial,
como se ha dicho antes,
puede ser muy útil,
pero también puede crear problemas
de discriminación,
puede crear problemas de influir,
de tramitar valor ese principio
que no están alineados
con los valores y principios
de cada una comunidad,
y por eso crea problemas últimamente
con los derechos fundamentales.
Un ejemplo, digamos muy claro,
son los proyectos de smart cities,
siendo Universitat Politécnica.
Muchas veces estoy involucrado
en un proyecto,
con todos los proyectos
de smart cities,
un proyecto que impactó sombra de la
mobilitat sobre la plataforma
para decidir, digamos, aspectos
de vida común
sobre el medio ambiente.
Todo eso son también relacionado
con derechos fundamentales.
El diseño de la inteligencia
artificial
que vamos a crear puede afectar
estos derechos.
Por eso es importante tener
en cuenta esto.
Esto tema de los derechos
fundamentales,
que ya se tan elaboración ética,
porque, como dijimos antes,
hay algún aspecto y valoración
ética que ya sabe,
relacionado con los derechos
fundamentales.
Esto es gay.
Destruimos de la directora
General de Investigación
e Innovación de la Comisión Europea.
Está relacionado con la idea
de introducir una evaluación
específica del desfase assessment.
Lo que concierne, digamos, el
impacto sobre los derechos fundamentales.
Eso significa que habrá
una parte ética,
y una parte.
Sobre los derechos fundamentales
en la parte.
Sobre los derechos fundamentales,
es algo que usted encuentran.
También me ría el reglamento sobre
la inteligencia artificial.
Por eso estos 2 bloque hay que
juntarlos en alguna manera
y por eso tenemos que mirar un poco
cómo está la estructura,
digamos del de ría.
Y por qué necesitamos
estas directrices.
Necesitamos estas directrices
por varias razones.
La primera es claramente
cumplir con la norma.
O reglamento, en parte,
pero digamos la parte más relevante.
Es también crear
con estas directrices un poco marco
de referencia por la investigadores.
Porque, qué pasa?
Ahora cuando se habla del impacto
sobre los derechos fundamentales?
Los industria y retorno.
No saben qué será.
No sabes que sean los derechos
fundamentales.
Eso no pasa solo en investigadores.
La semana pasada fue Malta la
semana antes, en Croacia,
con expertos de inteligencia
artificial.
Ellos también tienen problema, que
conocen entre 10 actividad.
Conocer un poco de protección
de datos,
pero cuando dicen.
Hay que mirar el impacto sobre
los derechos fundamentales.
De esta aplicación.
Que estáis desarrollando ellos,
pero cuáles son los derechos
fundamentales?
Básicamente.
Así que un problema es la definición
de los derechos fundamentales.
Entender cuáles son los derechos
fundamentales para la exministra
y actores es difícil muchas veces
son expertos en campos técnico
como minería, otros sectores
y no tienen experiencia,
no los derechos fundamentales
no ven el impacto
sobre los derechos fundamentales
y tampoco tiene mucho soporte
en armonía universitario,
porque no necesita.
Tenemos privado, tenemos experto
en protección de datos,
pero no experto en derechos
fundamentales.
Este trabajo sobre derechos
fundamentales
ponen problemas desarrollando
también en Cataluña,
con la Autoritat Catalana de
Protección de Datos con un equipo
de DPO y lo mismo ripio,
encuentran algunas dificultades
difícil de identificar
de manera correcta y completa.
Cada derecho fundamental
por eso es un tema donde se necesita
porro, lingüística Torres y también
por lo que se dan a supervisar
digamos, solo lingüística Torres,
una herramienta que pueda
ayudarle en entender
cuáles son los derechos impactados,
y cómo se pueden mitigar
este tipo de impacto.
Digamos, vamos a mirar un
poco la estructura.
El primer aspecto que tenemos
que considerar,
el primer elemento que tenemos
que considerar en relación
con el reglamento de inteligencia
artificial-
Herria eso es otra parte
un poco más técnica,
un poco más se jurídica Hervías,
tiene en el artículo 2 la definición
del alcance de aplicación
de la norma,
y si ustedes leen lo que dice
la Comisión Europea,
típicamente, la Comisión Europea
dice que siendo y no versión friendly
o refrende, no hay que preocuparse
de reglamento
de indemniza artificial
porque no se aplica
a la investigación.
Eso es el mensaje, digamos, política.
No se aplica la investigación.
Vamos a ver qué dice exactamente
Herria Herría.
Tiene un artículo 2 2 partes
que son relevantes
y 2 6 el 2 2 8 en el 2 6 dice que
no se aplique efectivamente
a los sistemas y modelos de
intervención artificial
de incluir,
y su resultado desde arrolla
de puesta en servicio,
ni siquiera te 20 con
la investigación.
El desarrollo científico como
única finalidad Qué
significa?
Desarrolla puesta en servicio
es la parte, digamos,
de lo que llamamos.
Llamamos le hay prórroga y de los
que crean la inteligencia artificial
que sean creados para una tarea
específica de investigación.
Eso ya es un primer problema, porque
dice como única finalidad.
Muchos proyectos de investigación,
también financiado por
la Unión Europea.
No tienen como única finaliza
la investigación,
sino también tenga un marco
de desarrollo industrial
de la investigación,
así que el 2 6 se no se puede
aplicar a este sector.
En este caso se puede aplicar
a un sistema
de inteligencia artificial.
Que se cree un laboratorio que se
utilice para una investigación.
Ella está otro elemento
dice desarrollado
y puesta en servicio específica
también.
Eso significa que es el sistema
de inteligencia artificial.
Ya existe en el mercado.
Voy a utilizarlo para una
tarea, sentir frica.
Eso está bajo el río,
porque es algo que no
he desarrollado yo,
sino ya existe aquí la primera duda,
propuesta una interpretación,
pero la Comisión Europea no
sabe cómo han servido,
porque el problema de qué pasa
si yo tengo un sistema
de inteligencia artificial,
pero lo voy a modificar
en el desarrollo de mi actividad
de investigación,
porque la modifica, puede ser
una, modifica significativa
Herría.
Hace referencia a las modificación
significativa en algunas partes
y se la modifica y significativa
va a prevalecer la tarea
de investigación,
así que si tú tienes un sistema
de inteligencia artificial
o vas a modificar significativamente
más bajo el 2,
6 no está bajo ría.
Esa es una interpretación,
porque de momento claramente como
dice la Comisión Europea,
hasta que la definición de la
Corte de Justicia Europea
nadie sabe cuál es la interpretación
oficial,
pero ese puede ser un desprecio
a la lógica,
que también está alineada
con el marco
de la nueva normativa en el
producto defectuosos,
que también incluye una parte sobre
el cambio de finalidad,
digamos, de un sistema,
cuando se modifica de manera
significativa
así en la bahía en la misma tenemos
pero también otra excepción
en el artículo 2,
que el 2, 8 en el 2 socios se hace
diferimento a cualquier investigación
sobre los sistemas de electricidad
y sensibilidad ante su comercio
y de puesta en servicio
es lo que significa
es la parte en que yo vaya
desarrollando el sistema,
no necesariamente en el marco de
un proyecto de investigación.
Puede ser también la tirita, digamos,
de desarrollo de investigación,
la tus senso que se hace en
una empresa toda la parte
antes de poner sobre el
mercado el producto.
El Unión Europea dice esta parte
también podría ser ser las sin mirar
a reglamento de inteligencia
artificial.
La única o límites se señalasen
pruebas en contextos reales.
Si tú quieres sistema, interviene;
es decir,
si será la base de estar
en un contexto
donde hay personas claramente
ahí vuelven bajo riesgo
Cuál es el problema?
Que las 2 normas se la vamos a
mirar desde la perspectiva
de una investigación que se hace
también producto industrial
en muchos casos, como
pasa en la política
y creen que no son politécnicas.
No me sirve mucho saber
que en la fase de desarrollo ahora
en fase de investigación
puede hacer todo sin mirar muchas
reglamentario oficial
y cuando vaya a comercializar,
no cuando voy a ponerlo sobre
mercado me dice No,
pero ahora tiene que cumplir porque
el desarrollo tecnológico
es algo que digamos.
Se trata solo de cambiar un trozo
pequeño del proyecto,
se sitúa ese es un proyecto
que no está alineado
con los principios de ría,
y no hay que cuando lo pone
eso para el mercado
dice sin y ahora lo lo voy
a poner en conformidad,
ponerlo en conformidad,
muchas veces significa diseñarlo
otra vez a ser otra vez.
Así digamos eso hay que tener
en cuenta cuando vamos
a hacer proyectos de investigación,
porque muchas veces no se dice Ah No,
hay que preocuparse de la Ley
de interinidad artificial
porque no se aplica si no se aplica
hasta que 1 quiere vender
digamos tu propio auto
sobre el mercado,
y ahora sabemos que la universidad
está muy atenta
a este este esté posibilidad,
digamos,
y también en la investigación
junta con empresas.
Todos la lógica de lo mismo, claro,
pueden ser donde la investigación
que quiera,
sin va, sin mirar Herría,
pero cuando tiene que venderlo tiene
que cumplir y tiene que ser marco
en el marco de la Unión Europea
y todo así que el programa la
marca de la Unión Europea.
La cosa es interesantes en detalle,
pero es interesante que
en el artículo 2,
8 dice que no se ha aplicado la
excepción en el caso de prórroga,
en condiciones reales.
Esta misma excepción a la
excepción, digamos,
no están en el 2, 6 Eso significa
que podemos interpretar
que cuando se más satelital
investigación
también en un sector, también
en casos reales,
si es solo para investigación,
se pueda ser sin cumplir, digamos
de manera formal,
con errores.
La última cosa que es importante, y
considerando 25 los considerandos.
No son parte vinculante digamos
de la norma europea,
los considerandos 25,
pero nos recuerdan que,
de todas formas,
tenemos que cumplir con la
norma normas ética.
Ahora, en este marco,
cuál es la situación y por qué
hemos hecho este trabajo
a nivel europeo?
Porque claramente, por un
lado, tenemos Herría,
que define un marco jurídico
con un énfasis, digamos,
sobre la protección de los
derechos fundamentales,
porque es una de la finalidad
principal,
y tiene una sistema de evaluación de
impacto sobre derechos fundamentales
y, por otro lado, tenemos algunas
excepciones que dicen,
pero hay casos en el cual
eso no se aplique, ría,
pero los evidentes llegue a todas.
Están un poco en el medio, la idea
de proporcionar un marco ético
desarrollado por la de rectorado,
digamos, de investigación,
pero que sea suficientemente
alineado con Herría para no crear el problema
que cuando tú vas a desarrollar
una parte de tu investigación
en el marco ético,
después te en contra, con la barrera
de cumplir con Herría,
cuando la vas a poner
en marcha a nivel,
digamos, de mercado, y por eso hemos
creado esta esta herramienta.
Esta herramienta que se basa sobre
2 partes yo hablo de la parte
que conozco porque la otra la dieron
otros compañeros de ética pura.
Digamos que es la parte
sobre el impacto,
sobre los derechos fundamentales,
la parte sobre el impacto
de los derechos fundamentales
en la parte bastante nueva,
también para los expertos, digamos,
del sector jurídico,
porque hasta ahora la evaluación
de impacto
sobre los derechos fundamentales
estaba muy limitada,
era típicamente una evaluación
que se adoptaba
de los sectores industriales.
Cuando se hacía un plan de
industriales muy grande,
muy impactante, digamos, una
petrolera que va en África,
va a crear un área industrial
muy grande,
claramente impacta sobre
medio ambiente,
sabrá el acceso a la vivienda,
sobra la condición de trabajo
y muchos derechos digamos,
pueden ser pactado típicamente.
En este caso después el
impacto se produce,
hay personas que protestan, la
empresa va a pedir a expertos
que hacen una evaluación de
impacto que se llama
sobre los derechos humanos.
En este caso, porque estamos en
un contexto internacional,
va a ser una base del Supremo
derechos humanos.
Eleva a poner algunas propuestas
de soluciones.
Esto es lo que conocemos como
antecedente, digamos,
la evaluación de impacto sobre
derechos humanos.
Cuál es la diferencia entre eso?
En la evaluación?
Sobre los derechos fundamentales
en el marco europeo,
que esta evaluación en
la evaluación ex
-post cuando ya le he hecho
se ha producido.
Lo que pide ahora Unión
Europea en Herría
es que se haga una evaluación
ex ante para impedir
que se va a perjudicar los derechos
fundamentales claramente,
y por eso está muy alineada
con lo que hacemos
en el proyecto de investigación.
La sala es mente del proyecto.
Tenemos que mirar antes que poner
en marcha la investigación
si puede repercutir negativamente
sobre los derechos fundamentales.
Esto es una evaluación que ya
tiene, es algo similares.
Por ejemplo,
si vamos a mirar la evaluación sobre
el impacto en privacidad,
que ya se es parte de la
evasión que hacen,
lo que tendría que ser, digamos,
los investigadores,
cuando van a crear un proyecto
de investigación,
el marco lógico en el mismo,
intentar mirar cuál puede
ser la consecuencia
como algunas partes de
nuestro proyecto
pueden perjudicarle su derecho
y cómo podemos mitigar
o limitar este efecto negativos.
Siendo una evaluación de impacto,
como toda la evaluación de impacto
tienen 2 requisitos.
Primero, es una valoración
contextual,
no es una valoración abstracta,
tenéis que emigrar al proyecto
donde se aplica.
Se desarrolla el proyecto.
Cuáles son los contextos afectado,
cuáles son a los grupos de personas
que pueden ser afectados entonces
y claramente tendría
que ser una evaluación por expertos.
Ese es un tema bastante crítico
donde la Universidades,
porque muchos de lingüística total
no son expertos de derechos
fundamentales
y tampoco la oficina, digamos, de
investigación de la universidad
muchas veces tiene ese experto.
Eso es algo que tendremos que
pagar, como es de hecho,
con la privacidad, introduciéndose
experto en oficinas
típicamente de la Universitat el DPO.
Trabas equivalentes, digamos,
porque claramente,
si tú tienes un científico
de biología,
dice.
Yo quiero desarrollar ese odio y 6.
Y, cuál es el impacto sobre los
derechos fundamentales?
El biólogo te dice.
Yo no lo conozco, los derechos
fundamentales,
así que no podemos imaginar
que todos los expertos
de todos los diferentes tramos de
ciencia se convierte en experto
y derechos fundamentales.
Tendrá que universidades,
proporcionar soporte por
esta clase de análisis
o si tiene mucho dinero,
solo proyectos.
Sobre la investigación agraria
buscarse el soporte técnico
específico,
pero la cosa es importante, que es
una valoración de expertos.
También hemos discutido este tema
con la Comisión Europea
porque no lea Office.
Quisiera hacer un turno, una
herramienta para todos
o también para expertos,
pero no tiene sentido,
porque si tú no conoce los
derechos fundamentales
no hay herramienta ni en el jurídico
y te puede convertir en
un mínimo experto,
digamos, del sector.
Ese es el problema sobre
por eso digamos.
Hemos diseñado desarrollar toda esta
herramienta de evaluación
a este remanente de valoración,
digamos, se basa o la experiencia
claramente en el sector y a quienes
trae funciones principales.
La primera era función
de concienciación.
Es importante utilizar
este cuestionario
y todo lo que estaban en herramienta
para que la investigación empiece
a entender que existe el problema.
Me he encontrado muchas veces
en proyecto revisado,
siendo en comité ético
de mi universidad
donde la investigador
no de el problema ético no se
da cuenta del problema,
exige no que mierda por otro dato
simplemente no lo entiende.
Que hay un problema ético.
Por eso la primera parte es
un listado de preguntas
genéricamente, porque
los investigadores
pueden entender que hay
problema éticos.
La segunda parte es la parte más
dura en la parte de análisis de riesgo.
Esa parte de análisis de riesgo
y, como he dicho,
es una parte que necesita un
conocimiento del sector.
Por eso no podrá ser hecho solo por
parte de la investigación,
sino la investigador
con alguien que sea expertos
de derechos fundamentales,
porque si no, no se puede funcionar,
y eso también por la parte
de estimación de riesgo,
porque, claro, hay que entender
cuáles son los derechos afectados
y a entender cuáles son las
soluciones a nivel jurídico
más adecuadas a nivel y jurídicos,
pero relacionado con el proyecto.
Ahí está el problema.
No tiene que entender
que si tú vas a desarrollar una ley
que sirve para detectar el cáncer
y si esta análisis se basa
sobre un 30 datos
que se ha creado en Europa,
cuando tú vas a exportar,
digamos esa herramienta
en Latinoamérica,
el dato es el que a su utilidad
dato para enterrar
a la inteligencia artificial.
Puede ser que cree que vaya a crear
una inteligencia artificial
que a nivel de formas
en Latinoamérica
tiene un nivel de reformas más bajo.
Esto es una parte técnica, pero
sobre este análisis y técnica tu
tiene que poner la parte jurídica
que significa a nivel jurídico
a nivel turístico.
No es un problema de formas
del alcohol,
no es un problema de riesgo
de discriminación,
es de un proveedor de impacto sobre
el derecho a la salud.
Cuando han reconocido los derechos,
tienen que poner problemas
como vaya a proteger los derechos
a la salud de Brasil,
dinero que se afecta
a toda una herramienta que tiene
inteligencia artificial,
que nos detecta bien su casa
y claramente para hacerlo,
tener que volver a la parte técnica
que dice Mira pueda ser un fátum.
Mida pueda ampliar, digamos, los
datos de entrenamiento.
Por eso es necesario este diálogo,
digamos, entre el expertos de
derechos fundamentales.
El investigador propio de su sector,
expertos de derechos fundamentales
no tiene ni idea especificada.
La parte técnica no puede
solucionarlo por su cuenta.
La investigación no tiene
idea muy claro
de los derechos fundamentales en
lo pueden solucionar ahora
por su cuenta.
La metodología sigue este lógica
e incluye 3 bloques.
El primero, la planificación,
alcance, identificación de riesgo,
análisis de riesgo y desean de
riesgo no es nuevo, es típicamente la manera
en la que se hace la análisis
de riesgo,
y esto es bueno porque tenemos
otro análisis
y escuchamos muchas veces
en el proyecto,
empezando por la protección de datos
y tener herramienta que siguen
la misma lógica.
Ayuda mucho porque se utiliza
herramientas diferentes.
Claramente no se habla, es
complicada la planificación.
La primera parte es un cuestionario
donde vaya a mirar el contexto.
El contexto significa que
inteligencia artificial,
algo utilizando donde la web
utilizar cuáles son las clases de personas
que pueden ser afectadas.
El contexto es importante,
porque muchas veces una inteligencia
artificial
puede tener impacto para
reducir el impacto.
No es necesario modificar la
inteligencia artificial,
sino modificar el contexto,
por ejemplo, tú puedes desarrollar
un chat, voz es un escenario concreto
que hemos hecho aquí en España,
puede desear mucha voz para asistir
a las personas que tienen
problemas de salud y que pueden
preguntar poniendo
a los síntomas cuáles son los
medicamentos más adecuados.
Claramente.
Esa es una locura.
Desde la perspectiva de derechos
fundamentales
porque la persona van a poner
síntomas equivocados,
incompletos y todos y eso sale más,
pero tú puede decir mira cómo pueden
afrontar voy a invertir mucho más.
En este ínterin entre artificial,
la senda mucho más específica,
mucho más rápida, buena en detectar
las cosas o puede decir.
No echamos, no lo voy a dar
a los las personas,
los pacientes lo voy a
dar a los médicos
porque los médicos no saben dar
de manera más correcta
poner los términos Correcto
Él esa del medicamento,
que puede ser que no se han pensado
que se podría utilizar en este caso
en este contexto yo no voy a cambiar
la inteligencia artificial,
no voy a cambiar el grito.
Voy a cambiar el contexto
de utilización.
Por eso el contexto es importante.
Algunas veces no es necesario
diseñar la inteligencia artificial,
sino cambiar el contexto donde se va
a utilizar la inteligencia
artificial.
Después tenemos que realmente para
ser la evaluación de impacto.
La evaluación en facto es una cosa,
es una declaración de verdad digamos,
la evaluación de impacto no es
simplemente decir a me parece
que pueden afectar a unos derechos.
Aquí hay un listado de acuerdo
que se podrían hacer.
No funciona así?
La base del impacto es una medición.
Digamos, significa que tú puede
decir cuál es el nivel de impacto
por cada derecho.
Indignificar las medidas que
puede reducir ese impacto
y aplicando las medidas, definir
cuál es ahora el nivel
de residual, digamos, de riesgo eso
es una valoración de impacto,
es simplemente un listado de
del efecto potenciales.
Cómo puede mitigar No, no, es
una evaluación de impacto
y eso afecta también la manera
de gestión de riesgo.
Por eso tenemos esta estructura
en este cadena.
Sueño que será proporcionada
a los investigadores
y a los propios proyectos.
Una primera parte sabrá
la estructura,
cuáles son los problemas, cuáles son,
cuál es el efecto de interinidad
artificial y todo,
y la segunda contraparte,
más específica,
sobre la metodología claramente,
dado que ya conocen la parte,
digamos de problemas,
se puede pasar directamente
a la metodología.
La evaluación de impacto,
como se hace esa es la
parte más técnica,
seas, es utilizándose escalas.
La idea es que, como en toda la
valoración de los derechos,
hay un mínimo máximo de impacto.
Así que se una herramienta de
escalas nivel bajo, medio, alto
o muy alto de impacto
sobre un derecho.
Esto es que ahora son útiles,
porque esta herramienta no
es una herramienta,
digamos, de control al final
de un procedimiento,
es una herramienta de diseño, y
eso es importante entender.
Yo cuando pienso al proyecto de
investigación tengo que pensar.
Mira, se lo hago así.
Va a impactar sobre este derecho.
Hay un problema voy a hacerlo
de otra manera,
va a ver cómo impacta, y tengo que
comparar las 2 soluciones.
Esa es la parte de diseño.
No es un final donde voy a mirar.
Si está bien, está bien.
Estabilidad también es una
herramienta que me ayude
a entender que una manera de diseñar
mi investigación tiene más impacto
y que hay otra manera que
tienen menos impacto
y tengo que elegir la otras maneras.
Por eso es necesario tener
escalas, estén
herramientas que permiten comparar
2 diferentes soluciones
con las soluciones.
El impacto es muy alto con las
devoluciones es más bajo,
me ahorra, ve esa es la OIT.
Eso se aplica claramente al
diseño del algoritmo,
adapte un tipo a la clase.
De ahí que voy a utilizar
a muchas cosas Cuáles
son los criterios que se utilizan?
Claramente no tenemos
que inventar todo,
porque si no, no funcionan
bien las cosas.
Los criterios siempre son lo mismo
la de riesgo que son la prueba grita
digamos la gravedad del impacto y
eso también están en el NER,
vía reglamento, inteligencia
artificial, artículo 3,
que dice que esos son los 2
variables que hay que considerar,
pero en el modelo que hemos
desarrollado tenemos una, digamos,
un análisis un poco más
fina porque se dice.
La prueba ya no es solo
cuánto es posible
que algo puede pasar si no
también tener en cuenta
cuántos son las personas afectadas,
porque desde la perspectiva
del derecho fundamental
de que sea 1 que sea así
en no cambiar nada,
claramente tendremos que
proceder todos,
pero desde la perspectiva del diseño
de investigación va a cambiar,
porque ese cuando diseñó
una herramienta
un proyecto creo que el impacto
es probable, muy probable,
pero afecta muy pocas.
Personas o impacto, es muy probable,
más afecta a muchas personas a
nivel de gravita a nivel,
digamos, de trabajo que tengo que
poner para inducir la impacto.
Es diferente?
No digo que cuando son pocas
y sean no importa.
Podemos ejercer producir un daño,
los derechos fundamentales,
porque son pocos esos o no,
pero claramente siendo una
herramienta de diseño
es importante,
pero el estricto dar a entender
dónde tiene que empezar
se tú mirando tu proyecto de
es que impacta mucho,
sobran los derechos de la
libertad de movimiento
y sobre muchas personas.
Tú empieza de ahí muchas veces
cuando empiece de ahí
iba a ser cambiar el diseño.
Eso también se dé por curioso
para otros derechos,
reduciendo también impacto
sobre los derechos.
Así es importante,
pero en esto hay que tener
una lista de prioridades
y llamaban versar conocer dónde
empezar por primero lo mismo,
por la grave tal, acredita es
típicamente Cuánto una derecho?
De qué manera puede ser,
digamos, comprimidos,
reducido en consecuencia del
diseño que hemos creado?
La herramienta de inteligencia
artificial es grave,
impacto negativo digamos,
sobre el derecho.
También en este caso será
considerado no solo la gravita
sino también les fuerza.
Digamos que se puede poner en marcha
para reducir este impacto.
En el caso de antes del cáncer
después es muy alto
el riesgo es alto.
Entre justicia y a la salud,
y también le esfuerzo porque
se habla de ser un tren
y otro training sigue costando
bastante a nivel de tiempo
y de recursos.
Otro caso puede ser el caso de un
robot con incidencia artificial
que se utilice, por ejemplo, con
menores en los colegios.
Hablando con los menores,
se el robo, se equivoca,
dice con las raras, que puede
ser discriminatoria
o pueden afectar a algunos algunos
grupos claramente
la procedencia del profesor o a
mitigar de manera inmediata eso,
y también convierte esa experiencia
en una reflexión sobre los límites
de mi intervención inicial, digamos.
Ese es un ejemplo donde
el impacto es alto,
porque claramente puede
ser discriminatorio,
pueda ser.
Dice cosas negativas a reacción
de algunos grupos,
pero la presencia del profesor
induce mucho
y por eso tenemos que tener también
esta variable de efecto.
El esfuerzo perdón,
porque el esfuerzo en ese segundo
caso es muy bajo
con poco esfuerzo voy a decir
mucho impacto negativo.
El primer caso es muy alto
porque tiene que ser el
training otra vez.
Por eso incluimos estas 2 variables.
Las cosas que son
que tenemos que tener en cuenta
en aplicar a esta herramienta
es que claramente, todos los variable
que se introdujeron tiene
que ser relevantes,
que no tenemos que poner juntos
todos los derechos.
Esto es un error en muchos proyectos
de fundamentales impact assessment,
donde se dice, tenemos un resultado
final que dice
que tu proyecto o tu solución
día tiene un impacto baja.
Eso no es posible porque
en la teoría jurídica
de los derechos fundamentales
se valora la impacto
por cada derecho.
No puede decir que hay un impacto
muy alto sobre biodiversidad
y muy bajo sobre la libertad
de expresión.
Impacto total es medio porque está
mezclando cosas diferentes,
así que, al final, habrá siempre
un listado de derechos
con un nivel de impacto.
No habrá un valor único por todos
los derechos afectados.
Ese es un poco la herramienta
que se utiliza.
No tenemos una, una matriz o esta.
Esa es la gravita.
El esfuerzo,
la materia permite combinar 2
valores y cascada cromática,
aquí descarada cromática, sede
de un poco la frase,
pero conozca la cromática derivar
el tercero valor a quienes
desde la matriz de la gravita total,
que se compone de la gravita
del impacto
del esfuerzo.
Yo estoy aquí.
Puedo decir que la gravita
total es muy alta;
si estoy aquí es alta
en medio y media;
aquí es baja, es una materia
porque utilizamos
matrices.
Por qué las matrices son exactamente
la misma lógica
que se aplican?
El razonamiento jurídico.
Los juristas, los tribunales,
las Cortes,
cuando deciden de hacer,
de evaluar un impacto sobre los
derechos fundamentales,
conectan, digamos, 2 variables,
que son las variables que
hemos visto antes.
Así que la matriz es
mucho peor de la.
La fórmula matemática
que hay algunos han propuesto porque
la fórmula matemática
no son típicas de la
lógica del jurista
Por qué nos tenemos que ir
a la globalización?
El jurista, porque es el acoso,
se vuelve muy mal.
Se va frontalmente a una tribuna
donde habrá alguien
que ahora decidir,
se impacta, no impacta sobre los
derechos fundamentales.
Tenemos, lamentablemente
algunos casos
a nivel europeo que ya existen
de proyectos europeo
financiado que han impactado sobre
los derechos fundamentales,
así que todas las lógicas es
una anomalía jurídica.
Al final quienes seguir
cuáles son las prácticas de
las vallas jurídicas,
no hay juez que utilizan
fórmulas matemáticas
para evaluar el impacto sobre
los derechos fundamentales.
Cuando hacemos la evaluación
de impacto
vamos a definir para cada derecho.
Aquí habrá un Estado de derecho,
se va a definir la prueba
y tal exposición.
La prueba total acredita el esfuerzo
en la que gravita total.
Cuando ese hecho está adscrita lo
hacemos, digamos de manera única
para el desarrollo del proyecto,
pero se puede repetir,
se va a cambiar claramente la
estructura del proyecto.
Es interesante subrayar que
hay otras propuestas.
Por ejemplo, a nivel de Holanda.
El Ministerio del Interior ha
diseñado otro la herramienta,
que es una herramienta, que se
va a sobrar la lógica way,
what FAO- Whatsap.
Es una manera de este esquema
que se utiliza
para el proceso de sillas.
Anales sería porque quiere utilizar
esta herramienta
como un cuadro herramienta.
Quieren sensibilidades
y el artificial,
como la base de desarrollar
esta estructura
es de una estructura lineal
específicamente.
Cuál es?
El problema?
No es adecuada para utilizarse
ni una evaluación de impacto sobre
los derechos fundamentales,
porque cuando empiezo por qué
utilizan inteligencia artificial,
tendrá que mirar a los impactos
sobre los derechos fundamentales
cuando digo cual la inteligencia
artificial,
cual herramienta, tendrá que mirar
la de derechos fundamentales,
y cuando digo cómo lo va
a desarrollar tendrá
que mirar el derecho fundamental
es así que le hago otras veces
claramente nadie quiere invertir 3
veces que la misma evaluación
y además la típica evaluación de
impacto en todos los sectores
no es lineal, sino es circular,
análisis de la situación,
identificación del impacto,
medidas de mitigación de
funcionamiento de la medida
de mitigación ese sí escolar.
Por eso, igual hay aguas donde
no funciona bien.
Cuáles son no los errores
que se pueden hacer
en la evaluación de impacto sobre
derechos fundamentales?
Los errores son típicamente
de convertirla
en algo que es diferente,
y típicamente,
la tentación muy fuerte de los
anticipos del sector.
También recalco lo de la nieve,
de datos y todos transformarla en
una herramienta matemática,
y eso tiene también digamos alguna
similitud con lo que pasa,
por ejemplo, en la CAM.
Tiene el sector financiero.
En el sector financiero se utiliza
una herramienta matemática
para destinar riesgo financiero,
digamos, pero aquí con los
derechos fundamentales.
El sistema no funciona muy bien
porque nosotros tenemos que mirar
a cuáles son los derechos
fundamentales,
y no ahora escoge enérgico, que
pasa, señor Lassalle, hacemos,
pasan cosas así; eso es un modelo
que se ha propuesto, es
un modelo numérica
que dice que desde el 1 por 100
al 35 por 100 en niveles bajo
de entre 35 a 70 en ello,
pero quien ha decidido que 35
porque 35 o 40 o no, 20 Ese
es el problema desde una perspectiva
de derechos fundamentales.
Una, un juez nunca entendería
por qué se ha adoptado
esta fórmulas.
Ese es el, la de las y la tabla
que va combinar los bares;
valores para decidir cuál
es la puntuación final.
También hay una fórmula
matemática de atrás,
de ESO que decide, por ejemplo,
de multiplicar las la gravita
con la aprobada ETA y dividirla.
Parados Por qué está claro?
Tenemos que utilizar
la olla jurídica?
Se quiere, es poner matemática.
Cada reglamento matemático
tiene que tener una justificación
jurídica;
seremos nosotros.
Si ustedes han dado enfrente
a un juez.
Con estas tablas, basándose
estatal y 6
no ha impacto sobre los derechos
fundamentales.
El hueso en mí era raro, dicen.
No me convence.
Esto no es la única que
vamos a aplicar.
Por eso la matriz es
aún más coherente.
Otro sistema es la lógica filosófica.
Esta representación lógica es
otro que sea publicado,
y ese sería el análisis del impacto
sobre los derechos fundamentales
con lógica formal, de
tipo filosófico.
Otra vez no hay web que se ha
acostumbrado a esta lógica,
se vaya a presentar en esta manera
que el impacto de mi proyecto
es muy bajo.
No funciona.
Por eso la matriz son la
solución más adecuada
y le hemos desarrollado también
en casos concreto
aquí en España con la autoridad de
protección de datos de Cataluña,
con esta guía, que utiliza también
a la misma lógica,
que se puede descargar ya esperando
que en algunos meses también
Doñana Europea vaya a terminar
el procedimiento de revisión
de adoptar digamos,
las directrices final
para investigación.
Bien, ese es un poco toda
la introducción
es muy expresivo, rica,
muy centradas,
o para la parte de investigación,
de evaluación de impacto
la llegue a ser una previsión
pragmática.
Claramente ustedes se quieren hablar
de inteligencia artificial
en varios sentidos prospectiva,
jurídicas.
No hay problema de las preguntas.
Podemos afrontar varios temas
impropias, gracias.
Muchas gracias
Alejandro Muchas gracias ha
sido un placer bueno
y ahora, antes de subir los
miembros de la mesa,
aunque después tenéis más
oportunidad de hacer preguntas.
Pero si alguien quiere hacer
alguna pregunta concreta,
algún observación, alguna duda
respecto de lo que el
profesor Alexandra
o anteayer ha estado diciendo,
nos ha estado contando.
A ver si no sé si se debe escuchar
quizá que llevamos.
Llevo el preocupan, verdad?
.
837
00:45:56,020 --> 00:45:56,480
Muchas gracias.
La verdad es que a mí me fin,
me ha gustado mucho,
pero cuando, en fin,
no quiero ser yo tampoco aquí
el que levante la baza,
no?
Pero cuando cuando hablan de
derechos fundamentales
realmente a cuáles se refieren, no?
Porque claro, europa tiene
sus derechos,
China tienen los suyos.
Entonces, cuando hablamos
de crear un programa
para proteger los derechos
fundamentales,
realmente en qué nos estamos basando
la declaración de los derechos,
cuales.
Gracias por la pregunta.
Hay 2 maneras para contestarla.
La primera es que claramente a nivel
de Unión Europea no se refiere más
a la Carta de Derechos Fundamentales
de la Unión Europea,
y eso también se adopta en el marco,
digamos de investigación
de colaboración internacional
para Unión Europea,
cuando tenemos proyectos
con otros países,
cuando invertimos en investigación
y proyectos en otros países,
1 de los requisitos que este
proyecto cumplen con la normativa europea
en cuanto a los derechos
fundamentales,
otra cosa es que eso sea efectiva y
de trabajar todos de electoral,
de exterior,
digamos de dónde vinieron
Europea y hay problema
para que sea efectivo,
porque se pone muchas veces una
contracto en el acuerdo,
pero nadie va a mirar cómo se
va a implementar de verdad,
pero digamos el marco de referencia
es el marco europeo
de los derechos fundamentales, pero
aquí en esta primera parte,
donde se hace la evaluación
del contexto,
ahí se tendría que hacer
la evaluación,
no solo de los derechos afectados.
Si no lo han hecho afectado teniendo
en cuenta del contexto,
porque como usted dice claramente,
estos derechos en algunos países
pueden tener algunas matices de
otros países sean diferentes.
Por eso digamos cuando van desde
arreglar un proyecto
que pueden afectar, sabrá el
derecho a la educación.
No sé claramente si ese proyecto
se desarrolla en España
se desarrolla en Polonia,
se desarrolla en Estados Unidos.
Hay que tener en cuenta
que el derecho de la educación
a nivel nacional
puede tener una estructura
con una diferencia.
Esto es parte de la evaluación
contextual que tú tienes que hacer.
Cuando empiece a hacerla
análisis de riesgo
de tener en cuenta el contexto
claramente usted hacía referencia a
China a claramente hay sectores.
Ubicamos países en lo
cual a la reducción
de los derechos fundamentales
más baja, muy baja.
En este caso, como he dicho antes,
expresar el marco europeo.
Nosotros tenemos que garantizar que
en nuestros proyectos europeos
se cumple con los derechos
fundamentales cosas diferentes
lo que se llama también es inglesa
no sé cómo externos.
En español, digamos.
Vernácula de ilusión, significa que
los derechos fundamentales
siempre están contextuales.
Se tú hablas de libertad
de expresión,
la libertad de expresión
en Italia, en Francia,
en España tendrá una pequeña
diferencia,
pero, claro, a nivel general
son muy alineadas,
eso es enfocar ese sitio que tenemos
que ser el proyecto.
Cuando vamos a evaluar
el impacto miramos,
digamos, un poco a nivel muy alto
a los derechos fundamentales
haciendo referencia al marco europeo.
Claramente puede pasar
que algunas aspectos
de la implementación de proyectos
son tan específico donde también
el marco nacional del
derecho fundamental
como se aplica, es relevante y
hay que tenerla en cuenta,
y puede pasar que teniendo
un proyecto que se error
y más de un país puede ser alguna
diferencia a nivel
de implementación, pero a lo de China
y lo de los países que no respetan
los derechos fundamentales
claramente no es un problema,
porque si no, respecto a los
derechos fundamentales
no nos no pueden desarrollarse
proyectos europeos
que va a encuentran los derechos
fundamentales.
Es claro.
Si ese bueno entonces esto sería más
para Europa no sería negar esto
sería entonces realmente
válido para Europa?
No, esto es válido por lo proyecto
financiado por Europa,
que no significa proyecto europeo.
Puede hacer un consorcio con la
Universitat de la América,
pueda ser un consorcio con
Universitat de Estados Unidos.
Ese es el marco de Doñana Europea,
pero proyecto que Europea financia
vale, vale, vale.
Entonces para Europa decir hablamos
de un programa para Europa,
no de todo lo que viene a ser la
intención de antisistema,
pero dentro del marco europeo,
dentro marco de la financiación
europea.
Vale, vale De acuerdo
No Pues nada claro todo las
del marco jurídico
no pero claro si ya entramos en el
tema fuerte no que implica,
por ejemplo, la inmigración, no
sabiendo cómo están los países
con con toda la historia, no.
Entonces, si la inteligencia
artificial
va a haber un derecho aquí
donde no lo haya,
lo mejor en Asia o en,
pues no sé igual.
Hay que revisar la forma
de puede comulgar,
no de hacer que este programa
sea aplicable
para todos los puntos del mundo,
no si, por ejemplo,
la referencia a la migración
es interesante
porque ayudaría a la herramienta
que de inteligencia artificial
que se aplican para detectar
la inmigración ilegales,
o también digamos,
para cuando se exime a los migrantes
ser solucionadas para detectarlas
acumularse a elementos se han creado
avatar que abran con el migrante,
todos claramente esta herramienta se
llega desde un país como Italia,
que tiene la política migratoria,
que existiera un marco bastante
severo, digamos,
o se va a desarrollar en
otro país de Europa,
que tiene como puede ser Alemania,
una política migratoria
más incluía claramente.
Hay que tener en cuenta el diferente
contexto del marco normativo,
pero digamos no puede decir
que ni detalle.
Tampoco Alemania tiene un marco
que sea encuentras
a los derechos fundamentales.
En relación a migraciones, hay un
alcance más o menos amplio
de la protección que se
pueda ser conocida,
y yo ahí tiene que mirar la todo
cuando va a desgranar
a diseñar por la infle un piloto
y 1 específico país.
Hay que tener en cuenta
el marco legal,
pero eso ya lo estamos haciendo
porque pasa lo mismo de protección
de datos, pasa lo mismo para
protección de animales,
toda la parte que digamos
que están bajo norma.
El proyecto de investigación
siempre se enviará también
a la norma nacional.
Se entendería que nombrar
hicieran algo normal.
Gracias.
Nada.
Alguna otra pregunta?
.
971
00:53:47,520 --> 00:53:51,480
Bueno, día profesor, le
quería preguntar
respecto a la evaluación, la guía
catalana que usted ha referido
al final de evaluación de
tecnología sanitaria.
Sabemos que una guía muy reciente yo
la he estado echando un vistazo,
porque está relacionado
un poco en este tema.
Estoy intentando hacer la tesis del
doctorado y quisiera saber
qué opinión le merece a usted,
porque me ha resultado
muy interesante que este parece que
ha colaborado en esa mesa.
Guía no de evaluación, de tener
de tecnología sanitaria.
Nosotros aquí en Europa ahora mismo
tenemos un reglamento que se supone
que directa aplicación,
pero aquí en España,
a través de una sentencia que
declaró la Audiencia Nacional,
hay un vacío legal.
Ahora mismo hay un proyecto
de real decreto en evaluación
de tecnologías sanitarias
que se encuentra en trámite
de audiencia.
No se ha publicado todavía está
pendiente de hacerse
ese real decreto sobre evaluación
de tecnologías sanitarias,
donde el aspecto de la ética
sería clave a la hora
de desarrollarlo,
porque en el Reglamento europeo
nada más que se señala.
No, no se profundiza para nada.
Sin embargo, en la guía catalana
vamos no lo he hecho yo a fondo.
Quiero estudiar a fondo
y me gustaría que me dijera usted el
alcance que piensa que esa guía,
que la veo muy completa y la verdad,
muy muy útil para para esa evaluación
qué opinión le merece y que ha
tenido obtener esa elaboración
de la guía respecto a la ética.
Gracias.
Gracias.
Muchas gracias la guía
esta guía, que es la que está
la última, donde está.
Es esa pasa la raya.
Es una guía adoptada por la
autoridad de protección de datos,
para la autoridad de protección
de datos.
No tiene competencia en tema ético,
sino solamente protección de datos
y bajo protección de datos en
virtud del artículo 35
del Reglamento General de Protección
de Datos de la Unión Europea,
también sobre los derechos
fundamentales.
Por eso se ha impulsado todo este
trabajo que ah dura, to año
y ha terminado todo al final
al principio de ese año,
sino el año pasado.
Me acuerdo con la adopción
de este documento
en ese sentido digamos no no
toca el tema ético ico
como no lo toca Herría
estoy de acuerdo,
y por eso a nivel europeo
la directora general ha introducido
una tipo de trabajo específico,
un grupo de trabajo específico
sobra marco ético,
por indemnizar artificial.
Yo conozco lo que han trabajado
sobre este tema,
no conozco el resultado
porque, como lo mismo pasa
por mi parte digamos,
tan bajo supervisión final, digamos,
y hemos trabajado de manera separada
porque ya sea una ética y hacia
eso es fundamental,
pero a son.
Fueron 3 los expertos que se fueran
seleccionado por el decreto grato
para definir esta marco ético
a nivel europeo.
La herramienta catalana no
se ocupan de derechos,
departamento de ética,
si no solamente derechos
fundamentales,
claramente siendo la persona
que la creativa,
la misma que hace parches
para la europea,
siguen la misma lógica.
Así tienen la guía.
Se encuentran muchas cosas que
están bien están en el marco
de Comisión Europea.
La diferencia es que en el documento
que enviada a Bruselas
es un poco más amplio porque tiene
una parado más específico en relación
a los derechos fundamentales,
porque el problema
es que la investigación no conoce
los derechos fundamentales,
así hay una parada donde hay los
barrios, derechos y casos
muy algunas líneas que te dicen
cómo podría una aplicación.
De ahí está relacionada de manera
negativa a este derecho.
No se dedicó derecho a la
libertad de expresión,
por ejemplo, una inteligencia
artificial
que se utiliza para moderar
los contenidos online,
y eso claramente puede crear
problemas de limitación
de los derechos a la libertad
de expresión.
Así que una investigación que
no tiene muchas ideas
de cuáles son los derechos
fundamentales miran de esta tabla,
pueden entender un poquito
más dónde ir, buscando,
y también era otra tabla que
relación a los derechos fundamentales,
algunas herramienta técnica
que se utilizan.
El desarrollo, inteligencia
artificial,
digamos, es un poco más
rico como documento
por toda esa parados más técnico
que se han añadido,
pero la parte de la orgía de
evaluación en la misma
y digamos de momento a nivel
europeo de modelos
hay este el modelo de, del
Ministerio de Interior de Holanda,
que he mencionado antes way y agua,
el modelo de Consejo de Europa;
ahí he trabajado en el Consejo
de Europa con el comité
por Internet artificial, este modelo
también lo discutimos en el comité
y después se consigue otro
observatorio apetecido
de externalizar no digamos
a la aventura instituto,
pero ese modelo, que tienen límites,
límites principal,
que demasiado de alto nivel se usted
lo va a mirar porque se puede
descartar, se llamó diaria.
Si se descarta eludir, ya vendrá que
se dice desde el principio.
Estos son algunos criterios que
tienen que mirar muy similares
a lo que tenemos nosotros, pero
no sé cómo combinarlos.
Tú sabes cuáles son los criterios,
no las grandes cruzar el
nivel de impacto,
no lo va a sacar ocular, y además
dice la metodología
para combinar los criterios
se han decidido a nivel
de cada país.
Claro, eso a nivel de herramienta,
de política funciona bien,
María del práctico.
Con esta herramienta se quiere
aplicar a un proyecto concreto,
no aplica nada, no funciona.
Por eso, digamos época alternativas
o no pocas.
Hay otras alternativas más ética,
pero otra vez no hay mucho
de metodología.
Muchas gracias.
Bueno, una última pregunta,
antes de pasar a la Mesa.
Hola.
Buenos días, Catal.
Yo le quería preguntar cómo
abordar el problema.
Usted ha hablado de derechos
fundamentales
y ha hablado también del tema
de la Unión Europea,
del marco jurídico.
Cómo abordar el problema
en una Europa
con tantas discrepancias ideológicas
donde se está produciendo
alteraciones,
probablemente en lo tocante a
los derechos fundamentales,
a nivel de la praxis,
cómo abordar eso,
y cuando hablamos de derecho
fundamental
en la línea de esta pregunta
no cree usted que incluso
el marco jurídico,
de alguna manera que alguna
garantía de estabilidad,
evidentemente, pero que
debería basarse
en una ética que emana de una
un nivel más profundo,
es decir, de un acuerdo
o una especie de vamos a decirlo,
un acuerdo más o menos global,
universal para poder generar
una cierta universidad
o darle un cierto rango de
universalidad al problema
de la ética en la, la inteligencia
artificial.
Eso por un lado.
Bueno, no hay está englobada
las 2 preguntas gracias
muchas gracias
si el tema es relevante importante
yo creo que hay
que contextualizar un poco,
pero el ejercicio
los que nos hacemos una evaluación
por parte de un investigador,
de una propuesta de un proyecto en
un marco de fases Qué significa
Significa?
Que no podemos pedir a este
investigador o grupo
de investigación que se convierta en
una jueza que basa a evaluar casos
de derechos fundamentales.
Digamos, el salto assessment,
como en muchos otros sectores, está
bajo de la evaluación perfecta
y cumplida del problema.
Cuando hago una autoevaluación,
la hago en el sentido
de reducir lo que se pueda,
los impactos.
No podemos pedir al investigador
el mismo nivel de detalle.
El mismo nivel de conocimiento que
puede tener un juez experto
en derechos fundamentales no es la
Corte de los derechos humanos,
son investigadores.
La idea es que el investigador pueda
entender que hay un problema
por la duda e intentar mitigar
ese es un poco después,
porque lo digo porque
en el marco europeo
no se tapar a todo con el Sahel.
Fase de ESMA, porque ha implorado
hoy esta tarde
y estar en un comité de valoración
ética de los proyectos,
y así donde hay expertos que van
a evaluar serles fases.
Se ha hecho bien, se ha hecho mal.
Si hay cosa que no se han incluido,
no se han considerado,
y después de esta evaluación
vamos a salir a decir a la al
investigador que quiere,
que necesita cambiar.
Si lo investiga el tono no le
entienden, lo hace bien.
Habrá otra evaluación con
un panel específico
por su proyecto.
Hasta al caso más grave
que investiga actor no cumple
con el derecho fundamental.
No se proporciona la financiación.
Por eso, eso para decir
que esta parte
del ser fases en la parte inicial
de un procedimiento más amplio
y por eso no puede, no es necesario
tener un nivel tan elevado,
digamos de análisis de riesgo a
nivel jurídico que tenga en cuenta
toda la diferencia, toda la
parte más específica
en más de detalle de los derechos
fundamentales.
Eso primero, segundo.
El marco de los derechos
fundamentales,
aun con diferencias nacional,
pretende ser un marco universal,
digamos, hay diferencia,
pero los derechos, la parte básica
del derecho siempre
es la misma y, tercero, el marco
de los derechos fundamentales.
Se basa sobre la ética,
pero no es ética.
Ese es un punto importante porque
muchas equivocación,
empezando con la eleve del grupo
artificialmente al I más
D Comisión Europea, mucho
que sea barato,
porque se han presentado
los derechos humanos
como principios éticos.
No, no es correcto porque Viesgo
es que este derecho
no se entienda como funcionan
de verdad,
porque claramente son resultado de
una interpretación jurídica
de una aplicación por los tribunales,
y todos los principios éticos sigue
un patrono, un poco distinto.
Son más de la población filosófica
y todo o del comité de ética.
Por eso digamos, aunque se
llama evaluación ética,
es parte de la evaluación ética,
esos son principios jurídicos
y por eso para entenderlo bien hay
que mirar a la estructura jurídica,
a la decisión de los tribunales, y
todos yo creo que está idealmente,
es decir, se ha de tener distintas
las 2 partes.
La evaluación ética de la
inteligencia artificial
y la valoración jurídica
es muy importante,
porque yo puedo tener un proyecto
que no impacta
sobre los derechos fundamentales,
pero ese es un proyecto muy invasivo,
un sistema de smart cities
muy invasiva,
que transforma la ciudad en algo
que está muy controlado,
por herramienta algoritmo
muy controlado,
muy centralizado.
Eso no tiene que ser, encuentran
los derechos fundamentales,
pero nos proporciona un marco
social que Qué específico
y que la las personas de esta
ciudad pueden decidir
que no, no es el marco que quieran,
y ese es un tema de impactos
sociales,
impacto ético,
pero a nivel de derechos
fundamentales
puede ser que no haya ningún
problema de violación
de derechos fundamentales.
Por eso los 2 tienen que ser
distintos complementaria
y distintos.
Muchas gracias.
Bien, pues tendréis más o más opción
de hacer preguntas, luego al final,
pero ahora se incorporan
a la Mesa José Palma,
José Tomás Palma, que es coordinador
de investigación de la Universidad
de Murcia;
se incorporan también Ramón García,
que es coordinador del programa
en historia María Sicilia
-Piñero coordinadora del
programa de Ciencias
de la empresa y Elisa Palacios,
coordinadora del programa de Física.
Ellos nos van a dar un
poco su opinión
desde los distintos programas
de doctorado,
cómo se ven estas implicaciones
éticas
y, bueno, pues van a ir más a
las cuestiones concretas
que a vosotros atañen no de
vuestros, de vuestros,
del desarrollo de nuestra
tesis doctoral.
Muchas gracias a un grupo tan tan,
tan interesante iniciativa,
y que espero que muchos
de los investigadores
que hay aquí que está iniciando
cara a investigación, no,
pero hay al pedir un proyecto
para hacer un análisis
de lo de las implicaciones
de la investigación,
que estáis pensando para,
de alguna forma,
adaptar hoy anticipar hoja a la
reglamentación que se está creando
y que en el futuro y en el presente
tenía que cumplir el objetivo.
Ahora es ya no solo abordar
estos aspectos éticos
y un poco basados en
la reglamentación
de las aplicaciones y la
investigación, la guía,
sino también ver el impacto que está
teniendo la guía en distintas áreas
y en distinto doctorado.
Para ello están aquí compañeros que
son coordinadores de programa
de doctorado, que van a dar su
visión de cómo está impactando
la interinidad inicial
en la investigación
que se está desarrollando en sus
años y qué retos está poniendo,
que están intentando afrontar
en su investigación.
Para ello tiene la palabra
Elisa Palazón,
coordinadora de Palacio;
Perdón; Palacios,
coordinadora del programa de Física
en materia condensada y una noción
señor Pezzi advertía buenos
días yo tengo buena voz
bien yo soy la coordinadora de
digamos del programa de doctorado,
de física, donde tenemos que decir
que la inteligencia artificial
juega un papel muy importante.
Nosotros le damos un uso muy amplio
y en esta charla la verdad es
que justo el punto ético
es que es el que yo creo que tenemos
un poco más marginado,
porque nosotros no trabajamos
con la gran mayoría,
ni animales ni personas ni, o sea,
por si las muestras tampoco
tienen tanto sesgo,
entonces como que lo de derechos
fundamentales siempre lo dejamos
cuando hay que rellenar ese apartado
es como a ver qué pongo,
pero sí que es cierto y a mí me
has hecho reflexionar mucho
en que os ha vamos a ver
cualquier físico,
y yo creo que se puede extrapolar a
química o incluso a bioquímica,
biofísica o ramas.
Así más, biosanitarias.
Somos conscientes que a lo
largo de la historia
nuestros descubrimientos aunque a
corto plazo siempre pensamos
que esto no vale para nada, pero
en realidad a largo plazo
cambian el mundo y sabemos que pueden
ser lo mejor y lo peor a la vez,
o sea cualquiera de nuestros
descubrimientos.
Si se les da un buen uso para
ayudar a salvar vidas,
van a mejorar la calidad de vida
y si se les da un mal uso
van a convertir, se van a destruir.
Todo.
Vamos a poder.
Tenemos ejemplos muy claros.
La energía nuclear los láseres,
los cualquier cosa,
entonces siempre te queda.
La esto de que hago lo descubro
o no lo descubro,
pero es cierto que en el día
a día nosotros ese aspecto
como que el conocimiento es
conocimiento y además yo creo
que en general cualquier científico
piensa que el conocimiento
tiene que ser de todos
hay que compartirlo.
Entonces, claro, si tú lo
comparte es, pues hace.
Es que el uso que luego se le dé sea
muy variable para nosotros,
justo además la semana pasada
ha estado en el Congreso
y hemos hablado mucho de la
inteligencia artificial
y que la usa situ, que tal
y y aquí como Podemos,
ahí dentro grupito, para
si es verdad,
hemos Por qué Porque para nosotros
es una herramienta fundamental,
sobre todo porque ganamos tiempo,
se ha escapado de ayudarnos a ganar
tiempo de una forma escandalosa,
sea yo.
Estoy sorprendida.
La productividad, cómo ha aumentado
mi productividad
gracias a la inteligencia
artificial y así puedo,
o sea, lo que sí que creo es que
hay que darle un buen uso,
no tiene que ayudar que
no hacer tu trabajo
porque en sí sí la inteligencia
artificial
puede hacer tu trabajo.
Entonces tú ya no eres necesarios,
eso está claro,
no va a ser más barato, vale?
Entonces sí que yo creo que
sobre todo es útil
y yo soy muy partidaria de usarla,
análisis de imágenes,
procesamiento de datos, te
ayuda en la burocracia,
es, pero vamos a ver, es cómo
otro gran descubrimiento,
pues como cuando se inventó
la calculadora
o cuando se inventaron los
ordenadores sea fue lo que pasa,
que yo creo que lo que nos atribuya
de la inteligencia artificial,
en la velocidad con la que es
capaz de generar datos,
o sea, siempre necesita su
proceso de asimilación,
y yo creo que en estos momentos
la inteligencia artificial
va muy rápido, igual a veces nos
gana en la capacidad de asimilación,
pero vamos,
yo en general creo que por lo
menos en nuestro campo,
en el campo de Física, Ciencias,
valer en general,
es una herramienta muy útil.
Es una herramienta que debemos usar,
que debemos usar con cabeza,
pero como todo me refiero igual
probablemente muchas de las cosas
que va a descubrir la inteligencia
artificial
o que nos va a ayudar a descubrir,
se descubrirían igual,
lo que pasa que mucho más tarde
o con mucho más esfuerzo
o con muchos más recursos,
pero se van a descubrir.
Igual entonces no es una cuestión
de se descubre,
no se descubre si no, que hay, que
luego el uso que se va a hacer,
de que se va a hacer.
De eso yo tenía una preguntita
para ti a ver,
efectivamente en el marco
de la Unión Europea
hay es un marco muy estricto donde
los derechos fundamentales,
la ética,
es fundamental porque
afortunadamente vivimos en una sociedad
razonablemente democrática,
razonablemente justa,
pero a mí siempre me ha generado
un poco de conflicto,
es decir, verdad?
Yo he sentido en los proyectos de la
Unión Europea que muchas veces,
como que coacciona un poco, porque
no puedes hacer cosas
porque quizás efectivamente podrían
llegar a ir contra los derechos
fundamentales, pero luego me
pregunto y digo si en China en muchos sitios
realmente se lleva a cabo
esa investigación.
Luego, si ellos te atacan con eso,
igual los derechos atacan tus
derechos fundamentales,
mucho más de lo que tú los de lo que
tú lo sabría, se ha atacado,
y yo no sé si es conveniente también
desarrollar esos proyectos,
aunque luego no se usen,
aunque haya que legislarlo
de una forma diferente,
aunque obviamente hay que tener
mucho cuidado con eso,
pero no hacerlo no sé si real, o sea,
es algo que a mí me genera
un poco de conflicto,
o sea, no tengo una respuesta
para eso
y me gustaría conocer tu opinión
más profesional al respecto.
Muchas gracias por esta pregunta
y también lo que dije antes,
que los físicos o químicos
claramente están menos relacionándola
derechos fundamentales, pero
depende porque hay menos,
pero algunas cosas hay,
por ejemplo un proyecto de
inteligencia artificial
puede ser utilizado en un
procedimiento químico o físico
que puede producir daños
al medio ambiente
o de años a los investigadores, y eso
también son derechos que tenemos
que mirar claramente.
No tienen un alcance de derechos
fundamentales,
como los proyectos sociales.
Claramente reaccionado.
Tu pregunta es un tema muy actual,
muy debatido también en el pasado.
Nosotros no hacemos algunas clases
de investigación porque consideramos
que no está alineado con el marco
ético y jurídico europeo,
y otros lo hacen un ejemplo
claro, es mío,
derechos de derecho en toda la
parte de la no ni humanos,
y todos sin han hechos que son,
encuentra al principio ético ser
europeos, y ahí investiga todas
las que se hagan allí por hacer
I más D en un mundo global.
Es muy difícil, digamos, poner
barreras claramente,
y hay un problema que, por
ejemplo en China,
entrega a la inteligencia artificial
sobre los datos de los chinos,
sin proteger sus derechos
a los datos personales
y o peor otros, libertades, y
claramente esta herramienta
de inteligencia artificial.
Después vuelve a Europa muy barata
y también de manera que no cumple
con los derechos fundamentales.
Aquí hay 2 problemas.
Primero es
no es un programa primera, es
la perspectiva europea.
Si tú quieres en algunos valores
tienen que ser coherente
con estos valores,
y ese es el debate que tenemos
en este momento exactamente
con independencia artificial.
Regular no, regular, suavizar y
todos y a los encuentra una otra solución
claramente siendo de derechos
humanos fundamentales.
Prefiero vehicular y controlar
que no haya impacto sobre
los derechos,
pero al final lo que tiene
que ser claro
es que la decisión política
Unión Europea,
decide de de regular,
de hacer como es estatus nitroso
como China puede hacerlo,
pero tiene que ser una
decisión política.
Los tratados europeos quieren
decidir qué quieren
un Estado controlador como China.
El año que viene algo el metro,
que pasa bajo el río amarillo
el año que viene es un caso de la
que me he pasado muchos años
atrás el año que viene el metro está
y ni talla para hacer una línea
de meterse en pasado 10 años,
porque ha de ser impacto
medioambiental,
valoración artística, y todo
eso ello pasa en ella,
está y es su manera diferente
de vivir en el mundo.
Yo creo que eso es un problema.
Gloriam.
Señala Europea creer.
Algunos valores.
Ha creado cartas fundamentales,
ha creado marcos éticos
y todos tiene que seguir esta.
Esta directriz,
aunque deba costar digamos, se
ven también los beneficios,
porque, claro, el problema de
la competición, de todos,
pero por otro lado sitúa esa mira
como vivimos en Europa,
nosotros lo que pasa.
En estatus Unidos, lo
que pase en China,
lo que pasa en algunos países
no lo sufrimos los derechos
del estudiantes, los derechos de la
investigadora sabrá respetado.
No te pasa como ahora que
un presidente te dice
que no tendrán dinero
porque no le gusta.
Digamos, hay un traidor.
No se puede tener todos la
protección de los derechos tienen ventajas
y nosotros podemos investigar.
Pues deben llegar de manera libre,
no tenemos el Estado
que nos controle todo,
pero tiene límites.
También tú te vas en China
les trató de dar dinero
para poder hacer la investigación
que quieren Estado,
como quieren mezclar no es
exactamente la misma cosa,
pero no hay no hay una respuesta,
digamos en una respuesta política.
Si Europa quiere tener un marco
europeo que al final
es su identidad su identidad.
Esa es la vía.
Si no digamos que identitario
europea,
es diferente que no nos reconocemos
en lo de antes, en
la Carta de Derechos Fundamentales,
los principios éticos
y todos que para nosotros es
el beneficio económico.
La eficiencia son las cosas
más importante
y por eso podemos sacrificar a todos.
Es una solución que se puede hacer
para ser una decisión política.
Muchas gracias, Alejandro.
Muchas gracias, Elisa tiene
la palabra el coordinador
del programa de historia geografía
e historia del arte
Ramón García.
Ahora así ahora Muchas gracias.
Bien, buenos días a todos.
Muchas gracias por la invitación
para estar en esta mesa.
Excelente ponencia del profesor
Abel Sandro.
Yo voy a compartir con ustedes un
ejercicio que hice este fin
de semana a propósito del tema
que estamos tratando.
Muchos de vosotros o de
ustedes conocéis una,
hay muchas herramientas,
no yo utilice el ICI,
la herramienta del ICI que bueno,
como aquí se ha dicho,
pues te ofrece una agilidad tremenda
para analizar una serie de textos
o que ya se han publicado.
Entonces, es en este programita,
introduce lo que a ti te interesan
y le puede pedir
que, bueno, que te diga que saquen
alguna respuesta, no ventajas,
comparar que te comparen
metodologías,
puede decirle qué implicación
política puede tener
ese IPC, etcétera,
y metiendo una gran cantidad
de textos.
Hice un ejercicio muy simple para
la rama de Artes y Humanidades,
incluso de la ciencia social,
y en la que nosotros trabajamos en
nuestro programa de doctorado,
y a raíz de eso, de esos textos,
hice un una síntesis y un análisis DAFO,
un breve análisis DAFO
para ver respuestas
une a eso, texto, no.
Entonces, desde el punto de
vista de las humanidades
y las ciencias sociales, yo tengo
aquí una serie de datos
que aparecían de forma común
en ese aspecto.
Por ejemplo, debilidades.
Vamos a empezar por las debilidades
de la inteligencia artificial
en ese, en esa rama no,
o no dice como aquí
ya se ha hablado por el
profesor de Sandro,
que una debilidad
es la descontextualización
del conocimiento;
es decir, la guía puede interpretar
datos sin comprender
lo matice culturales, históricos
o semióticos propios
de la de las humanidades y
de la ciencia social;
otra debilidad que aparece
de forma común.
La falta de formación técnica
en los investigadores de esta rama
de humanidades y ciencias sociales,
sobre todo para aplicar,
evaluar o interpretar
por renta correctamente;
los resultados.
Otra debilidad;
dependencia de herramientas opacas.
Aquí también se ha dicho;
o limitaciones en la interpretación
cualitativa por ejemplo.
La inteligencia artificial
aún no puede sustituir al
juicio crítico humano,
necesario en la interpretación
de significado simbólico
y fenómenos sociales,
complejo amenazas.
Por eso aparecía de forma común
que existe un reforzamiento de seco,
cultural y lingüístico,
es decir,
muchos modelo de inteligencia
artificial.
Están entrenados en dato,
mayoritariamente anglosajones,
o eurocéntrico.
Lo que puede invisibilizar
perspectiva más diversas.
Otra amenaza, la privatización del
conocimiento y herramientas,
es decir, herramientas de
inteligencia artificial,
propietarias pueden limitar
el acceso abierto,
la reproducida e incluso la
soberanía científica
y otra amenaza que aparecía bastante
en bastantes ocasiones era,
son lo que aquí se ha dicho, riesgos
éticos y de privacidad,
sobre todo en investigaciones
que analizan dato personal
que son muy comunes en historia
redes sociales entrevista imágenes etcétera
bien como fortalezas aparecían las
siguientes pues capacidad
para procesar grandes volúmenes de
dato cualitativo y cuantitativo
de curso y Mazn datos culturales;
se utiliza mucho en historia,
historia del arte, apertura nueva,
metodología de investigación,
enfoque computacionales,
sobre todo que se complementan con
los métodos tradicionales,
mejora de la eficiencia y la
precisión del análisis,
porque auto se automatizan tarea
como la codificación
entrevista la transcripción
de electos
o la revisión, bibliográfica,
optimizando los tiempos
y luego otra fortaleza que no
decía era la accesibilidad,
fuente histórica y cultural
digitalizada.
Esto nos permite analizar archivo
digitalizado de manera mucha más,
mucho más exhaustiva y rigurosa,
y luego como oportunidades,
pues no, no decían lo siguiente.
Innovación metodológica e
interdisciplinariedad
es decir fomentar la colaboración
entre científicos sociales humanista
informático estadístico etcétera
eso viene muy bien mayor alcance y
democratización del conocimiento
La inteligencia artificial,
por ejemplo,
puede facilitar el acceso a
resultados de investigación complejo
y además promover su comprensión
en público, no especializados,
desarrollo de herramientas digitales
y específica para Humanidades,
y Ciencias Sociales, por ejemplo,
el aumento del interés
en crear soluciones de inteligencia
artificial,
adaptadas a la necesidad de
la humanidad digitales;
o la evaluación de fenómenos
sociales emergente,
la inteligencia artificial,
por ejemplo,
permite el análisis casi en tiempo
real de dinámica social
en red de discurso político
fenómeno cultural etcétera bueno
hay muchísimas más cosas
pero como somos mucho en la mesa,
para finalizar, bueno,
decir que también era común
encontrar en los autores una una reflexión
y en este caso esa reflexión
podría ser la siguiente.
La futura línea de investigación
en humanidades
con inteligencia artificial no solo
responden a la tecnología,
es decir,
la interroga, la transforman, le
ofrecen mundo alternativo
en lugar de adaptar las
humanidades a la vía.
Muchas propuestas apuntan a reformar
la guía desde las humanidades
con un foco en el contexto.
Como aquí se ha dicho en la
historia, en la subjetividad
y además, en la imaginación.
Muchas gracias.
Por parte del programa de doctorado,
ciencia, la empresa tenemos la
profesora María Sevilla
-Piñero es un placer estar aquí
en nuestra área, en empresa,
en economía también como
su representante
en Ciencias Sociales y Jurídicas.
También presentó comunicación
Educación
en todas estas áreas.
Yo creo que a nosotros la
inteligencia artificial,
como ha dicho mi compañera, también
es física, que es curioso,
pero coincidimos en algunas cosas,
no está ayudando realmente
a ser muchísimo más productivos.
Hay tareas que antes no llevaba
muchísimo tiempo,
como la de revisar un texto en
inglés ayudarnos con una traducción.
Yo particularmente soy una persona
adictivo directamente en inglés,
pero siempre oportuno eres
un antiguo en inglés,
no somos nativo en ninguno de
los alguno a lo mejor sí;
pero nosotros no hemos nacido,
no nos hemos criado entonces
hay matices que se nos escapa, y ahí
la inteligencia artificial,
pues es una ayuda diaria para
los que normalmente
leemos suscribimos casi
todo en inglés.
Además, en ciencias sociales
nos ayuda mucho
la inteligencia artificial.
O está ayudando con un campo con
el que la parte matemática,
que a veces nosotros podíamos
estar un poco más perdidos,
estadística Pues puedes echar mano
de la herramienta de la guía
para si te da un fallo.
Por ejemplo, un software adictivo
que utilizaba mucho como leer,
pues donde nos hemos atrancado,
por qué estamos fallando?
Nos echa una mano para decirnos hoy
el problema está allí; revisa esto
y algo en lo que antes a lo mejor
podíamos perder 24 Horas dándole
vueltas con el error, error error,
y no sabías cómo solucionar el
problema tenía que echar mano
de compañeros y demás.
Pues ahora simplemente ponerse
el código de error
y te dice.
Oye, mira revisar esto,
que el problema está aquí y entonces
nos ayude a ser mucho más ágiles,
mucho más rápidos.
También hay software específicos que
nos ayudan a la descarga de datos
para luego poder analizarlos o
no solamente en la descarga
de datos, por ejemplo,
de redes sociales
o de reseñar sobre obligaciones.
Reseñar sobre hoteles, descarga
de bullying,
por ejemplo de tipo va y sol;
tenemos una cantidad de datos ingente
que han destinado que recurrir
a codificadores externos,
manuales que normalmente eran
estudiantes de doctorado,
que nos echaban una mano en esa
modificación de esa información,
y ahora parte de esa modificación se
puede hacer de manera automática,
con lo que no desaparece la manual,
pero que sí que ayuda
mucho en el inicio
en la descarga automatizar,
proceso que antes se hacía
de manera manual.
También puede dar ideas de algún
análisis estadístico
que no se te ha ocurrido,
que se pueda utilizar,
pero al margen de toda esta ayuda yo
con la idea que quería que se quedara
a la audiencia en mente es
con que la herramienta,
las herramientas de inteligencia
artificial deben usarse siempre
como un soporte, como una ayuda,
pero nunca hay que perder
la perspectiva
de que somos nosotros.
Los autores de ese trabajo.
Somos nosotros.
Los que firmamos el trabajo no es
ninguna herramienta de ella.
Somos nosotros los que tenemos
que revisar quién resultado
a la ayuda que le hemos
pedido a la guía?
Es correcto?
Somos nosotros, los que tenemos
que leer, los ves,
sobre todo, en la etapa inicial en
la que se encuentra mucha parte
de la audiencia, que es la
realización de su tesis doctoral.
Solamente vais a hacer la mayoría
de vosotros una tesis doctoral.
Solamente tenéis estos
3 o 4 años para lee
y, para empaparnos de
ese conocimiento
o de esa idea de si es que tenéis
más allá de ese tiempo,
luego llegan otras cosas, llegan
obligaciones docentes,
llegan obligaciones de gestión
y ese momento que tenéis
para disfrutar del proceso,
para leer,
para aprender, para generar
ese pensamiento crítico.
Este es el momento y, entonces,
no tenéis que dejar
que esas herramientas impidan
que ese pensamiento crítico
se desarrolle en vosotros,
tenéis que utilizarlas
como una herramienta de ayuda,
no de creación,
no de generación.
Yo creo que esa es el mensaje clave
que a mí me gustaría enviar
a esa audiencia y luego tenía
también una pregunta para el ex Sandro,
porque es verdad que nosotros
como investigadores
conocemos la mejor mejor
la parte técnica,
pero esta parte hay algo en lo que
nosotros estemos trabajando
en ciencias sociales que pueda
y está dando la vuelta mente
a toda la presentación de Alexandra,
no daba que pueda tener efecto en
los derechos fundamentales
para los que trabajamos en economía
o ciencias sociales.
Más allá de que nosotros damos el
dato a nivel agregado y buenos,
hacemos análisis.
No se me ocurría,
como normalmente utilizamos los
datos a nivel agregado,
digo si nosotros los
datos individuales
de si esa persona es hombre
o mujer el género,
con el que se identificó
al que pertenecen,
no nos vamos a utilizar
nunca para nada.
Realmente no se me ocurre,
pero no sé me imagino
que que 1 tenga formación jurídica,
pero no sé si en proyectos
de investigación
del ámbito económico empresarial,
si se desarrolle alguna aplicación
hecha con inteligencia artificial,
pues seguramente sí;
pero si lo utilizamos para ser más
productivos, que es el principal uso
que se le da en nuestro ámbito, la
descarga o el análisis de datos
son la redacción o en la búsqueda
de información
no sé qué tipo de derechos
fundamentales
suelen verse en nuestro
ámbito más afectados,
y si no pueden poner algún ejemplo.
Gracias.
Gracias.
Digamos que cuando hablamos de
inteligencia artificial
hablamos de varios, su utilización
es claramente la utilización
que sirven solo para ayer
y dar unas procedimiento también
de investigación,
no solo que preocupan
a nivel de impacto
sobre los derechos fundamentales.
Los que preocupa es cuando de
herramienta de 30 de inicial
quieren tiene una repercusión,
digamos sobradamente entorno social,
así que también en economía o gestión
puede pasar que yo voy a
crear, por ejemplo,
una herramienta para destinar
recursos públicos,
para proporcionar ayudas con
prioridad diferentes a personas
que van a pedir ayudas públicas por
cuestiones económicas cívicamente
y para análisis masivas de miles
y miles de solicitud
voy a crear una herramienta
de de división.
Esa herramienta hace una tarea que
es de gestión económica de todo,
pero puede tener sesgo.
Puede tener problemas en este caso.
Yo me pongo a analizar los
problemas, digamos,
desde la perspectiva del
derecho fundamental.
Por otra parte, se solo una
inteligencia artificial
que me ayuda a revisar la traducción
a todos esos de funcionamiento.
La única cosa que quiero
un poco subrayar,
que está alineado, creo
que hubiese antes,
es que hay que tener en
cuenta los costes,
esta herramientas, los
investigadores que utilizan también una herramienta
para dar traducción.
Por ejemplo, tiene que revisar
la traducción,
porque se equivocan estructuralmente,
se equivocan las alucinaciones;
son parte de ese sistemas
y por eso también, como decía tú a
el problema de exceso de confianza
en esta herramienta, y también hay
un problema metodológico.
Yo creo porque tu deseo,
honestamente,
hay que leer cuando se investiga.
Si ahora muchos utilizan.
Es realmente interesante el inicial.
Para resumir.
Yo conozco este país
que conozco erres;
comer resumen que me ha
proporcionado de intervención inicial
primero resumen puede ser equivocado
segundo en resumen
como en España para desde pequeño
en detalle te hace hacer resumen del
libro que tienen de veranos.
Pero es el turno leído.
El libro toda la parte de aprehender,
la estructura, la oiré, tanto
la tela pierdes.
Así que digo eso me preocupa mucho
porque también investigadores
también a nivel de doctorados
hay varios que ahora dicen.
Diera resumen de estos y
hacer la evaluación.
La análisis electoral dure.
En esta manera tiraba
trabas o resumen.
Extremar su papel es ese, es un
punto bastante importante.
Tiene la palabra el profesor
Sebastián Cánovas,
coordinador del programa de
doctorado en biología y tecnología
de la salud reproductiva.
Bueno, muchas gracias.
Lo ha dejado al final porque o
el más crítico en Chipre,
de de ética por la, por
la oportunidad
de participar a los organizadores
si, tal y como como ya adelanta
el profesor Palma,
nuestro programa de Biología y
tecnología de la reproducción.
Claro, lo aspecto ético
-legales siempre han sido
muy importante.
Incluso cuando la guía no existía
firma nos daban muchas complicaciones
y mucho periodo de reflexión,
mucha autorizaciones
y, claro, con este nuevo avance,
pues todavía se nos plantean
cuestiones más relevantes.
Por ser breve,
voy a dirigir mi intervención
en un punto muy concreto,
pero nosotros trabajamos en el
entorno de el uso de técnicas
de reproducción asistida,
fecundación in vitro producción
de embriones por resumir mucho,
donde pueden ser de origen humano
o de origen de distintas
especies animales,
y aunque lo hagamos siempre en el
contexto de la investigación,
no debemos olvidarnos
que muchas veces
las decisiones a futuro que se
toman a nivel de políticas
están basada en resultados de
investigación que hemos generado
y que intentamos que sean útiles
para la sociedad.
Respondan a los nuevos retos que
se nos plantea, más aún
no en esta política de o pensar ya
no ciencia abierta donde
los CIE la ciudadanía,
incluso tiene que intervenir.
Entonces, en esa, en esa situación,
más desde el punto de vista,
como coordinador del programa de
doctorado y de un proyecto,
proyecto europeo de red doctoral
que acabamos de presentar,
el viernes pasado,
lo los resultados del primer
año a los representantes
de la Unión Europea, me he visto
totalmente representado
en la intervención del
profesor mantener,
o cuando hablaba de que los
investigadores no conocemos
los derechos fundamentales,
especialmente la parte ética,
pues tenemos más, va a gravar un
poquito más de trayectoria,
tenemos apoyo de los comités
de ética bioética.
Pero no enfrentamos, a
ese es a 6 megas.
Llevaba toda la acción de forma
bastante de protegido.
Podemos no buscar herramientas y
está un poco más en otro caso.
Por ejemplo, en el proyecto
que tenemos,
que lo que viene a analizar es
consecuencias y efectos
que puede tener el uso
de esta técnica
de reproducción asistida en los
individuos que se genera
y qué impacto tienen en, por ejemplo,
la persona nacida por esta
técnica a largo plazo?
Cuando tienen 30 o 40 años
hemos hecho ese extensa esa
evaluación de la parte ética,
lo enviamos a la Unión Europea,
no nos han pedido ningún
requisito más,
pero, por ejemplo, el Gobierno,
el apoyo oficial no decía
que le sorprendía
que no lo pidieran más apreciaciones
que tuviéramos en cuenta
que en cualquier momento, pues
no la pueden pedir.
Entonces yo lo que un poco quería
reflexionar con los compañeros,
que no encontramos bastante
desprotegidos,
y cuando ya pasamos a la parte de
los derechos fundamentales,
que realmente necesitamos más apoyo
desde nuestra instituciones.
Viendo cómo está la situación,
que incluso la Unión Europea
todavía no tiene un sistema
para poder evaluarlo,
para poder 1.
Yo lo que pediría que a través
de los representantes
no de la escuela de doctorado,
que tengo aquí llegarán otros rector
a muchos vicerrectores
la necesidad de tener apoyo
y que a lo mejor
para ser rápido efectivo tiene que
ser malo a modo de red de CRUE,
no para poder dar una respuesta
que nos permita seguir
siendo competitivo en los proyectos
de financiación europea,
porque si no, quizás a veces no
vamos a ver frenado por esa incertidumbre
y es todo lo que quiero enlazar,
no con la parte que va más dirigida
puedan 8 estudiantes de doctorado
y lanzarle la pregunta al
profesor Montenegro,
y es que en esta situación de
incertidumbre de conocimiento,
sobre todo para los que no conocemos
cómo funcionan los algoritmos,
cómo funciona la parte técnica
de la guía para mí
de falta de transparencia
cuando justo
lo que se nos piden lo contrario no
reproducir habilidad transparencia
ciencia abierta éticamente cuál
sería la postura más correcta
tanto de nuestro estudiante como
incluso de los profesores
como directores, hacer
uso de la vía 1,
hacerlo y que que el límite
o qué requisito mínimo
tendríamos que marcarnos
por el momento.
Nosotros mismos porque a nivel legal
todavía no está bien fijado
para decir.
Bueno, considero que estoy haciendo
un uso al menos éticamente adecuado
y cuando estén los parámetros
normativo
pues habrá que evaluarlo porque creo
que no usarlo también éticamente
irresponsable
porque, como hemos dicho, no permite
hacer un mejor uso,
por ejemplo, de los recursos
públicos,
que al final lo estamos pagando
entre todos los ciudadanos como 1,
ponerse a hacer ahora los cálculo
sobre papel diciendo
Pues que ha sido muestra
más su capacidad.
No, creo que también sería
éticamente irresponsable.
Muchas gracias.
Yo creo que en 2 cosas
primero conteste
a la pregunta.
Yo creo que el problema no es usarlo,
no usarla y programada sin verse
en cómo la vamos a usar.
No podemos decir que la ética o
los derechos fundamentales
nos dice que le interesa artificial.
No se puede utilizar también porque
inteligencia artificial,
aplicación muy tonta y
complicada, digamos,
no es un monolito, la inteligencia
artificial
tú puede utilizarla para traducir,
no me queda mucho problemas
y pueda utilidad para estimular
un sistema balístico.
Me puede aclarar problemas, digamos,
hay aplicación diferentes.
Así que yo no creo que es un
sí o no, el problema,
que, entiendo es el problema de
la falta de conocimiento
y que por eso puede llegar a decir,
yendo al lavabo Civil
o para no equivocarme
hoy a la utilidad
y no me preocupo de la consecuencia.
Yo creo que aquí hay que trabajar
a nivel de organización.
Como decía, por ejemplo, la
escuela de doctorados
introducir cursos para explicar
al estudiante,
doctorado.
Cuáles son el problema ético
y Google Índico,
relacionados con la utilización de
la inteligencia artificial.
Nosotros le hemos hechos de
manera experimental,
de manera voluntaria, cincos,
estudiantes esas inicie que no puede
ser de manera voluntaria.
Se la dan las universidades.
Entienden que es un reto,
es importante.
Eso tiene que es parte necesaria de
la formación de la investigadores,
también la análisis de los retos
jurídicos y legales
de la inteligencia artificial
y, por otro lado, a ese
poder la formación.
Por otro dato, necesitamos
universidad,
que proporcionará también apoyo
como tenemos el delegado
de protección de datos.
Es su Oficina para la protección
de datos.
Habrá que crear un experto de
derechos fundamentales
con la nueva oficina para
proporcionar soluciones
y apoyar este, les investigue todas
las cuales se van a enfrentar
a este problema.
No es una cosa tan urgente, digamos,
porque también en la Unión Europea
se está estructurando.
Ahora el panel ético no tiene, es
experta y derechos fundamentales,
pero claramente es un
poco la directiva,
por ejemplo, ese modelo catalán
que hemos desgranado ya,
le hemos presentado a la
CUP a la Conferencia
de los rectores, ya han tomado
tono a las grandes
o simplemente interesantes.
Consigamos el problema de ser un
poco pasar de estas mesas
de rotondas, donde estuve muy muchas
ideas útiles e interesantes;
aplicación que todos dicen,
100 interesantes y es necesario,
pero la fase de implementación
necesita mucho tiempo
y eso también afecta a lo que se
dice antes de la competición con China,
con todos, porque no es solo
que tenemos valor
desde el principio y que también
se dará a ese principio
poder ponerlas en marcha.
Esta acuerdo no insistamos
demasiado chico,
así que se basa a parar un poco
era crear incertidumbre.
Esto no es muy útil.
Muchas gracias.
Yo, para cerrar antes presentarme
primero,
como yo fui coordinador del programa
de doctorado en informática
y básicamente de investigación
en inteligencia artificial.
Tengo ya mis años,
puedo contar mi batallitas del
abuelo de inteligencia artificial
y, evidentemente, este boom último
que ha sufrido el último año
supone un cambio en la
forma de investigar
y en la forma de analizar
la investigación,
que ya ha comentado lo ha comentado.
Les han dado que como ingeniero y
tecnólogo no estamos asumiendo.
Es decir, yo además soy miembro
de la comisión ética
de la universidad,
y cuando hablo mi compañero
de que la mayor parte
de la investigación necesario
tiene que pasar por el comité se
pone la mano en la cabeza,
dice que no, que no lo entienden,
y ya lo comentaré con él,
porque son caso flagrante de
no miramos o no se mira
el posible uso investigado
por investigar,
porque un reto lo intentamos
resolver, lo he resuelto,
pero no miro cuáles son
las implicaciones,
y es algo que, evidentemente,
poco a poco hay que formar.
Recogemos, supongo que Pilar,
la miel ha recogido, porque
ahí estamos coordinados,
vicerrectora de investigación
con la cola otorgado,
sobre todo por los cursos que están
haciendo; aspecto éticos,
sobre todo por la formación, ahora
el derecho fundamental,
pero, como dice,
si todavía no se aclara
la Unión Europea,
pero evidentemente en ese aspecto
ido a trabajar y desde el punto
de vista moral,
sino, evidentemente el
asesoramiento de,
se lo tienen por los comités de ética
y también sé que la oficina
proyecto europeo tiene,
necesita que está ayudando,
pero evidentemente nos falta
ese tipo de formación,
pero tenemos Alexander encanta venir.
A Murcia tenemos un jubilado
maderero,
y a la del instituto,
cuyo derecho, que ahí tenemos
un apoyo muy fuerte
para para hacer ya como
reflexión final
la inteligencia artificial, ayuda,
lo han comentado todos es evidente,
ha desandado, nos ha
mostrado que cosa
le deberíamos pedir a la herramienta
que estamos utilizando
y que no, no nos explica
y que, evidentemente el uso
tiene que ser racional.
Es una herramienta muy potente pero
una herramienta que sustituya
aspecto que debe lentamente y sobre
todo vosotros que estáis
en formación deberían
adquirir de acuerdo
y, sobre todo, esa capacidad
de pensamiento crítico,
algo que no se puede perder y
que no puede ayudar mucho
a sacarle el mayor rendimiento
a este tipo de herramientas.
Muchas gracias al acuerdo
adoptado por imitación
y a vosotros por.