Idioma: Español
Fecha: Subida: 2025-06-26T00:00:00+02:00
Duración: 1h 48m 26s
Lugar: Conferencia
Visitas: 9 visitas

Plenaria 1: La Evaluación del Impacto del Uso de la IA en el Marco de la Evaluación Ética de los Pro

X JORNADAS DOCTORADO EIDUM-EINDOC-CMN

Descripción

Las X Jornadas Doctorales de la Universidad de Murcia reúnen a referentes del ámbito académico y científico en tres sesiones plenarias que abordan los grandes desafíos del conocimiento en la era de la inteligencia artificial.

El lunes 23, el catedrático Alessandro Mantelero (Politécnico de Turín) abrirá el debate con una reflexión sobre la ética de la IA aplicada a proyectos de investigación.

El martes 24, el vicerrector Pablo Pavón Mariño (UPCT) expondrá las claves para integrar eficazmente la inteligencia artificial en el proceso doctoral, destacando herramientas, retos y oportunidades.

Cierra el ciclo el miércoles 25 Marina Pilar Villegas Gracia, directora general de Investigación en la Comunidad de Madrid, con una mirada al presente y futuro del sistema español de ciencia, tecnología e innovación.

Las plenarias, abiertas a toda la comunidad universitaria, se celebran en el Salón de Actos del Centro Social Universitario (Campus de Espinardo) y contarán con la participación activa de coordinadores de programas de doctorado y responsables institucionales.

Transcripción

Bueno, pues una vez inauguradas las jornadas doctorales, vamos a comenzar con la primera plenaria que tenemos que sacar con el profesor Alexandra mantener o es profesor de derecho privado y derecho de la tecnología. En la Universidad Politécnica de Turín y en 2022 en recibió de la Comisión Europea la cátedra Jean Monnet en derecho de sociedades digitales Mediterráneas, además, es miembro del grupo de apoyo de expertos, del Consejo Europeo de Protección de Datos, de inteligencia artificial, datos y privacidad de la OCDE y experto, el Programa de Naciones Unidas para el Desarrollo en los derechos humanos y la inteligencia artificial. Bueno, es una persona que toda su carrera investigadora ha rondado en torno a los temas sobre ética e Inteligencia, Artificial y yo creo que para nuestros alumnos de doctorado, pues la es quizá el mejor experto que podíamos tener, el mejor experto que se podía traer y al final lo hemos conseguido para que nos explique bueno los puntos de colisión que hay entre la ética y el uso de la inteligencia artificial. Muchos de vosotros lo estáis utilizando en nuestras tesis doctorales, y yo creo que la escuela de doctorado pensaba que era un buen momento para hablar de este tema, así que nos dejó con el profesor Alexandra mantener o a continuación, después de él, se abrirá una mesa redonda donde van a intervenir los coordinadores de los diferentes, las 5 ramas del conocimiento, la mesa, la dirigida a José Tomás Palma, que es coordinador de investigación de la Universidad de Murcia, y a esa mesa se incorporarán Elisa Palacios, que es coordinadora del programa de Física Sebastián Cánovas, del programa de Biología y tecnología de la salud reproductiva. Varias y Cilia -Piñero, del programa de Ciencias de la empresa y Ramón García, del programa de doctorado de historia. Todos ellos se incorporarán después y junto con el estando a mantener o se establecerá una mesa. Muchas gracias. Es un placer volver a la Universidad de Murcia y, primero quiero dar las gracias a todos para esa invitación a las 2 universidades, a los rectores, al profesorado en las 2 universidades, siendo de Italia. Mi palabras en castellano votará a ser no demasiado correcta o pido perdón al principio esa el tema que vamos a discutir es el tema del impacto de la inteligencia artificial en el marco de la investigación, la razón para estar aquí básicamente que, como he dicho, he trabajado en este sector y estoy trabajando con la dirección, el rectorado de Unión Europea sobre investigación que quiere definir un marco para la investigación, Relacionada al interviniente artificial. Como ustedes saben, cuando vas a ser proyectos europeos tenemos que rellenar una parte de autoevaluación; en esta parte de autoevaluación, de momento hay muy poca cosa relacionada con la intervención inicial, se hace referencia a las directrices de la. La del grupo cree, se creó por parte de la Unión Europea antes de la AEAT, así que digamos, son directrices un poco viejas y también con una perspectiva que no es exactamente las perspectivas que tenemos en el reglamento de inteligencia artificial. Por eso, en el electorado en pulso, 2 tramos de trabajo, 1 específicamente sobre la ética y la otro sobre los derechos fundamentales, siendo de derecho no de ética he trabajado más claramente el experto que ha trabajado para hacer estas nuevas directrices, que son directrices para los investigadores y para los legisladores, claramente las direcciones, es la propuesta, sea guiada a la Comisión Europea en diciembre, ahora, como siempre, estaba esperando que se aprobara. Es un poco el marco para explicar por qué estoy aquí hablando de este tema. Si vamos a mirar más al digamos, al impacto de la inteligencia artificial, tenemos que considerar que cuando hablamos de ética en el sector de la designación, además del proyecto europeo, es una decisión muy amplia y ética, porque, como ustedes saben, cuando se hace una evaluación de ética hay muchas cosas que no son estrictamente de ética. Si no están bajo ley, bajo normas, hablamos de animales, hablamos de igual, Josep hablamos de Protección de Datos, son todos aspectos que claramente tiene relevancia ética, porque afortunadamente, el derecho se demanda sobre la ética, pero digamos tan normativos, tan con normas específicas que tenemos que cumplir. Eso él lo mismo de los derechos fundamentales. Los derechos fundamentales también son parte importante en nuestra cultura de nuestro ethos en sentido más amplio, pero también está regulado por la ley y claramente el impacto de la inteligencia artificial, o no quiero repetir cosas que casi todos los estudiantes de otras las saben. El impacto de la inteligencia artificial es un impacto muy significativo sobre la societa y eso claramente crea problemas con una relevancia ética, con relevancia sobre los derechos fundamentales, porque en inteligencia artificial, como se ha dicho antes, puede ser muy útil, pero también puede crear problemas de discriminación, puede crear problemas de influir, de tramitar valor ese principio que no están alineados con los valores y principios de cada una comunidad, y por eso crea problemas últimamente con los derechos fundamentales. Un ejemplo, digamos muy claro, son los proyectos de smart cities, siendo Universitat Politécnica. Muchas veces estoy involucrado en un proyecto, con todos los proyectos de smart cities, un proyecto que impactó sombra de la mobilitat sobre la plataforma para decidir, digamos, aspectos de vida común sobre el medio ambiente. Todo eso son también relacionado con derechos fundamentales. El diseño de la inteligencia artificial que vamos a crear puede afectar estos derechos. Por eso es importante tener en cuenta esto. Esto tema de los derechos fundamentales, que ya se tan elaboración ética, porque, como dijimos antes, hay algún aspecto y valoración ética que ya sabe, relacionado con los derechos fundamentales. Esto es gay. Destruimos de la directora General de Investigación e Innovación de la Comisión Europea. Está relacionado con la idea de introducir una evaluación específica del desfase assessment. Lo que concierne, digamos, el impacto sobre los derechos fundamentales. Eso significa que habrá una parte ética, y una parte. Sobre los derechos fundamentales en la parte. Sobre los derechos fundamentales, es algo que usted encuentran. También me ría el reglamento sobre la inteligencia artificial. Por eso estos 2 bloque hay que juntarlos en alguna manera y por eso tenemos que mirar un poco cómo está la estructura, digamos del de ría. Y por qué necesitamos estas directrices. Necesitamos estas directrices por varias razones. La primera es claramente cumplir con la norma. O reglamento, en parte, pero digamos la parte más relevante. Es también crear con estas directrices un poco marco de referencia por la investigadores. Porque, qué pasa? Ahora cuando se habla del impacto sobre los derechos fundamentales? Los industria y retorno. No saben qué será. No sabes que sean los derechos fundamentales. Eso no pasa solo en investigadores. La semana pasada fue Malta la semana antes, en Croacia, con expertos de inteligencia artificial. Ellos también tienen problema, que conocen entre 10 actividad. Conocer un poco de protección de datos, pero cuando dicen. Hay que mirar el impacto sobre los derechos fundamentales. De esta aplicación. Que estáis desarrollando ellos, pero cuáles son los derechos fundamentales? Básicamente. Así que un problema es la definición de los derechos fundamentales. Entender cuáles son los derechos fundamentales para la exministra y actores es difícil muchas veces son expertos en campos técnico como minería, otros sectores y no tienen experiencia, no los derechos fundamentales no ven el impacto sobre los derechos fundamentales y tampoco tiene mucho soporte en armonía universitario, porque no necesita. Tenemos privado, tenemos experto en protección de datos, pero no experto en derechos fundamentales. Este trabajo sobre derechos fundamentales ponen problemas desarrollando también en Cataluña, con la Autoritat Catalana de Protección de Datos con un equipo de DPO y lo mismo ripio, encuentran algunas dificultades difícil de identificar de manera correcta y completa. Cada derecho fundamental por eso es un tema donde se necesita porro, lingüística Torres y también por lo que se dan a supervisar digamos, solo lingüística Torres, una herramienta que pueda ayudarle en entender cuáles son los derechos impactados, y cómo se pueden mitigar este tipo de impacto. Digamos, vamos a mirar un poco la estructura. El primer aspecto que tenemos que considerar, el primer elemento que tenemos que considerar en relación con el reglamento de inteligencia artificial- Herria eso es otra parte un poco más técnica, un poco más se jurídica Hervías, tiene en el artículo 2 la definición del alcance de aplicación de la norma, y si ustedes leen lo que dice la Comisión Europea, típicamente, la Comisión Europea dice que siendo y no versión friendly o refrende, no hay que preocuparse de reglamento de indemniza artificial porque no se aplica a la investigación. Eso es el mensaje, digamos, política. No se aplica la investigación. Vamos a ver qué dice exactamente Herria Herría. Tiene un artículo 2 2 partes que son relevantes y 2 6 el 2 2 8 en el 2 6 dice que no se aplique efectivamente a los sistemas y modelos de intervención artificial de incluir, y su resultado desde arrolla de puesta en servicio, ni siquiera te 20 con la investigación. El desarrollo científico como única finalidad Qué significa? Desarrolla puesta en servicio es la parte, digamos, de lo que llamamos. Llamamos le hay prórroga y de los que crean la inteligencia artificial que sean creados para una tarea específica de investigación. Eso ya es un primer problema, porque dice como única finalidad. Muchos proyectos de investigación, también financiado por la Unión Europea. No tienen como única finaliza la investigación, sino también tenga un marco de desarrollo industrial de la investigación, así que el 2 6 se no se puede aplicar a este sector. En este caso se puede aplicar a un sistema de inteligencia artificial. Que se cree un laboratorio que se utilice para una investigación. Ella está otro elemento dice desarrollado y puesta en servicio específica también. Eso significa que es el sistema de inteligencia artificial. Ya existe en el mercado. Voy a utilizarlo para una tarea, sentir frica. Eso está bajo el río, porque es algo que no he desarrollado yo, sino ya existe aquí la primera duda, propuesta una interpretación, pero la Comisión Europea no sabe cómo han servido, porque el problema de qué pasa si yo tengo un sistema de inteligencia artificial, pero lo voy a modificar en el desarrollo de mi actividad de investigación, porque la modifica, puede ser una, modifica significativa Herría. Hace referencia a las modificación significativa en algunas partes y se la modifica y significativa va a prevalecer la tarea de investigación, así que si tú tienes un sistema de inteligencia artificial o vas a modificar significativamente más bajo el 2, 6 no está bajo ría. Esa es una interpretación, porque de momento claramente como dice la Comisión Europea, hasta que la definición de la Corte de Justicia Europea nadie sabe cuál es la interpretación oficial, pero ese puede ser un desprecio a la lógica, que también está alineada con el marco de la nueva normativa en el producto defectuosos, que también incluye una parte sobre el cambio de finalidad, digamos, de un sistema, cuando se modifica de manera significativa así en la bahía en la misma tenemos pero también otra excepción en el artículo 2, que el 2, 8 en el 2 socios se hace diferimento a cualquier investigación sobre los sistemas de electricidad y sensibilidad ante su comercio y de puesta en servicio es lo que significa es la parte en que yo vaya desarrollando el sistema, no necesariamente en el marco de un proyecto de investigación. Puede ser también la tirita, digamos, de desarrollo de investigación, la tus senso que se hace en una empresa toda la parte antes de poner sobre el mercado el producto. El Unión Europea dice esta parte también podría ser ser las sin mirar a reglamento de inteligencia artificial. La única o límites se señalasen pruebas en contextos reales. Si tú quieres sistema, interviene; es decir, si será la base de estar en un contexto donde hay personas claramente ahí vuelven bajo riesgo Cuál es el problema? Que las 2 normas se la vamos a mirar desde la perspectiva de una investigación que se hace también producto industrial en muchos casos, como pasa en la política y creen que no son politécnicas. No me sirve mucho saber que en la fase de desarrollo ahora en fase de investigación puede hacer todo sin mirar muchas reglamentario oficial y cuando vaya a comercializar, no cuando voy a ponerlo sobre mercado me dice No, pero ahora tiene que cumplir porque el desarrollo tecnológico es algo que digamos. Se trata solo de cambiar un trozo pequeño del proyecto, se sitúa ese es un proyecto que no está alineado con los principios de ría, y no hay que cuando lo pone eso para el mercado dice sin y ahora lo lo voy a poner en conformidad, ponerlo en conformidad, muchas veces significa diseñarlo otra vez a ser otra vez. Así digamos eso hay que tener en cuenta cuando vamos a hacer proyectos de investigación, porque muchas veces no se dice Ah No, hay que preocuparse de la Ley de interinidad artificial porque no se aplica si no se aplica hasta que 1 quiere vender digamos tu propio auto sobre el mercado, y ahora sabemos que la universidad está muy atenta a este este esté posibilidad, digamos, y también en la investigación junta con empresas. Todos la lógica de lo mismo, claro, pueden ser donde la investigación que quiera, sin va, sin mirar Herría, pero cuando tiene que venderlo tiene que cumplir y tiene que ser marco en el marco de la Unión Europea y todo así que el programa la marca de la Unión Europea. La cosa es interesantes en detalle, pero es interesante que en el artículo 2, 8 dice que no se ha aplicado la excepción en el caso de prórroga, en condiciones reales. Esta misma excepción a la excepción, digamos, no están en el 2, 6 Eso significa que podemos interpretar que cuando se más satelital investigación también en un sector, también en casos reales, si es solo para investigación, se pueda ser sin cumplir, digamos de manera formal, con errores. La última cosa que es importante, y considerando 25 los considerandos. No son parte vinculante digamos de la norma europea, los considerandos 25, pero nos recuerdan que, de todas formas, tenemos que cumplir con la norma normas ética. Ahora, en este marco, cuál es la situación y por qué hemos hecho este trabajo a nivel europeo? Porque claramente, por un lado, tenemos Herría, que define un marco jurídico con un énfasis, digamos, sobre la protección de los derechos fundamentales, porque es una de la finalidad principal, y tiene una sistema de evaluación de impacto sobre derechos fundamentales y, por otro lado, tenemos algunas excepciones que dicen, pero hay casos en el cual eso no se aplique, ría, pero los evidentes llegue a todas. Están un poco en el medio, la idea de proporcionar un marco ético desarrollado por la de rectorado, digamos, de investigación, pero que sea suficientemente alineado con Herría para no crear el problema que cuando tú vas a desarrollar una parte de tu investigación en el marco ético, después te en contra, con la barrera de cumplir con Herría, cuando la vas a poner en marcha a nivel, digamos, de mercado, y por eso hemos creado esta esta herramienta. Esta herramienta que se basa sobre 2 partes yo hablo de la parte que conozco porque la otra la dieron otros compañeros de ética pura. Digamos que es la parte sobre el impacto, sobre los derechos fundamentales, la parte sobre el impacto de los derechos fundamentales en la parte bastante nueva, también para los expertos, digamos, del sector jurídico, porque hasta ahora la evaluación de impacto sobre los derechos fundamentales estaba muy limitada, era típicamente una evaluación que se adoptaba de los sectores industriales. Cuando se hacía un plan de industriales muy grande, muy impactante, digamos, una petrolera que va en África, va a crear un área industrial muy grande, claramente impacta sobre medio ambiente, sabrá el acceso a la vivienda, sobra la condición de trabajo y muchos derechos digamos, pueden ser pactado típicamente. En este caso después el impacto se produce, hay personas que protestan, la empresa va a pedir a expertos que hacen una evaluación de impacto que se llama sobre los derechos humanos. En este caso, porque estamos en un contexto internacional, va a ser una base del Supremo derechos humanos. Eleva a poner algunas propuestas de soluciones. Esto es lo que conocemos como antecedente, digamos, la evaluación de impacto sobre derechos humanos. Cuál es la diferencia entre eso? En la evaluación? Sobre los derechos fundamentales en el marco europeo, que esta evaluación en la evaluación ex -post cuando ya le he hecho se ha producido. Lo que pide ahora Unión Europea en Herría es que se haga una evaluación ex ante para impedir que se va a perjudicar los derechos fundamentales claramente, y por eso está muy alineada con lo que hacemos en el proyecto de investigación. La sala es mente del proyecto. Tenemos que mirar antes que poner en marcha la investigación si puede repercutir negativamente sobre los derechos fundamentales. Esto es una evaluación que ya tiene, es algo similares. Por ejemplo, si vamos a mirar la evaluación sobre el impacto en privacidad, que ya se es parte de la evasión que hacen, lo que tendría que ser, digamos, los investigadores, cuando van a crear un proyecto de investigación, el marco lógico en el mismo, intentar mirar cuál puede ser la consecuencia como algunas partes de nuestro proyecto pueden perjudicarle su derecho y cómo podemos mitigar o limitar este efecto negativos. Siendo una evaluación de impacto, como toda la evaluación de impacto tienen 2 requisitos. Primero, es una valoración contextual, no es una valoración abstracta, tenéis que emigrar al proyecto donde se aplica. Se desarrolla el proyecto. Cuáles son los contextos afectado, cuáles son a los grupos de personas que pueden ser afectados entonces y claramente tendría que ser una evaluación por expertos. Ese es un tema bastante crítico donde la Universidades, porque muchos de lingüística total no son expertos de derechos fundamentales y tampoco la oficina, digamos, de investigación de la universidad muchas veces tiene ese experto. Eso es algo que tendremos que pagar, como es de hecho, con la privacidad, introduciéndose experto en oficinas típicamente de la Universitat el DPO. Trabas equivalentes, digamos, porque claramente, si tú tienes un científico de biología, dice. Yo quiero desarrollar ese odio y 6. Y, cuál es el impacto sobre los derechos fundamentales? El biólogo te dice. Yo no lo conozco, los derechos fundamentales, así que no podemos imaginar que todos los expertos de todos los diferentes tramos de ciencia se convierte en experto y derechos fundamentales. Tendrá que universidades, proporcionar soporte por esta clase de análisis o si tiene mucho dinero, solo proyectos. Sobre la investigación agraria buscarse el soporte técnico específico, pero la cosa es importante, que es una valoración de expertos. También hemos discutido este tema con la Comisión Europea porque no lea Office. Quisiera hacer un turno, una herramienta para todos o también para expertos, pero no tiene sentido, porque si tú no conoce los derechos fundamentales no hay herramienta ni en el jurídico y te puede convertir en un mínimo experto, digamos, del sector. Ese es el problema sobre por eso digamos. Hemos diseñado desarrollar toda esta herramienta de evaluación a este remanente de valoración, digamos, se basa o la experiencia claramente en el sector y a quienes trae funciones principales. La primera era función de concienciación. Es importante utilizar este cuestionario y todo lo que estaban en herramienta para que la investigación empiece a entender que existe el problema. Me he encontrado muchas veces en proyecto revisado, siendo en comité ético de mi universidad donde la investigador no de el problema ético no se da cuenta del problema, exige no que mierda por otro dato simplemente no lo entiende. Que hay un problema ético. Por eso la primera parte es un listado de preguntas genéricamente, porque los investigadores pueden entender que hay problema éticos. La segunda parte es la parte más dura en la parte de análisis de riesgo. Esa parte de análisis de riesgo y, como he dicho, es una parte que necesita un conocimiento del sector. Por eso no podrá ser hecho solo por parte de la investigación, sino la investigador con alguien que sea expertos de derechos fundamentales, porque si no, no se puede funcionar, y eso también por la parte de estimación de riesgo, porque, claro, hay que entender cuáles son los derechos afectados y a entender cuáles son las soluciones a nivel jurídico más adecuadas a nivel y jurídicos, pero relacionado con el proyecto. Ahí está el problema. No tiene que entender que si tú vas a desarrollar una ley que sirve para detectar el cáncer y si esta análisis se basa sobre un 30 datos que se ha creado en Europa, cuando tú vas a exportar, digamos esa herramienta en Latinoamérica, el dato es el que a su utilidad dato para enterrar a la inteligencia artificial. Puede ser que cree que vaya a crear una inteligencia artificial que a nivel de formas en Latinoamérica tiene un nivel de reformas más bajo. Esto es una parte técnica, pero sobre este análisis y técnica tu tiene que poner la parte jurídica que significa a nivel jurídico a nivel turístico. No es un problema de formas del alcohol, no es un problema de riesgo de discriminación, es de un proveedor de impacto sobre el derecho a la salud. Cuando han reconocido los derechos, tienen que poner problemas como vaya a proteger los derechos a la salud de Brasil, dinero que se afecta a toda una herramienta que tiene inteligencia artificial, que nos detecta bien su casa y claramente para hacerlo, tener que volver a la parte técnica que dice Mira pueda ser un fátum. Mida pueda ampliar, digamos, los datos de entrenamiento. Por eso es necesario este diálogo, digamos, entre el expertos de derechos fundamentales. El investigador propio de su sector, expertos de derechos fundamentales no tiene ni idea especificada. La parte técnica no puede solucionarlo por su cuenta. La investigación no tiene idea muy claro de los derechos fundamentales en lo pueden solucionar ahora por su cuenta. La metodología sigue este lógica e incluye 3 bloques. El primero, la planificación, alcance, identificación de riesgo, análisis de riesgo y desean de riesgo no es nuevo, es típicamente la manera en la que se hace la análisis de riesgo, y esto es bueno porque tenemos otro análisis y escuchamos muchas veces en el proyecto, empezando por la protección de datos y tener herramienta que siguen la misma lógica. Ayuda mucho porque se utiliza herramientas diferentes. Claramente no se habla, es complicada la planificación. La primera parte es un cuestionario donde vaya a mirar el contexto. El contexto significa que inteligencia artificial, algo utilizando donde la web utilizar cuáles son las clases de personas que pueden ser afectadas. El contexto es importante, porque muchas veces una inteligencia artificial puede tener impacto para reducir el impacto. No es necesario modificar la inteligencia artificial, sino modificar el contexto, por ejemplo, tú puedes desarrollar un chat, voz es un escenario concreto que hemos hecho aquí en España, puede desear mucha voz para asistir a las personas que tienen problemas de salud y que pueden preguntar poniendo a los síntomas cuáles son los medicamentos más adecuados. Claramente. Esa es una locura. Desde la perspectiva de derechos fundamentales porque la persona van a poner síntomas equivocados, incompletos y todos y eso sale más, pero tú puede decir mira cómo pueden afrontar voy a invertir mucho más. En este ínterin entre artificial, la senda mucho más específica, mucho más rápida, buena en detectar las cosas o puede decir. No echamos, no lo voy a dar a los las personas, los pacientes lo voy a dar a los médicos porque los médicos no saben dar de manera más correcta poner los términos Correcto Él esa del medicamento, que puede ser que no se han pensado que se podría utilizar en este caso en este contexto yo no voy a cambiar la inteligencia artificial, no voy a cambiar el grito. Voy a cambiar el contexto de utilización. Por eso el contexto es importante. Algunas veces no es necesario diseñar la inteligencia artificial, sino cambiar el contexto donde se va a utilizar la inteligencia artificial. Después tenemos que realmente para ser la evaluación de impacto. La evaluación en facto es una cosa, es una declaración de verdad digamos, la evaluación de impacto no es simplemente decir a me parece que pueden afectar a unos derechos. Aquí hay un listado de acuerdo que se podrían hacer. No funciona así? La base del impacto es una medición. Digamos, significa que tú puede decir cuál es el nivel de impacto por cada derecho. Indignificar las medidas que puede reducir ese impacto y aplicando las medidas, definir cuál es ahora el nivel de residual, digamos, de riesgo eso es una valoración de impacto, es simplemente un listado de del efecto potenciales. Cómo puede mitigar No, no, es una evaluación de impacto y eso afecta también la manera de gestión de riesgo. Por eso tenemos esta estructura en este cadena. Sueño que será proporcionada a los investigadores y a los propios proyectos. Una primera parte sabrá la estructura, cuáles son los problemas, cuáles son, cuál es el efecto de interinidad artificial y todo, y la segunda contraparte, más específica, sobre la metodología claramente, dado que ya conocen la parte, digamos de problemas, se puede pasar directamente a la metodología. La evaluación de impacto, como se hace esa es la parte más técnica, seas, es utilizándose escalas. La idea es que, como en toda la valoración de los derechos, hay un mínimo máximo de impacto. Así que se una herramienta de escalas nivel bajo, medio, alto o muy alto de impacto sobre un derecho. Esto es que ahora son útiles, porque esta herramienta no es una herramienta, digamos, de control al final de un procedimiento, es una herramienta de diseño, y eso es importante entender. Yo cuando pienso al proyecto de investigación tengo que pensar. Mira, se lo hago así. Va a impactar sobre este derecho. Hay un problema voy a hacerlo de otra manera, va a ver cómo impacta, y tengo que comparar las 2 soluciones. Esa es la parte de diseño. No es un final donde voy a mirar. Si está bien, está bien. Estabilidad también es una herramienta que me ayude a entender que una manera de diseñar mi investigación tiene más impacto y que hay otra manera que tienen menos impacto y tengo que elegir la otras maneras. Por eso es necesario tener escalas, estén herramientas que permiten comparar 2 diferentes soluciones con las soluciones. El impacto es muy alto con las devoluciones es más bajo, me ahorra, ve esa es la OIT. Eso se aplica claramente al diseño del algoritmo, adapte un tipo a la clase. De ahí que voy a utilizar a muchas cosas Cuáles son los criterios que se utilizan? Claramente no tenemos que inventar todo, porque si no, no funcionan bien las cosas. Los criterios siempre son lo mismo la de riesgo que son la prueba grita digamos la gravedad del impacto y eso también están en el NER, vía reglamento, inteligencia artificial, artículo 3, que dice que esos son los 2 variables que hay que considerar, pero en el modelo que hemos desarrollado tenemos una, digamos, un análisis un poco más fina porque se dice. La prueba ya no es solo cuánto es posible que algo puede pasar si no también tener en cuenta cuántos son las personas afectadas, porque desde la perspectiva del derecho fundamental de que sea 1 que sea así en no cambiar nada, claramente tendremos que proceder todos, pero desde la perspectiva del diseño de investigación va a cambiar, porque ese cuando diseñó una herramienta un proyecto creo que el impacto es probable, muy probable, pero afecta muy pocas. Personas o impacto, es muy probable, más afecta a muchas personas a nivel de gravita a nivel, digamos, de trabajo que tengo que poner para inducir la impacto. Es diferente? No digo que cuando son pocas y sean no importa. Podemos ejercer producir un daño, los derechos fundamentales, porque son pocos esos o no, pero claramente siendo una herramienta de diseño es importante, pero el estricto dar a entender dónde tiene que empezar se tú mirando tu proyecto de es que impacta mucho, sobran los derechos de la libertad de movimiento y sobre muchas personas. Tú empieza de ahí muchas veces cuando empiece de ahí iba a ser cambiar el diseño. Eso también se dé por curioso para otros derechos, reduciendo también impacto sobre los derechos. Así es importante, pero en esto hay que tener una lista de prioridades y llamaban versar conocer dónde empezar por primero lo mismo, por la grave tal, acredita es típicamente Cuánto una derecho? De qué manera puede ser, digamos, comprimidos, reducido en consecuencia del diseño que hemos creado? La herramienta de inteligencia artificial es grave, impacto negativo digamos, sobre el derecho. También en este caso será considerado no solo la gravita sino también les fuerza. Digamos que se puede poner en marcha para reducir este impacto. En el caso de antes del cáncer después es muy alto el riesgo es alto. Entre justicia y a la salud, y también le esfuerzo porque se habla de ser un tren y otro training sigue costando bastante a nivel de tiempo y de recursos. Otro caso puede ser el caso de un robot con incidencia artificial que se utilice, por ejemplo, con menores en los colegios. Hablando con los menores, se el robo, se equivoca, dice con las raras, que puede ser discriminatoria o pueden afectar a algunos algunos grupos claramente la procedencia del profesor o a mitigar de manera inmediata eso, y también convierte esa experiencia en una reflexión sobre los límites de mi intervención inicial, digamos. Ese es un ejemplo donde el impacto es alto, porque claramente puede ser discriminatorio, pueda ser. Dice cosas negativas a reacción de algunos grupos, pero la presencia del profesor induce mucho y por eso tenemos que tener también esta variable de efecto. El esfuerzo perdón, porque el esfuerzo en ese segundo caso es muy bajo con poco esfuerzo voy a decir mucho impacto negativo. El primer caso es muy alto porque tiene que ser el training otra vez. Por eso incluimos estas 2 variables. Las cosas que son que tenemos que tener en cuenta en aplicar a esta herramienta es que claramente, todos los variable que se introdujeron tiene que ser relevantes, que no tenemos que poner juntos todos los derechos. Esto es un error en muchos proyectos de fundamentales impact assessment, donde se dice, tenemos un resultado final que dice que tu proyecto o tu solución día tiene un impacto baja. Eso no es posible porque en la teoría jurídica de los derechos fundamentales se valora la impacto por cada derecho. No puede decir que hay un impacto muy alto sobre biodiversidad y muy bajo sobre la libertad de expresión. Impacto total es medio porque está mezclando cosas diferentes, así que, al final, habrá siempre un listado de derechos con un nivel de impacto. No habrá un valor único por todos los derechos afectados. Ese es un poco la herramienta que se utiliza. No tenemos una, una matriz o esta. Esa es la gravita. El esfuerzo, la materia permite combinar 2 valores y cascada cromática, aquí descarada cromática, sede de un poco la frase, pero conozca la cromática derivar el tercero valor a quienes desde la matriz de la gravita total, que se compone de la gravita del impacto del esfuerzo. Yo estoy aquí. Puedo decir que la gravita total es muy alta; si estoy aquí es alta en medio y media; aquí es baja, es una materia porque utilizamos matrices. Por qué las matrices son exactamente la misma lógica que se aplican? El razonamiento jurídico. Los juristas, los tribunales, las Cortes, cuando deciden de hacer, de evaluar un impacto sobre los derechos fundamentales, conectan, digamos, 2 variables, que son las variables que hemos visto antes. Así que la matriz es mucho peor de la. La fórmula matemática que hay algunos han propuesto porque la fórmula matemática no son típicas de la lógica del jurista Por qué nos tenemos que ir a la globalización? El jurista, porque es el acoso, se vuelve muy mal. Se va frontalmente a una tribuna donde habrá alguien que ahora decidir, se impacta, no impacta sobre los derechos fundamentales. Tenemos, lamentablemente algunos casos a nivel europeo que ya existen de proyectos europeo financiado que han impactado sobre los derechos fundamentales, así que todas las lógicas es una anomalía jurídica. Al final quienes seguir cuáles son las prácticas de las vallas jurídicas, no hay juez que utilizan fórmulas matemáticas para evaluar el impacto sobre los derechos fundamentales. Cuando hacemos la evaluación de impacto vamos a definir para cada derecho. Aquí habrá un Estado de derecho, se va a definir la prueba y tal exposición. La prueba total acredita el esfuerzo en la que gravita total. Cuando ese hecho está adscrita lo hacemos, digamos de manera única para el desarrollo del proyecto, pero se puede repetir, se va a cambiar claramente la estructura del proyecto. Es interesante subrayar que hay otras propuestas. Por ejemplo, a nivel de Holanda. El Ministerio del Interior ha diseñado otro la herramienta, que es una herramienta, que se va a sobrar la lógica way, what FAO- Whatsap. Es una manera de este esquema que se utiliza para el proceso de sillas. Anales sería porque quiere utilizar esta herramienta como un cuadro herramienta. Quieren sensibilidades y el artificial, como la base de desarrollar esta estructura es de una estructura lineal específicamente. Cuál es? El problema? No es adecuada para utilizarse ni una evaluación de impacto sobre los derechos fundamentales, porque cuando empiezo por qué utilizan inteligencia artificial, tendrá que mirar a los impactos sobre los derechos fundamentales cuando digo cual la inteligencia artificial, cual herramienta, tendrá que mirar la de derechos fundamentales, y cuando digo cómo lo va a desarrollar tendrá que mirar el derecho fundamental es así que le hago otras veces claramente nadie quiere invertir 3 veces que la misma evaluación y además la típica evaluación de impacto en todos los sectores no es lineal, sino es circular, análisis de la situación, identificación del impacto, medidas de mitigación de funcionamiento de la medida de mitigación ese sí escolar. Por eso, igual hay aguas donde no funciona bien. Cuáles son no los errores que se pueden hacer en la evaluación de impacto sobre derechos fundamentales? Los errores son típicamente de convertirla en algo que es diferente, y típicamente, la tentación muy fuerte de los anticipos del sector. También recalco lo de la nieve, de datos y todos transformarla en una herramienta matemática, y eso tiene también digamos alguna similitud con lo que pasa, por ejemplo, en la CAM. Tiene el sector financiero. En el sector financiero se utiliza una herramienta matemática para destinar riesgo financiero, digamos, pero aquí con los derechos fundamentales. El sistema no funciona muy bien porque nosotros tenemos que mirar a cuáles son los derechos fundamentales, y no ahora escoge enérgico, que pasa, señor Lassalle, hacemos, pasan cosas así; eso es un modelo que se ha propuesto, es un modelo numérica que dice que desde el 1 por 100 al 35 por 100 en niveles bajo de entre 35 a 70 en ello, pero quien ha decidido que 35 porque 35 o 40 o no, 20 Ese es el problema desde una perspectiva de derechos fundamentales. Una, un juez nunca entendería por qué se ha adoptado esta fórmulas. Ese es el, la de las y la tabla que va combinar los bares; valores para decidir cuál es la puntuación final. También hay una fórmula matemática de atrás, de ESO que decide, por ejemplo, de multiplicar las la gravita con la aprobada ETA y dividirla. Parados Por qué está claro? Tenemos que utilizar la olla jurídica? Se quiere, es poner matemática. Cada reglamento matemático tiene que tener una justificación jurídica; seremos nosotros. Si ustedes han dado enfrente a un juez. Con estas tablas, basándose estatal y 6 no ha impacto sobre los derechos fundamentales. El hueso en mí era raro, dicen. No me convence. Esto no es la única que vamos a aplicar. Por eso la matriz es aún más coherente. Otro sistema es la lógica filosófica. Esta representación lógica es otro que sea publicado, y ese sería el análisis del impacto sobre los derechos fundamentales con lógica formal, de tipo filosófico. Otra vez no hay web que se ha acostumbrado a esta lógica, se vaya a presentar en esta manera que el impacto de mi proyecto es muy bajo. No funciona. Por eso la matriz son la solución más adecuada y le hemos desarrollado también en casos concreto aquí en España con la autoridad de protección de datos de Cataluña, con esta guía, que utiliza también a la misma lógica, que se puede descargar ya esperando que en algunos meses también Doñana Europea vaya a terminar el procedimiento de revisión de adoptar digamos, las directrices final para investigación. Bien, ese es un poco toda la introducción es muy expresivo, rica, muy centradas, o para la parte de investigación, de evaluación de impacto la llegue a ser una previsión pragmática. Claramente ustedes se quieren hablar de inteligencia artificial en varios sentidos prospectiva, jurídicas. No hay problema de las preguntas. Podemos afrontar varios temas impropias, gracias. Muchas gracias Alejandro Muchas gracias ha sido un placer bueno y ahora, antes de subir los miembros de la mesa, aunque después tenéis más oportunidad de hacer preguntas. Pero si alguien quiere hacer alguna pregunta concreta, algún observación, alguna duda respecto de lo que el profesor Alexandra o anteayer ha estado diciendo, nos ha estado contando. A ver si no sé si se debe escuchar quizá que llevamos. Llevo el preocupan, verdad? . 837 00:45:56,020 --> 00:45:56,480 Muchas gracias. La verdad es que a mí me fin, me ha gustado mucho, pero cuando, en fin, no quiero ser yo tampoco aquí el que levante la baza, no? Pero cuando cuando hablan de derechos fundamentales realmente a cuáles se refieren, no? Porque claro, europa tiene sus derechos, China tienen los suyos. Entonces, cuando hablamos de crear un programa para proteger los derechos fundamentales, realmente en qué nos estamos basando la declaración de los derechos, cuales. Gracias por la pregunta. Hay 2 maneras para contestarla. La primera es que claramente a nivel de Unión Europea no se refiere más a la Carta de Derechos Fundamentales de la Unión Europea, y eso también se adopta en el marco, digamos de investigación de colaboración internacional para Unión Europea, cuando tenemos proyectos con otros países, cuando invertimos en investigación y proyectos en otros países, 1 de los requisitos que este proyecto cumplen con la normativa europea en cuanto a los derechos fundamentales, otra cosa es que eso sea efectiva y de trabajar todos de electoral, de exterior, digamos de dónde vinieron Europea y hay problema para que sea efectivo, porque se pone muchas veces una contracto en el acuerdo, pero nadie va a mirar cómo se va a implementar de verdad, pero digamos el marco de referencia es el marco europeo de los derechos fundamentales, pero aquí en esta primera parte, donde se hace la evaluación del contexto, ahí se tendría que hacer la evaluación, no solo de los derechos afectados. Si no lo han hecho afectado teniendo en cuenta del contexto, porque como usted dice claramente, estos derechos en algunos países pueden tener algunas matices de otros países sean diferentes. Por eso digamos cuando van desde arreglar un proyecto que pueden afectar, sabrá el derecho a la educación. No sé claramente si ese proyecto se desarrolla en España se desarrolla en Polonia, se desarrolla en Estados Unidos. Hay que tener en cuenta que el derecho de la educación a nivel nacional puede tener una estructura con una diferencia. Esto es parte de la evaluación contextual que tú tienes que hacer. Cuando empiece a hacerla análisis de riesgo de tener en cuenta el contexto claramente usted hacía referencia a China a claramente hay sectores. Ubicamos países en lo cual a la reducción de los derechos fundamentales más baja, muy baja. En este caso, como he dicho antes, expresar el marco europeo. Nosotros tenemos que garantizar que en nuestros proyectos europeos se cumple con los derechos fundamentales cosas diferentes lo que se llama también es inglesa no sé cómo externos. En español, digamos. Vernácula de ilusión, significa que los derechos fundamentales siempre están contextuales. Se tú hablas de libertad de expresión, la libertad de expresión en Italia, en Francia, en España tendrá una pequeña diferencia, pero, claro, a nivel general son muy alineadas, eso es enfocar ese sitio que tenemos que ser el proyecto. Cuando vamos a evaluar el impacto miramos, digamos, un poco a nivel muy alto a los derechos fundamentales haciendo referencia al marco europeo. Claramente puede pasar que algunas aspectos de la implementación de proyectos son tan específico donde también el marco nacional del derecho fundamental como se aplica, es relevante y hay que tenerla en cuenta, y puede pasar que teniendo un proyecto que se error y más de un país puede ser alguna diferencia a nivel de implementación, pero a lo de China y lo de los países que no respetan los derechos fundamentales claramente no es un problema, porque si no, respecto a los derechos fundamentales no nos no pueden desarrollarse proyectos europeos que va a encuentran los derechos fundamentales. Es claro. Si ese bueno entonces esto sería más para Europa no sería negar esto sería entonces realmente válido para Europa? No, esto es válido por lo proyecto financiado por Europa, que no significa proyecto europeo. Puede hacer un consorcio con la Universitat de la América, pueda ser un consorcio con Universitat de Estados Unidos. Ese es el marco de Doñana Europea, pero proyecto que Europea financia vale, vale, vale. Entonces para Europa decir hablamos de un programa para Europa, no de todo lo que viene a ser la intención de antisistema, pero dentro del marco europeo, dentro marco de la financiación europea. Vale, vale De acuerdo No Pues nada claro todo las del marco jurídico no pero claro si ya entramos en el tema fuerte no que implica, por ejemplo, la inmigración, no sabiendo cómo están los países con con toda la historia, no. Entonces, si la inteligencia artificial va a haber un derecho aquí donde no lo haya, lo mejor en Asia o en, pues no sé igual. Hay que revisar la forma de puede comulgar, no de hacer que este programa sea aplicable para todos los puntos del mundo, no si, por ejemplo, la referencia a la migración es interesante porque ayudaría a la herramienta que de inteligencia artificial que se aplican para detectar la inmigración ilegales, o también digamos, para cuando se exime a los migrantes ser solucionadas para detectarlas acumularse a elementos se han creado avatar que abran con el migrante, todos claramente esta herramienta se llega desde un país como Italia, que tiene la política migratoria, que existiera un marco bastante severo, digamos, o se va a desarrollar en otro país de Europa, que tiene como puede ser Alemania, una política migratoria más incluía claramente. Hay que tener en cuenta el diferente contexto del marco normativo, pero digamos no puede decir que ni detalle. Tampoco Alemania tiene un marco que sea encuentras a los derechos fundamentales. En relación a migraciones, hay un alcance más o menos amplio de la protección que se pueda ser conocida, y yo ahí tiene que mirar la todo cuando va a desgranar a diseñar por la infle un piloto y 1 específico país. Hay que tener en cuenta el marco legal, pero eso ya lo estamos haciendo porque pasa lo mismo de protección de datos, pasa lo mismo para protección de animales, toda la parte que digamos que están bajo norma. El proyecto de investigación siempre se enviará también a la norma nacional. Se entendería que nombrar hicieran algo normal. Gracias. Nada. Alguna otra pregunta? . 971 00:53:47,520 --> 00:53:51,480 Bueno, día profesor, le quería preguntar respecto a la evaluación, la guía catalana que usted ha referido al final de evaluación de tecnología sanitaria. Sabemos que una guía muy reciente yo la he estado echando un vistazo, porque está relacionado un poco en este tema. Estoy intentando hacer la tesis del doctorado y quisiera saber qué opinión le merece a usted, porque me ha resultado muy interesante que este parece que ha colaborado en esa mesa. Guía no de evaluación, de tener de tecnología sanitaria. Nosotros aquí en Europa ahora mismo tenemos un reglamento que se supone que directa aplicación, pero aquí en España, a través de una sentencia que declaró la Audiencia Nacional, hay un vacío legal. Ahora mismo hay un proyecto de real decreto en evaluación de tecnologías sanitarias que se encuentra en trámite de audiencia. No se ha publicado todavía está pendiente de hacerse ese real decreto sobre evaluación de tecnologías sanitarias, donde el aspecto de la ética sería clave a la hora de desarrollarlo, porque en el Reglamento europeo nada más que se señala. No, no se profundiza para nada. Sin embargo, en la guía catalana vamos no lo he hecho yo a fondo. Quiero estudiar a fondo y me gustaría que me dijera usted el alcance que piensa que esa guía, que la veo muy completa y la verdad, muy muy útil para para esa evaluación qué opinión le merece y que ha tenido obtener esa elaboración de la guía respecto a la ética. Gracias. Gracias. Muchas gracias la guía esta guía, que es la que está la última, donde está. Es esa pasa la raya. Es una guía adoptada por la autoridad de protección de datos, para la autoridad de protección de datos. No tiene competencia en tema ético, sino solamente protección de datos y bajo protección de datos en virtud del artículo 35 del Reglamento General de Protección de Datos de la Unión Europea, también sobre los derechos fundamentales. Por eso se ha impulsado todo este trabajo que ah dura, to año y ha terminado todo al final al principio de ese año, sino el año pasado. Me acuerdo con la adopción de este documento en ese sentido digamos no no toca el tema ético ico como no lo toca Herría estoy de acuerdo, y por eso a nivel europeo la directora general ha introducido una tipo de trabajo específico, un grupo de trabajo específico sobra marco ético, por indemnizar artificial. Yo conozco lo que han trabajado sobre este tema, no conozco el resultado porque, como lo mismo pasa por mi parte digamos, tan bajo supervisión final, digamos, y hemos trabajado de manera separada porque ya sea una ética y hacia eso es fundamental, pero a son. Fueron 3 los expertos que se fueran seleccionado por el decreto grato para definir esta marco ético a nivel europeo. La herramienta catalana no se ocupan de derechos, departamento de ética, si no solamente derechos fundamentales, claramente siendo la persona que la creativa, la misma que hace parches para la europea, siguen la misma lógica. Así tienen la guía. Se encuentran muchas cosas que están bien están en el marco de Comisión Europea. La diferencia es que en el documento que enviada a Bruselas es un poco más amplio porque tiene una parado más específico en relación a los derechos fundamentales, porque el problema es que la investigación no conoce los derechos fundamentales, así hay una parada donde hay los barrios, derechos y casos muy algunas líneas que te dicen cómo podría una aplicación. De ahí está relacionada de manera negativa a este derecho. No se dedicó derecho a la libertad de expresión, por ejemplo, una inteligencia artificial que se utiliza para moderar los contenidos online, y eso claramente puede crear problemas de limitación de los derechos a la libertad de expresión. Así que una investigación que no tiene muchas ideas de cuáles son los derechos fundamentales miran de esta tabla, pueden entender un poquito más dónde ir, buscando, y también era otra tabla que relación a los derechos fundamentales, algunas herramienta técnica que se utilizan. El desarrollo, inteligencia artificial, digamos, es un poco más rico como documento por toda esa parados más técnico que se han añadido, pero la parte de la orgía de evaluación en la misma y digamos de momento a nivel europeo de modelos hay este el modelo de, del Ministerio de Interior de Holanda, que he mencionado antes way y agua, el modelo de Consejo de Europa; ahí he trabajado en el Consejo de Europa con el comité por Internet artificial, este modelo también lo discutimos en el comité y después se consigue otro observatorio apetecido de externalizar no digamos a la aventura instituto, pero ese modelo, que tienen límites, límites principal, que demasiado de alto nivel se usted lo va a mirar porque se puede descartar, se llamó diaria. Si se descarta eludir, ya vendrá que se dice desde el principio. Estos son algunos criterios que tienen que mirar muy similares a lo que tenemos nosotros, pero no sé cómo combinarlos. Tú sabes cuáles son los criterios, no las grandes cruzar el nivel de impacto, no lo va a sacar ocular, y además dice la metodología para combinar los criterios se han decidido a nivel de cada país. Claro, eso a nivel de herramienta, de política funciona bien, María del práctico. Con esta herramienta se quiere aplicar a un proyecto concreto, no aplica nada, no funciona. Por eso, digamos época alternativas o no pocas. Hay otras alternativas más ética, pero otra vez no hay mucho de metodología. Muchas gracias. Bueno, una última pregunta, antes de pasar a la Mesa. Hola. Buenos días, Catal. Yo le quería preguntar cómo abordar el problema. Usted ha hablado de derechos fundamentales y ha hablado también del tema de la Unión Europea, del marco jurídico. Cómo abordar el problema en una Europa con tantas discrepancias ideológicas donde se está produciendo alteraciones, probablemente en lo tocante a los derechos fundamentales, a nivel de la praxis, cómo abordar eso, y cuando hablamos de derecho fundamental en la línea de esta pregunta no cree usted que incluso el marco jurídico, de alguna manera que alguna garantía de estabilidad, evidentemente, pero que debería basarse en una ética que emana de una un nivel más profundo, es decir, de un acuerdo o una especie de vamos a decirlo, un acuerdo más o menos global, universal para poder generar una cierta universidad o darle un cierto rango de universalidad al problema de la ética en la, la inteligencia artificial. Eso por un lado. Bueno, no hay está englobada las 2 preguntas gracias muchas gracias si el tema es relevante importante yo creo que hay que contextualizar un poco, pero el ejercicio los que nos hacemos una evaluación por parte de un investigador, de una propuesta de un proyecto en un marco de fases Qué significa Significa? Que no podemos pedir a este investigador o grupo de investigación que se convierta en una jueza que basa a evaluar casos de derechos fundamentales. Digamos, el salto assessment, como en muchos otros sectores, está bajo de la evaluación perfecta y cumplida del problema. Cuando hago una autoevaluación, la hago en el sentido de reducir lo que se pueda, los impactos. No podemos pedir al investigador el mismo nivel de detalle. El mismo nivel de conocimiento que puede tener un juez experto en derechos fundamentales no es la Corte de los derechos humanos, son investigadores. La idea es que el investigador pueda entender que hay un problema por la duda e intentar mitigar ese es un poco después, porque lo digo porque en el marco europeo no se tapar a todo con el Sahel. Fase de ESMA, porque ha implorado hoy esta tarde y estar en un comité de valoración ética de los proyectos, y así donde hay expertos que van a evaluar serles fases. Se ha hecho bien, se ha hecho mal. Si hay cosa que no se han incluido, no se han considerado, y después de esta evaluación vamos a salir a decir a la al investigador que quiere, que necesita cambiar. Si lo investiga el tono no le entienden, lo hace bien. Habrá otra evaluación con un panel específico por su proyecto. Hasta al caso más grave que investiga actor no cumple con el derecho fundamental. No se proporciona la financiación. Por eso, eso para decir que esta parte del ser fases en la parte inicial de un procedimiento más amplio y por eso no puede, no es necesario tener un nivel tan elevado, digamos de análisis de riesgo a nivel jurídico que tenga en cuenta toda la diferencia, toda la parte más específica en más de detalle de los derechos fundamentales. Eso primero, segundo. El marco de los derechos fundamentales, aun con diferencias nacional, pretende ser un marco universal, digamos, hay diferencia, pero los derechos, la parte básica del derecho siempre es la misma y, tercero, el marco de los derechos fundamentales. Se basa sobre la ética, pero no es ética. Ese es un punto importante porque muchas equivocación, empezando con la eleve del grupo artificialmente al I más D Comisión Europea, mucho que sea barato, porque se han presentado los derechos humanos como principios éticos. No, no es correcto porque Viesgo es que este derecho no se entienda como funcionan de verdad, porque claramente son resultado de una interpretación jurídica de una aplicación por los tribunales, y todos los principios éticos sigue un patrono, un poco distinto. Son más de la población filosófica y todo o del comité de ética. Por eso digamos, aunque se llama evaluación ética, es parte de la evaluación ética, esos son principios jurídicos y por eso para entenderlo bien hay que mirar a la estructura jurídica, a la decisión de los tribunales, y todos yo creo que está idealmente, es decir, se ha de tener distintas las 2 partes. La evaluación ética de la inteligencia artificial y la valoración jurídica es muy importante, porque yo puedo tener un proyecto que no impacta sobre los derechos fundamentales, pero ese es un proyecto muy invasivo, un sistema de smart cities muy invasiva, que transforma la ciudad en algo que está muy controlado, por herramienta algoritmo muy controlado, muy centralizado. Eso no tiene que ser, encuentran los derechos fundamentales, pero nos proporciona un marco social que Qué específico y que la las personas de esta ciudad pueden decidir que no, no es el marco que quieran, y ese es un tema de impactos sociales, impacto ético, pero a nivel de derechos fundamentales puede ser que no haya ningún problema de violación de derechos fundamentales. Por eso los 2 tienen que ser distintos complementaria y distintos. Muchas gracias. Bien, pues tendréis más o más opción de hacer preguntas, luego al final, pero ahora se incorporan a la Mesa José Palma, José Tomás Palma, que es coordinador de investigación de la Universidad de Murcia; se incorporan también Ramón García, que es coordinador del programa en historia María Sicilia -Piñero coordinadora del programa de Ciencias de la empresa y Elisa Palacios, coordinadora del programa de Física. Ellos nos van a dar un poco su opinión desde los distintos programas de doctorado, cómo se ven estas implicaciones éticas y, bueno, pues van a ir más a las cuestiones concretas que a vosotros atañen no de vuestros, de vuestros, del desarrollo de nuestra tesis doctoral. Muchas gracias a un grupo tan tan, tan interesante iniciativa, y que espero que muchos de los investigadores que hay aquí que está iniciando cara a investigación, no, pero hay al pedir un proyecto para hacer un análisis de lo de las implicaciones de la investigación, que estáis pensando para, de alguna forma, adaptar hoy anticipar hoja a la reglamentación que se está creando y que en el futuro y en el presente tenía que cumplir el objetivo. Ahora es ya no solo abordar estos aspectos éticos y un poco basados en la reglamentación de las aplicaciones y la investigación, la guía, sino también ver el impacto que está teniendo la guía en distintas áreas y en distinto doctorado. Para ello están aquí compañeros que son coordinadores de programa de doctorado, que van a dar su visión de cómo está impactando la interinidad inicial en la investigación que se está desarrollando en sus años y qué retos está poniendo, que están intentando afrontar en su investigación. Para ello tiene la palabra Elisa Palazón, coordinadora de Palacio; Perdón; Palacios, coordinadora del programa de Física en materia condensada y una noción señor Pezzi advertía buenos días yo tengo buena voz bien yo soy la coordinadora de digamos del programa de doctorado, de física, donde tenemos que decir que la inteligencia artificial juega un papel muy importante. Nosotros le damos un uso muy amplio y en esta charla la verdad es que justo el punto ético es que es el que yo creo que tenemos un poco más marginado, porque nosotros no trabajamos con la gran mayoría, ni animales ni personas ni, o sea, por si las muestras tampoco tienen tanto sesgo, entonces como que lo de derechos fundamentales siempre lo dejamos cuando hay que rellenar ese apartado es como a ver qué pongo, pero sí que es cierto y a mí me has hecho reflexionar mucho en que os ha vamos a ver cualquier físico, y yo creo que se puede extrapolar a química o incluso a bioquímica, biofísica o ramas. Así más, biosanitarias. Somos conscientes que a lo largo de la historia nuestros descubrimientos aunque a corto plazo siempre pensamos que esto no vale para nada, pero en realidad a largo plazo cambian el mundo y sabemos que pueden ser lo mejor y lo peor a la vez, o sea cualquiera de nuestros descubrimientos. Si se les da un buen uso para ayudar a salvar vidas, van a mejorar la calidad de vida y si se les da un mal uso van a convertir, se van a destruir. Todo. Vamos a poder. Tenemos ejemplos muy claros. La energía nuclear los láseres, los cualquier cosa, entonces siempre te queda. La esto de que hago lo descubro o no lo descubro, pero es cierto que en el día a día nosotros ese aspecto como que el conocimiento es conocimiento y además yo creo que en general cualquier científico piensa que el conocimiento tiene que ser de todos hay que compartirlo. Entonces, claro, si tú lo comparte es, pues hace. Es que el uso que luego se le dé sea muy variable para nosotros, justo además la semana pasada ha estado en el Congreso y hemos hablado mucho de la inteligencia artificial y que la usa situ, que tal y y aquí como Podemos, ahí dentro grupito, para si es verdad, hemos Por qué Porque para nosotros es una herramienta fundamental, sobre todo porque ganamos tiempo, se ha escapado de ayudarnos a ganar tiempo de una forma escandalosa, sea yo. Estoy sorprendida. La productividad, cómo ha aumentado mi productividad gracias a la inteligencia artificial y así puedo, o sea, lo que sí que creo es que hay que darle un buen uso, no tiene que ayudar que no hacer tu trabajo porque en sí sí la inteligencia artificial puede hacer tu trabajo. Entonces tú ya no eres necesarios, eso está claro, no va a ser más barato, vale? Entonces sí que yo creo que sobre todo es útil y yo soy muy partidaria de usarla, análisis de imágenes, procesamiento de datos, te ayuda en la burocracia, es, pero vamos a ver, es cómo otro gran descubrimiento, pues como cuando se inventó la calculadora o cuando se inventaron los ordenadores sea fue lo que pasa, que yo creo que lo que nos atribuya de la inteligencia artificial, en la velocidad con la que es capaz de generar datos, o sea, siempre necesita su proceso de asimilación, y yo creo que en estos momentos la inteligencia artificial va muy rápido, igual a veces nos gana en la capacidad de asimilación, pero vamos, yo en general creo que por lo menos en nuestro campo, en el campo de Física, Ciencias, valer en general, es una herramienta muy útil. Es una herramienta que debemos usar, que debemos usar con cabeza, pero como todo me refiero igual probablemente muchas de las cosas que va a descubrir la inteligencia artificial o que nos va a ayudar a descubrir, se descubrirían igual, lo que pasa que mucho más tarde o con mucho más esfuerzo o con muchos más recursos, pero se van a descubrir. Igual entonces no es una cuestión de se descubre, no se descubre si no, que hay, que luego el uso que se va a hacer, de que se va a hacer. De eso yo tenía una preguntita para ti a ver, efectivamente en el marco de la Unión Europea hay es un marco muy estricto donde los derechos fundamentales, la ética, es fundamental porque afortunadamente vivimos en una sociedad razonablemente democrática, razonablemente justa, pero a mí siempre me ha generado un poco de conflicto, es decir, verdad? Yo he sentido en los proyectos de la Unión Europea que muchas veces, como que coacciona un poco, porque no puedes hacer cosas porque quizás efectivamente podrían llegar a ir contra los derechos fundamentales, pero luego me pregunto y digo si en China en muchos sitios realmente se lleva a cabo esa investigación. Luego, si ellos te atacan con eso, igual los derechos atacan tus derechos fundamentales, mucho más de lo que tú los de lo que tú lo sabría, se ha atacado, y yo no sé si es conveniente también desarrollar esos proyectos, aunque luego no se usen, aunque haya que legislarlo de una forma diferente, aunque obviamente hay que tener mucho cuidado con eso, pero no hacerlo no sé si real, o sea, es algo que a mí me genera un poco de conflicto, o sea, no tengo una respuesta para eso y me gustaría conocer tu opinión más profesional al respecto. Muchas gracias por esta pregunta y también lo que dije antes, que los físicos o químicos claramente están menos relacionándola derechos fundamentales, pero depende porque hay menos, pero algunas cosas hay, por ejemplo un proyecto de inteligencia artificial puede ser utilizado en un procedimiento químico o físico que puede producir daños al medio ambiente o de años a los investigadores, y eso también son derechos que tenemos que mirar claramente. No tienen un alcance de derechos fundamentales, como los proyectos sociales. Claramente reaccionado. Tu pregunta es un tema muy actual, muy debatido también en el pasado. Nosotros no hacemos algunas clases de investigación porque consideramos que no está alineado con el marco ético y jurídico europeo, y otros lo hacen un ejemplo claro, es mío, derechos de derecho en toda la parte de la no ni humanos, y todos sin han hechos que son, encuentra al principio ético ser europeos, y ahí investiga todas las que se hagan allí por hacer I más D en un mundo global. Es muy difícil, digamos, poner barreras claramente, y hay un problema que, por ejemplo en China, entrega a la inteligencia artificial sobre los datos de los chinos, sin proteger sus derechos a los datos personales y o peor otros, libertades, y claramente esta herramienta de inteligencia artificial. Después vuelve a Europa muy barata y también de manera que no cumple con los derechos fundamentales. Aquí hay 2 problemas. Primero es no es un programa primera, es la perspectiva europea. Si tú quieres en algunos valores tienen que ser coherente con estos valores, y ese es el debate que tenemos en este momento exactamente con independencia artificial. Regular no, regular, suavizar y todos y a los encuentra una otra solución claramente siendo de derechos humanos fundamentales. Prefiero vehicular y controlar que no haya impacto sobre los derechos, pero al final lo que tiene que ser claro es que la decisión política Unión Europea, decide de de regular, de hacer como es estatus nitroso como China puede hacerlo, pero tiene que ser una decisión política. Los tratados europeos quieren decidir qué quieren un Estado controlador como China. El año que viene algo el metro, que pasa bajo el río amarillo el año que viene es un caso de la que me he pasado muchos años atrás el año que viene el metro está y ni talla para hacer una línea de meterse en pasado 10 años, porque ha de ser impacto medioambiental, valoración artística, y todo eso ello pasa en ella, está y es su manera diferente de vivir en el mundo. Yo creo que eso es un problema. Gloriam. Señala Europea creer. Algunos valores. Ha creado cartas fundamentales, ha creado marcos éticos y todos tiene que seguir esta. Esta directriz, aunque deba costar digamos, se ven también los beneficios, porque, claro, el problema de la competición, de todos, pero por otro lado sitúa esa mira como vivimos en Europa, nosotros lo que pasa. En estatus Unidos, lo que pase en China, lo que pasa en algunos países no lo sufrimos los derechos del estudiantes, los derechos de la investigadora sabrá respetado. No te pasa como ahora que un presidente te dice que no tendrán dinero porque no le gusta. Digamos, hay un traidor. No se puede tener todos la protección de los derechos tienen ventajas y nosotros podemos investigar. Pues deben llegar de manera libre, no tenemos el Estado que nos controle todo, pero tiene límites. También tú te vas en China les trató de dar dinero para poder hacer la investigación que quieren Estado, como quieren mezclar no es exactamente la misma cosa, pero no hay no hay una respuesta, digamos en una respuesta política. Si Europa quiere tener un marco europeo que al final es su identidad su identidad. Esa es la vía. Si no digamos que identitario europea, es diferente que no nos reconocemos en lo de antes, en la Carta de Derechos Fundamentales, los principios éticos y todos que para nosotros es el beneficio económico. La eficiencia son las cosas más importante y por eso podemos sacrificar a todos. Es una solución que se puede hacer para ser una decisión política. Muchas gracias, Alejandro. Muchas gracias, Elisa tiene la palabra el coordinador del programa de historia geografía e historia del arte Ramón García. Ahora así ahora Muchas gracias. Bien, buenos días a todos. Muchas gracias por la invitación para estar en esta mesa. Excelente ponencia del profesor Abel Sandro. Yo voy a compartir con ustedes un ejercicio que hice este fin de semana a propósito del tema que estamos tratando. Muchos de vosotros o de ustedes conocéis una, hay muchas herramientas, no yo utilice el ICI, la herramienta del ICI que bueno, como aquí se ha dicho, pues te ofrece una agilidad tremenda para analizar una serie de textos o que ya se han publicado. Entonces, es en este programita, introduce lo que a ti te interesan y le puede pedir que, bueno, que te diga que saquen alguna respuesta, no ventajas, comparar que te comparen metodologías, puede decirle qué implicación política puede tener ese IPC, etcétera, y metiendo una gran cantidad de textos. Hice un ejercicio muy simple para la rama de Artes y Humanidades, incluso de la ciencia social, y en la que nosotros trabajamos en nuestro programa de doctorado, y a raíz de eso, de esos textos, hice un una síntesis y un análisis DAFO, un breve análisis DAFO para ver respuestas une a eso, texto, no. Entonces, desde el punto de vista de las humanidades y las ciencias sociales, yo tengo aquí una serie de datos que aparecían de forma común en ese aspecto. Por ejemplo, debilidades. Vamos a empezar por las debilidades de la inteligencia artificial en ese, en esa rama no, o no dice como aquí ya se ha hablado por el profesor de Sandro, que una debilidad es la descontextualización del conocimiento; es decir, la guía puede interpretar datos sin comprender lo matice culturales, históricos o semióticos propios de la de las humanidades y de la ciencia social; otra debilidad que aparece de forma común. La falta de formación técnica en los investigadores de esta rama de humanidades y ciencias sociales, sobre todo para aplicar, evaluar o interpretar por renta correctamente; los resultados. Otra debilidad; dependencia de herramientas opacas. Aquí también se ha dicho; o limitaciones en la interpretación cualitativa por ejemplo. La inteligencia artificial aún no puede sustituir al juicio crítico humano, necesario en la interpretación de significado simbólico y fenómenos sociales, complejo amenazas. Por eso aparecía de forma común que existe un reforzamiento de seco, cultural y lingüístico, es decir, muchos modelo de inteligencia artificial. Están entrenados en dato, mayoritariamente anglosajones, o eurocéntrico. Lo que puede invisibilizar perspectiva más diversas. Otra amenaza, la privatización del conocimiento y herramientas, es decir, herramientas de inteligencia artificial, propietarias pueden limitar el acceso abierto, la reproducida e incluso la soberanía científica y otra amenaza que aparecía bastante en bastantes ocasiones era, son lo que aquí se ha dicho, riesgos éticos y de privacidad, sobre todo en investigaciones que analizan dato personal que son muy comunes en historia redes sociales entrevista imágenes etcétera bien como fortalezas aparecían las siguientes pues capacidad para procesar grandes volúmenes de dato cualitativo y cuantitativo de curso y Mazn datos culturales; se utiliza mucho en historia, historia del arte, apertura nueva, metodología de investigación, enfoque computacionales, sobre todo que se complementan con los métodos tradicionales, mejora de la eficiencia y la precisión del análisis, porque auto se automatizan tarea como la codificación entrevista la transcripción de electos o la revisión, bibliográfica, optimizando los tiempos y luego otra fortaleza que no decía era la accesibilidad, fuente histórica y cultural digitalizada. Esto nos permite analizar archivo digitalizado de manera mucha más, mucho más exhaustiva y rigurosa, y luego como oportunidades, pues no, no decían lo siguiente. Innovación metodológica e interdisciplinariedad es decir fomentar la colaboración entre científicos sociales humanista informático estadístico etcétera eso viene muy bien mayor alcance y democratización del conocimiento La inteligencia artificial, por ejemplo, puede facilitar el acceso a resultados de investigación complejo y además promover su comprensión en público, no especializados, desarrollo de herramientas digitales y específica para Humanidades, y Ciencias Sociales, por ejemplo, el aumento del interés en crear soluciones de inteligencia artificial, adaptadas a la necesidad de la humanidad digitales; o la evaluación de fenómenos sociales emergente, la inteligencia artificial, por ejemplo, permite el análisis casi en tiempo real de dinámica social en red de discurso político fenómeno cultural etcétera bueno hay muchísimas más cosas pero como somos mucho en la mesa, para finalizar, bueno, decir que también era común encontrar en los autores una una reflexión y en este caso esa reflexión podría ser la siguiente. La futura línea de investigación en humanidades con inteligencia artificial no solo responden a la tecnología, es decir, la interroga, la transforman, le ofrecen mundo alternativo en lugar de adaptar las humanidades a la vía. Muchas propuestas apuntan a reformar la guía desde las humanidades con un foco en el contexto. Como aquí se ha dicho en la historia, en la subjetividad y además, en la imaginación. Muchas gracias. Por parte del programa de doctorado, ciencia, la empresa tenemos la profesora María Sevilla -Piñero es un placer estar aquí en nuestra área, en empresa, en economía también como su representante en Ciencias Sociales y Jurídicas. También presentó comunicación Educación en todas estas áreas. Yo creo que a nosotros la inteligencia artificial, como ha dicho mi compañera, también es física, que es curioso, pero coincidimos en algunas cosas, no está ayudando realmente a ser muchísimo más productivos. Hay tareas que antes no llevaba muchísimo tiempo, como la de revisar un texto en inglés ayudarnos con una traducción. Yo particularmente soy una persona adictivo directamente en inglés, pero siempre oportuno eres un antiguo en inglés, no somos nativo en ninguno de los alguno a lo mejor sí; pero nosotros no hemos nacido, no nos hemos criado entonces hay matices que se nos escapa, y ahí la inteligencia artificial, pues es una ayuda diaria para los que normalmente leemos suscribimos casi todo en inglés. Además, en ciencias sociales nos ayuda mucho la inteligencia artificial. O está ayudando con un campo con el que la parte matemática, que a veces nosotros podíamos estar un poco más perdidos, estadística Pues puedes echar mano de la herramienta de la guía para si te da un fallo. Por ejemplo, un software adictivo que utilizaba mucho como leer, pues donde nos hemos atrancado, por qué estamos fallando? Nos echa una mano para decirnos hoy el problema está allí; revisa esto y algo en lo que antes a lo mejor podíamos perder 24 Horas dándole vueltas con el error, error error, y no sabías cómo solucionar el problema tenía que echar mano de compañeros y demás. Pues ahora simplemente ponerse el código de error y te dice. Oye, mira revisar esto, que el problema está aquí y entonces nos ayude a ser mucho más ágiles, mucho más rápidos. También hay software específicos que nos ayudan a la descarga de datos para luego poder analizarlos o no solamente en la descarga de datos, por ejemplo, de redes sociales o de reseñar sobre obligaciones. Reseñar sobre hoteles, descarga de bullying, por ejemplo de tipo va y sol; tenemos una cantidad de datos ingente que han destinado que recurrir a codificadores externos, manuales que normalmente eran estudiantes de doctorado, que nos echaban una mano en esa modificación de esa información, y ahora parte de esa modificación se puede hacer de manera automática, con lo que no desaparece la manual, pero que sí que ayuda mucho en el inicio en la descarga automatizar, proceso que antes se hacía de manera manual. También puede dar ideas de algún análisis estadístico que no se te ha ocurrido, que se pueda utilizar, pero al margen de toda esta ayuda yo con la idea que quería que se quedara a la audiencia en mente es con que la herramienta, las herramientas de inteligencia artificial deben usarse siempre como un soporte, como una ayuda, pero nunca hay que perder la perspectiva de que somos nosotros. Los autores de ese trabajo. Somos nosotros. Los que firmamos el trabajo no es ninguna herramienta de ella. Somos nosotros los que tenemos que revisar quién resultado a la ayuda que le hemos pedido a la guía? Es correcto? Somos nosotros, los que tenemos que leer, los ves, sobre todo, en la etapa inicial en la que se encuentra mucha parte de la audiencia, que es la realización de su tesis doctoral. Solamente vais a hacer la mayoría de vosotros una tesis doctoral. Solamente tenéis estos 3 o 4 años para lee y, para empaparnos de ese conocimiento o de esa idea de si es que tenéis más allá de ese tiempo, luego llegan otras cosas, llegan obligaciones docentes, llegan obligaciones de gestión y ese momento que tenéis para disfrutar del proceso, para leer, para aprender, para generar ese pensamiento crítico. Este es el momento y, entonces, no tenéis que dejar que esas herramientas impidan que ese pensamiento crítico se desarrolle en vosotros, tenéis que utilizarlas como una herramienta de ayuda, no de creación, no de generación. Yo creo que esa es el mensaje clave que a mí me gustaría enviar a esa audiencia y luego tenía también una pregunta para el ex Sandro, porque es verdad que nosotros como investigadores conocemos la mejor mejor la parte técnica, pero esta parte hay algo en lo que nosotros estemos trabajando en ciencias sociales que pueda y está dando la vuelta mente a toda la presentación de Alexandra, no daba que pueda tener efecto en los derechos fundamentales para los que trabajamos en economía o ciencias sociales. Más allá de que nosotros damos el dato a nivel agregado y buenos, hacemos análisis. No se me ocurría, como normalmente utilizamos los datos a nivel agregado, digo si nosotros los datos individuales de si esa persona es hombre o mujer el género, con el que se identificó al que pertenecen, no nos vamos a utilizar nunca para nada. Realmente no se me ocurre, pero no sé me imagino que que 1 tenga formación jurídica, pero no sé si en proyectos de investigación del ámbito económico empresarial, si se desarrolle alguna aplicación hecha con inteligencia artificial, pues seguramente sí; pero si lo utilizamos para ser más productivos, que es el principal uso que se le da en nuestro ámbito, la descarga o el análisis de datos son la redacción o en la búsqueda de información no sé qué tipo de derechos fundamentales suelen verse en nuestro ámbito más afectados, y si no pueden poner algún ejemplo. Gracias. Gracias. Digamos que cuando hablamos de inteligencia artificial hablamos de varios, su utilización es claramente la utilización que sirven solo para ayer y dar unas procedimiento también de investigación, no solo que preocupan a nivel de impacto sobre los derechos fundamentales. Los que preocupa es cuando de herramienta de 30 de inicial quieren tiene una repercusión, digamos sobradamente entorno social, así que también en economía o gestión puede pasar que yo voy a crear, por ejemplo, una herramienta para destinar recursos públicos, para proporcionar ayudas con prioridad diferentes a personas que van a pedir ayudas públicas por cuestiones económicas cívicamente y para análisis masivas de miles y miles de solicitud voy a crear una herramienta de de división. Esa herramienta hace una tarea que es de gestión económica de todo, pero puede tener sesgo. Puede tener problemas en este caso. Yo me pongo a analizar los problemas, digamos, desde la perspectiva del derecho fundamental. Por otra parte, se solo una inteligencia artificial que me ayuda a revisar la traducción a todos esos de funcionamiento. La única cosa que quiero un poco subrayar, que está alineado, creo que hubiese antes, es que hay que tener en cuenta los costes, esta herramientas, los investigadores que utilizan también una herramienta para dar traducción. Por ejemplo, tiene que revisar la traducción, porque se equivocan estructuralmente, se equivocan las alucinaciones; son parte de ese sistemas y por eso también, como decía tú a el problema de exceso de confianza en esta herramienta, y también hay un problema metodológico. Yo creo porque tu deseo, honestamente, hay que leer cuando se investiga. Si ahora muchos utilizan. Es realmente interesante el inicial. Para resumir. Yo conozco este país que conozco erres; comer resumen que me ha proporcionado de intervención inicial primero resumen puede ser equivocado segundo en resumen como en España para desde pequeño en detalle te hace hacer resumen del libro que tienen de veranos. Pero es el turno leído. El libro toda la parte de aprehender, la estructura, la oiré, tanto la tela pierdes. Así que digo eso me preocupa mucho porque también investigadores también a nivel de doctorados hay varios que ahora dicen. Diera resumen de estos y hacer la evaluación. La análisis electoral dure. En esta manera tiraba trabas o resumen. Extremar su papel es ese, es un punto bastante importante. Tiene la palabra el profesor Sebastián Cánovas, coordinador del programa de doctorado en biología y tecnología de la salud reproductiva. Bueno, muchas gracias. Lo ha dejado al final porque o el más crítico en Chipre, de de ética por la, por la oportunidad de participar a los organizadores si, tal y como como ya adelanta el profesor Palma, nuestro programa de Biología y tecnología de la reproducción. Claro, lo aspecto ético -legales siempre han sido muy importante. Incluso cuando la guía no existía firma nos daban muchas complicaciones y mucho periodo de reflexión, mucha autorizaciones y, claro, con este nuevo avance, pues todavía se nos plantean cuestiones más relevantes. Por ser breve, voy a dirigir mi intervención en un punto muy concreto, pero nosotros trabajamos en el entorno de el uso de técnicas de reproducción asistida, fecundación in vitro producción de embriones por resumir mucho, donde pueden ser de origen humano o de origen de distintas especies animales, y aunque lo hagamos siempre en el contexto de la investigación, no debemos olvidarnos que muchas veces las decisiones a futuro que se toman a nivel de políticas están basada en resultados de investigación que hemos generado y que intentamos que sean útiles para la sociedad. Respondan a los nuevos retos que se nos plantea, más aún no en esta política de o pensar ya no ciencia abierta donde los CIE la ciudadanía, incluso tiene que intervenir. Entonces, en esa, en esa situación, más desde el punto de vista, como coordinador del programa de doctorado y de un proyecto, proyecto europeo de red doctoral que acabamos de presentar, el viernes pasado, lo los resultados del primer año a los representantes de la Unión Europea, me he visto totalmente representado en la intervención del profesor mantener, o cuando hablaba de que los investigadores no conocemos los derechos fundamentales, especialmente la parte ética, pues tenemos más, va a gravar un poquito más de trayectoria, tenemos apoyo de los comités de ética bioética. Pero no enfrentamos, a ese es a 6 megas. Llevaba toda la acción de forma bastante de protegido. Podemos no buscar herramientas y está un poco más en otro caso. Por ejemplo, en el proyecto que tenemos, que lo que viene a analizar es consecuencias y efectos que puede tener el uso de esta técnica de reproducción asistida en los individuos que se genera y qué impacto tienen en, por ejemplo, la persona nacida por esta técnica a largo plazo? Cuando tienen 30 o 40 años hemos hecho ese extensa esa evaluación de la parte ética, lo enviamos a la Unión Europea, no nos han pedido ningún requisito más, pero, por ejemplo, el Gobierno, el apoyo oficial no decía que le sorprendía que no lo pidieran más apreciaciones que tuviéramos en cuenta que en cualquier momento, pues no la pueden pedir. Entonces yo lo que un poco quería reflexionar con los compañeros, que no encontramos bastante desprotegidos, y cuando ya pasamos a la parte de los derechos fundamentales, que realmente necesitamos más apoyo desde nuestra instituciones. Viendo cómo está la situación, que incluso la Unión Europea todavía no tiene un sistema para poder evaluarlo, para poder 1. Yo lo que pediría que a través de los representantes no de la escuela de doctorado, que tengo aquí llegarán otros rector a muchos vicerrectores la necesidad de tener apoyo y que a lo mejor para ser rápido efectivo tiene que ser malo a modo de red de CRUE, no para poder dar una respuesta que nos permita seguir siendo competitivo en los proyectos de financiación europea, porque si no, quizás a veces no vamos a ver frenado por esa incertidumbre y es todo lo que quiero enlazar, no con la parte que va más dirigida puedan 8 estudiantes de doctorado y lanzarle la pregunta al profesor Montenegro, y es que en esta situación de incertidumbre de conocimiento, sobre todo para los que no conocemos cómo funcionan los algoritmos, cómo funciona la parte técnica de la guía para mí de falta de transparencia cuando justo lo que se nos piden lo contrario no reproducir habilidad transparencia ciencia abierta éticamente cuál sería la postura más correcta tanto de nuestro estudiante como incluso de los profesores como directores, hacer uso de la vía 1, hacerlo y que que el límite o qué requisito mínimo tendríamos que marcarnos por el momento. Nosotros mismos porque a nivel legal todavía no está bien fijado para decir. Bueno, considero que estoy haciendo un uso al menos éticamente adecuado y cuando estén los parámetros normativo pues habrá que evaluarlo porque creo que no usarlo también éticamente irresponsable porque, como hemos dicho, no permite hacer un mejor uso, por ejemplo, de los recursos públicos, que al final lo estamos pagando entre todos los ciudadanos como 1, ponerse a hacer ahora los cálculo sobre papel diciendo Pues que ha sido muestra más su capacidad. No, creo que también sería éticamente irresponsable. Muchas gracias. Yo creo que en 2 cosas primero conteste a la pregunta. Yo creo que el problema no es usarlo, no usarla y programada sin verse en cómo la vamos a usar. No podemos decir que la ética o los derechos fundamentales nos dice que le interesa artificial. No se puede utilizar también porque inteligencia artificial, aplicación muy tonta y complicada, digamos, no es un monolito, la inteligencia artificial tú puede utilizarla para traducir, no me queda mucho problemas y pueda utilidad para estimular un sistema balístico. Me puede aclarar problemas, digamos, hay aplicación diferentes. Así que yo no creo que es un sí o no, el problema, que, entiendo es el problema de la falta de conocimiento y que por eso puede llegar a decir, yendo al lavabo Civil o para no equivocarme hoy a la utilidad y no me preocupo de la consecuencia. Yo creo que aquí hay que trabajar a nivel de organización. Como decía, por ejemplo, la escuela de doctorados introducir cursos para explicar al estudiante, doctorado. Cuáles son el problema ético y Google Índico, relacionados con la utilización de la inteligencia artificial. Nosotros le hemos hechos de manera experimental, de manera voluntaria, cincos, estudiantes esas inicie que no puede ser de manera voluntaria. Se la dan las universidades. Entienden que es un reto, es importante. Eso tiene que es parte necesaria de la formación de la investigadores, también la análisis de los retos jurídicos y legales de la inteligencia artificial y, por otro lado, a ese poder la formación. Por otro dato, necesitamos universidad, que proporcionará también apoyo como tenemos el delegado de protección de datos. Es su Oficina para la protección de datos. Habrá que crear un experto de derechos fundamentales con la nueva oficina para proporcionar soluciones y apoyar este, les investigue todas las cuales se van a enfrentar a este problema. No es una cosa tan urgente, digamos, porque también en la Unión Europea se está estructurando. Ahora el panel ético no tiene, es experta y derechos fundamentales, pero claramente es un poco la directiva, por ejemplo, ese modelo catalán que hemos desgranado ya, le hemos presentado a la CUP a la Conferencia de los rectores, ya han tomado tono a las grandes o simplemente interesantes. Consigamos el problema de ser un poco pasar de estas mesas de rotondas, donde estuve muy muchas ideas útiles e interesantes; aplicación que todos dicen, 100 interesantes y es necesario, pero la fase de implementación necesita mucho tiempo y eso también afecta a lo que se dice antes de la competición con China, con todos, porque no es solo que tenemos valor desde el principio y que también se dará a ese principio poder ponerlas en marcha. Esta acuerdo no insistamos demasiado chico, así que se basa a parar un poco era crear incertidumbre. Esto no es muy útil. Muchas gracias. Yo, para cerrar antes presentarme primero, como yo fui coordinador del programa de doctorado en informática y básicamente de investigación en inteligencia artificial. Tengo ya mis años, puedo contar mi batallitas del abuelo de inteligencia artificial y, evidentemente, este boom último que ha sufrido el último año supone un cambio en la forma de investigar y en la forma de analizar la investigación, que ya ha comentado lo ha comentado. Les han dado que como ingeniero y tecnólogo no estamos asumiendo. Es decir, yo además soy miembro de la comisión ética de la universidad, y cuando hablo mi compañero de que la mayor parte de la investigación necesario tiene que pasar por el comité se pone la mano en la cabeza, dice que no, que no lo entienden, y ya lo comentaré con él, porque son caso flagrante de no miramos o no se mira el posible uso investigado por investigar, porque un reto lo intentamos resolver, lo he resuelto, pero no miro cuáles son las implicaciones, y es algo que, evidentemente, poco a poco hay que formar. Recogemos, supongo que Pilar, la miel ha recogido, porque ahí estamos coordinados, vicerrectora de investigación con la cola otorgado, sobre todo por los cursos que están haciendo; aspecto éticos, sobre todo por la formación, ahora el derecho fundamental, pero, como dice, si todavía no se aclara la Unión Europea, pero evidentemente en ese aspecto ido a trabajar y desde el punto de vista moral, sino, evidentemente el asesoramiento de, se lo tienen por los comités de ética y también sé que la oficina proyecto europeo tiene, necesita que está ayudando, pero evidentemente nos falta ese tipo de formación, pero tenemos Alexander encanta venir. A Murcia tenemos un jubilado maderero, y a la del instituto, cuyo derecho, que ahí tenemos un apoyo muy fuerte para para hacer ya como reflexión final la inteligencia artificial, ayuda, lo han comentado todos es evidente, ha desandado, nos ha mostrado que cosa le deberíamos pedir a la herramienta que estamos utilizando y que no, no nos explica y que, evidentemente el uso tiene que ser racional. Es una herramienta muy potente pero una herramienta que sustituya aspecto que debe lentamente y sobre todo vosotros que estáis en formación deberían adquirir de acuerdo y, sobre todo, esa capacidad de pensamiento crítico, algo que no se puede perder y que no puede ayudar mucho a sacarle el mayor rendimiento a este tipo de herramientas. Muchas gracias al acuerdo adoptado por imitación y a vosotros por.

Propietarios

UMtv (Universidad de Murcia)

Publicadores

Dirección De La Eidum
Escuela Internacional de Doctorado
Samuel Lopez Asis

Comentarios

Nuevo comentario

Serie: X Jornadas Doctorales EIDUM-EINDOC-CMN (+información)

Edición 2025

Descripción

Las X Jornadas Doctorales de la Universidad de Murcia reúnen a referentes del ámbito académico y científico en tres sesiones plenarias que abordan los grandes desafíos del conocimiento en la era de la inteligencia artificial.

El lunes 23, el catedrático Alessandro Mantelero (Politécnico de Turín) abrirá el debate con una reflexión sobre la ética de la IA aplicada a proyectos de investigación.

El martes 24, el vicerrector Pablo Pavón Mariño (UPCT) expondrá las claves para integrar eficazmente la inteligencia artificial en el proceso doctoral, destacando herramientas, retos y oportunidades.

Cierra el ciclo el miércoles 25 Marina Pilar Villegas Gracia, directora general de Investigación en la Comunidad de Madrid, con una mirada al presente y futuro del sistema español de ciencia, tecnología e innovación.

Las plenarias, abiertas a toda la comunidad universitaria, se celebran en el Salón de Actos del Centro Social Universitario (Campus de Espinardo) y contarán con la participación activa de coordinadores de programas de doctorado y responsables institucionales.