Idioma: Español
Fecha: Subida: 2022-11-09T00:00:00+01:00
Duración: 1h 10m 33s
Lugar: OnLine - Online
Lugar: Conferencia
Visitas: 1.081 visitas

Ética para convivir con la inteligencia artificial y los robots

Ética de la aplicación de la inteligencia artificial en la sociedad

Descripción

El Dr. Txetxu Ausín, científico titular del Instituto de Filosofía del CSIC (Madrid) y Presidente del Comité de Ética de dicho organismo, nos mostró cómo la inteligencia artificial está instaurada en todos los aspectos de nuestra vida, como nos afecta, sus implicaciones, la necesidad de hacer un buen uso y de ponerle límites y sus implicaciones éticas.

Transcripción (generada automáticamente)

Señora si ahora salido que está grabando buenas tardes, bienvenidos. Bienvenidas a esta conferencia que hemos organizado desde el Vicerrectorado de Investigación con motivo del 20. Aniversario de la Comisión de Ética de Investigación de la Universidad de Murcia. Hemos realizado ya otras conferencias a lo largo de este año y hoy tenemos el honor y el placer de leer con nosotros. Ha hecho sin que el científico titular en el Instituto de Filosofía del Grupo de Ética Aplicada sea doctor en Filosofía por la Universidad del País Vasco, premio con Premio Extraordinario, profesor invitado en varias universidades y colaborador en el Instituto de Gobernanza Democrática. Sus áreas de trabajo son la ética pública, la bioética, los derechos humanos y la filosofía de las tecnologías disruptivas es miembro del OS de. Data o forzosa, el Economic editor editoria autor de varias obras sobre estos temas, ha sido fundador de la revista electrónica aplicada dilema, y en la actualidad forma parte de los equipos de investigación de este, que significa, bidireccional neural. Existen datos en salud de la Fundación Séneca de Murcia, detección y eliminación de ese en algoritmos de triaje y localización para la 9, desde la Fundación BBVA Bazar. Va Karzai soledad no deseada y cuidados que está auspiciado por BBK, Cunha, presidente del comité de ética de este. Sí colabora también en la red espacio o estética, salud vista para la acción, cuidados y observación social, y en el cluster de ética del País Vasco. Bienvenido, querido amigo, hecho. Si considera que estás en tu casa, que además tienes una intensa relación con la Universidad de Murcia a través del cerebro es a través de nuestro centro de estudios en Derecho y por lo tanto, para nosotros eres una persona muy cercana, muy querida y desde luego pues estamos encantados de tener esta tarde para hablar de la ética en relación con los robots y la inteligencia artificial así que tienen la palabra gracias techo pero que si recibes la presentación envidio eso me siento en casa porque para mí Murcia y el centro de estudios de Derecho Salud, pues es como un segundo hogar. De hecho, los constituidos recientemente, una unidad asociada entre sí el Instituto de Filosofía y cual formó parte, así que me hubiera acto participar en este ciclo, también la vicerrectora de Investigación, la invitación a este ciclo de conferencias que celebran el conmemorar el vigésimo aniversario de la Comisión de Ética de la investigación de la Orquesta de Murcia que hasta donde yo sé creo que es la decana de las comisiones de investigación ética de la investigación de España, formó parte del comité de ética del csic, que ha cumplido 15 años, que llevamos 20, son más, así que desde luego felicitaciones, y la verdad es que es un hito muy importante y me alegra mucho participar en este ciclo. El título de la presentación de la comunicación era para convivir con la inteligencia artificial, y lo que les quiero plantear es un poco cuál es, cuáles son importantes la ética en esta nueva convivencia, con la inteligencia artificial, y lo voy a empezar por la palabra convivir, porque podríamos preguntarnos que igual es exagerado hablar de ello, pero es evidente que cada vez más estamos constituidos, como sistema socio técnicos, donde hay una continuidad en cierto modo entre lo humano y la tecnología. La tecnología no es un elemento separado de la sociedad y, como decía Ortega y Gasset, no vivimos con la tecnología, sino que vivimos en la tecnología. La mayor parte de nuestro mundo es artificial y los seres humanos interactúan, con los artefactos en una suerte de simbiosis, lo que se conoce como HDMI fuman, sin trecho, donde se difumina las fronteras entre los sujetos humanos y la tecnología. De algún modo constituimos lo que los tecnólogos llaman Sistemas Murcia, gentes, donde será una especie de agencia compartida, y muchos de ellos prefieren hablar, no de inteligencia artificial, sino de inteligencias compartidas y colectivas. No, porque estamos en esta suerte de interacción con las máquinas. De hecho podemos decir que todas nuestras interrelaciones están mediadas tecnológicamente. Mantenemos una interacción física, cognitiva, emocional con la tecnología. Pensemos en esa relación casi patológica que tenemos, con nuestros teléfonos móviles y hay una patología que se llama la nomofobia, ese miedo a estar desconectado a salir de casa, sin el teléfono móvil, o aquello que se presentaba en una película de pero bonita, donde el protagonista Fénix se enamoraba de una inteligencia artificial, por eso quiere decir que que mantenemos éste esta simbiosis y por eso también valores que tradicionalmente está reservado a los seres humanos, como la autonomía, la responsabilidad la vida de alguna manera empezamos a proyectarnos también entidades tecnológicas híbridas, que constituimos con la tecnología. Y por qué es? Porque hasta entonces en todas partes no yo lo llamo el internet del todo, porque la inteligencia artificial se basa en una explosión de artefactos e instrumentos que están altamente interconectados y que recogen enormes cantidades de datos de información a través, por ejemplo, de sensores que están incorporados en infinidad de objetos cotidianos. No solo nuestros teléfonos móviles, sino el ordenador, a través del cual estamos hablando ahora los televisores, los automóviles, los electrodomésticos es decir, todo lo que se conoce como el Internet de las cosas, pero también podríamos hablar de internet de los cuerpos, porque nuestro propio cuerpo se ha convertido en una plataforma tecnológica a través, por ejemplo, de dispositivos médicos, de implantes, de una pulsera o un reloj que mide nuestras pulsaciones y nuestra forma física a través de lo que se conoce ahora como los medicamentos digitales que se incorporan se ingieren. Nuestro cuerpo incorpora un tipo de dispositivo y luego, además, hay que decir que toda esta enorme cantidad de interacciones de datos que se recogen se hacen muchas veces también fuertes de fuentes abiertas de transacciones que realizamos a través de una aplicación o de nuestros dispositivos, o nuestra participación en redes sociales, etc. Incluso, simplemente cuando estamos paseando existen sistemas de reconocimiento facial de escáneres de huellas dactilares, es decir, cada vez hay una mayor ratificación de la realidad y por eso me refiero a una internet del todo la inteligencia artificial y la robótica social que es a la que me voy a referir. También hay un asunto sobre cuál me voy a referir más adelante es el de las muchas manos y muchas cosas conectadas, y esto tiene una implicación directa, por ejemplo sobre la noción ética y jurídica, también de responsabilidad, como podamos atribuir la responsabilidad en entornos donde existen esas interacciones esa esa hibridación entre lo tecnológico y lo humano es el problema de las muchas manos, muchas cosas conectadas. Bueno, desde un punto de vista filosófico, este contexto, esta convivencia con las máquinas supone una ratificación de la realidad. Podemos decir que lo que es real es la información. Todo se transforma. En datos cuantificables, ya he dicho que se cuantifican todas nuestras interacciones humanas, los pensamientos, los estados de ánimo de comportamiento, a través del análisis de elementos intangibles de nuestra vida cotidiana, que se pueden monitorizar a través de los gráficos sociales que estudian las redes sociales Twitter, Facebook, LinkedIn, etc. Pero también se ha ratificado los actos más esenciales de nuestra de nuestra vida, el sueño, la actividad física, la presión sanguínea, la respiración tenemos cada vez más elementos de monitorización, prendas de vestir, píldoras digitales, como he dicho antes, dispositivos de implante cerebral, relojes inteligentes, prótesis que están recogiendo constantemente datos y que de alguna manera nos configuran como un yo cuantificado, pero también se cuantifica y se ratifica el espacio a través de la geolocalización, y, como he dicho antes, a través de las objetos se siguen recogiendo constantemente. Infinidad de cantidades de datos y claro, todos estos, estos datos, se utilizan y se se monetiza porque también son un negocio a través de algoritmos, un algoritmo que parece una palabra sin muy novedosa es algo muy antiguo. No deja de ser una lista más o menos larga de instrucciones; un conjunto ordenado y de pasos que puede emplearse para hacer cálculos para resolver problemas y alcanzar decisiones en un algoritmo es un estado inicial y una entrada siguiendo una serie de pasos se llega a un estado final y se obtiene un resultado eso es simplemente un algoritmo, lo que pasa es que es verdad que todo este proceso de recogida ingente de datos se ha facilitado mucho, con los teléfonos inteligentes, la tecnología de computación barata y porque tenemos eso, los equipos procesadores digitales y el almacenamiento para manejar y utilizar esta enorme cantidad de datos y a la vez tenemos las herramientas, son las estadísticas, algoritmos a la vez en paralelo, tenemos un desarrollo de lo que también era una disciplina clásica, era la robótica. Al final, un Renault es una máquina situada en el mundo que siempre era una manera piensa y actúa, y tiene 3 elementos característicos. Tiene unos sensores que le permiten percibir información del entorno del contexto, tiene una capacidad de procesamiento de información que le permite emular algunos aspectos de la condición humana y sacar esa capacidad de procesamiento. Es la que está vinculada a la inteligencia artificial, y lo tiene también lo que se conoce como unos actuadores, es decir, algunos elementos que le permiten interactuar en el entorno pueden ser brazos artificiales, ruedas, algún tipo de mecanismo, que es lo que ha cambiado en el ámbito de la robótica, pues es que la robótica clásica se limitaba a, por un lado, a estar en espacios restringidos, por ejemplo, en la industria, y estaba de alguna manera perfectamente controlado, y se basaba en lo que se conoce como algoritmos, determinista, es decir, con un conjunto de de pasos que eran perfectamente indefinible y predecibles. Mientras que los algoritmos de la robótica actual. Son algoritmos que se llaman cognitivos, no porque desarrollan eso capacidades de aprender del entorno, y dependen mucho de esa interacción que establecen con el entorno. Es el caso de la robótica interactiva o social que de alguna manera opera directamente en un entorno que es cambiante, que es complejo, que es impredecible y en el cual se encuentra el ser humano y nosotros interactúa con ésta, con esta robótica. Hay un documental que pueden consultar, que está en YouTube, en abierto, que realizó un compañero de nuestro grupo de investigación, del Grupo de Ética Aplicada del Instituto de Filosofía, Daniel López, que se titula Si se aparecen los robots están saliendo de las fábricas y se pregunta estamos preparados y es una serie de reflexiones que nuestro compañero recogió en laboratorios de toda Europa sobre cómo está transformando el sentido de esa robótica, esa nueva robótica, que son robótica, que está en una interacción mucho más directa con los seres humanos; por lo tanto, tenemos esta explosión de artefactos, esta inteligencia artificial, basada en datos que alimenta también otros artefactos, que están ya en nuestro entorno en un entorno que es cambiante, que es complejo y en el cual nos situamos los seres humanos, y esto genera una serie de riesgos. Como pueden pueden imaginarse, voy a mencionar algunos de los más evidentes, el riesgo, que se conoce muy bien, sobre la privacidad de las personas y también con la posibilidad de manipulación o el estrecho contacto de estos artefactos y estos sistemas cognitivos, con las personas a través de dispositivos implantes, pueden favorecer la intervención coercitiva de las mentes y posibilitar el que se conoce como el troquelado. Son la manipulación éste es un riesgo evidente también relacionado con esto, está el riesgo de la cancelación de la identidad y otro tipo de fraudes, relacionados con la suplantación, que puede propiciar la inteligencia artificial y la robótica interactiva. Asimismo está el problema del engaño porque este tipo de tecnologías pueden propiciar falsas relaciones auténticas, en la medida en que se construyen entornos cuya finalidad puede ser instrumentalizar de algún modo los individuos que pueden; por ejemplo, acabar dependiendo emocionalmente de este tipo de tecnologías de robots e inteligencia artificial, que es un poco lo que pasaba en la película. También otros riesgos, la merma de contacto humano, la robótica, la interactiva y la inteligencia artificial pueden contribuir al deterioro de las relaciones interpersonales, propiciando el aislamiento social y una pérdida de la interacción social significativa. Haré mucho mucha reflexión al respecto, por ejemplo, sobre lo que significa el metaverso no esta nueva realidad, que se está proponiendo unos escrito recientemente, un, articular aspecto también sobre lo que significa también de aislamiento, de interacción social significativa, y aunque hay discusión, parece que los estudios apuntan a que las relaciones interpersonales presenciales, por ejemplo, esta misma Conferencia, hubiera sido mucho más grata y mucho más interesante si hubiera podido realizarse presencialmente, que no nos imponen ya restricciones, por ejemplo, de la pantalla de nuestra banda, que tengamos nuestra conectividad de nuestro lugar y que digamos, no porque tengamos mejor o peor, cobertura, etc. También en las relaciones con las tecnologías, por ejemplo, con la robótica interactiva, cuando se aplica por ejemplo los entornos de cuidado está el riesgo de la realización de los individuos y, por tanto, la devaluación de su dignidad, algo que puede ir acompañado de cierta estigmatización y infantilización de un colectivo de usuarios de. Con respecto a este tipo de tecnologías y también en última instancia, esta tecnología puede producir una reducción de las relaciones a una ilusión, no con lo que supone de limitación de nuestra propia vida, y nuestra propia comprensión, como como seres humanos, no pueden conducir a una cierta deshumanización y, por ejemplo, en el caso del cuidado. Pueden erosionar el mismo sentido del cuidado como una práctica moral relacional esencial? Bueno, y además hay que decir que estos escenarios planteados son especialmente relevantes también para grupos individuos vulnerables como pueden ser menores adolescentes personas con diversidad funcional personas mayores no en cuyo caso hay que tener una consideración muy específica con respecto a estos individuos y colectivos. No, este es un poco el mapa de la situación. Convivimos con la tecnología, existen unos riesgos que podemos calificar de importantes y en algún sentido existenciales, y por eso se ha planteado una, una reflexión ética al respecto, y la verdad es que existen ya un montón de análisis muy variados, de recomendaciones de documentos, de guías, se han descontado ya más de 90 a nivel global sobre el impacto de estas tecnologías, lo cual, por un lado, muestra el interés que suscitan, aunque por otro lado, también generan a veces ruido y confusión. Si 1 analiza los principios de las principales declaraciones, no como los principios de asilo Mar, la Declaración de Montreal para una inteligencia artificial, responsable, los documentos que ha generado el Instituto para la Ingeniería Electrónica eléctrica de Estados Unidos, propuestas desarrolladas por el grupo de expertos de alto nivel en la Comisión Europea sobre inteligencia artificial. Al final algunos se puede, se puede volver a sintetizar, que estamos podemos considerar 5 principios éticos básicos a la hora de abordar nuestra convivencia con la inteligencia artificial y la robótica social, que son 5 principios, que los 4 primeros coinciden básicamente con los principios más o menos clásicos de las éticas aplicadas, que también han sido utilizados ampliamente en la bioética. Simplemente ha adaptado su poco este contexto más un principio. Cuáles serían esos principios, ese marco ético mínimo y Alavés general para abordar esta nueva relación, esta nueva convivencia, el primero y más básico sería el principio de no más deficiencias. La idea de minimizar los daños no; lo primero fundamental es no dañar, o sea, no sólo con acciones intencionadas sino también sobre la imposición de riesgos. Por lo tanto, son muy importantes la prevención y la precaución, y además hay que considerar tanto el daño relativo a los individuos, pero también a los colectivos, como he dicho antes, con especial atención a individuos y grupos vulnerables, y a riesgos que podríamos considerar existenciales o sistémicos, no que tienen que ver con nuestra propia identidad, con nuestra propia comprensión como seres humanos. Por lo tanto, el principio de eficiencia de minimizar los daños implica la importancia de la seguridad y de la ciberseguridad, entendida como un valor social que debe destacarse cuando los seres humanos interactúan con sistemas de decisión delegada, como son los sistemas de inteligencia artificial y la robótica social. Por lo tanto, la seguridad es muy importante. También en este contexto de minimizar los daños se que hay que prestar una especial atención a los sesgos tanto en la recopilación de datos, como en el manejo y el entrenamiento de los algoritmos, instrumentos de inteligencia artificial y la robótica social, los sesgos son, 1 de los problemas más estudiados en este ámbito de estas tecnologías, y no dejan de ser prejuicios en nuestro modo de procesar la información y, por tanto, un modo distorsionado de percibir. La realidad es la propensión a beneficiar a un grupo, perjudicar de manera justa o éticamente inadmisible, y estos sesgos dan lugar en las inteligencias artificiales, en la robótica social, la discriminación por razón de sexo, género, raza, estatus económico consolidando prejuicios y estereotipos existentes, reforzando muchas veces la exclusión social y la estratificación. Por lo tanto, son sesgos que dañan y perjudican a individuos y grupos. Ya hay muchos ejemplos que se han estudiado, por ejemplo, en el caso de sistema judicial norteamericano, aquel programa compás que perjudicaba sistemáticamente a la población afroamericana o en otros ámbitos, como algunos sistemas de reconocimiento facial, pues estaban, por ejemplo, cargados con con el consenso, que discriminaban sistemáticamente a las mujeres. El primer principio sería este principio básico, un principio ético básico, de minimizar los daños en eficiencia correlativamente. El segundo principio sería el de buenas consecuencias, maximizar los beneficios o beneficencia, y es que los beneficios potenciales de estas tecnologías deben superar el posible riesgo para los sujetos, las comunidades y el medioambiente, y esto se relaciona de alguna manera con la orientación hacia el bien común y hacia los Objetivos de Desarrollo Sostenible. Por eso, los tratamientos de inteligencia artificial y de robótica social deben acreditar claramente su necesidad, su efectividad y su orientación al bien común, acotando un propósito bien definido y determinado, es decir, tienen que ser proporcionales. Una buena práctica en el ámbito de la tecnología es evaluar previamente, si realmente es necesario desarrollar una tecnología inteligencia artificial o de robótica social para un determinado contexto. Problema a veces se acude rápidamente a esta solución tecnológico, cuando otro tipo de intervenciones pueden ser mucho más acertadas, mucho más sostenibles y mucho menor. Impacto social, ecológico, etc. Este por eso el principio de beneficiencia incluye la protección del medio ambiente y las generaciones futuras, y esto es un asunto muy importante que no se tiene en cuenta muchas veces, porque todo este desarrollo de la inteligencia artificial y de la robótica interactiva, tiene un enorme impacto medioambiental. Las infraestructuras vinculadas a la misma inteligencia artificial, los centros de datos y de cálculo, que son, que tienen materialidad y que consumen enormes cantidades de energía muchísimas derecho, las propias empresas están viendo que eso puede llegar a ser una limitación importante para su negocio. Están trasladando sistemáticamente sus centros de cálculo, por ejemplo, a países fríos, lugares fríos, donde tienen que consumir mucha menos energía. Para refrigerar estos sistemas también se estrena investigando, denodadamente hardware sostenible que produzcan menos calor que consuman menos energía, pero también hay que considerar la extracción de materias primas que es muy alta para desarrollar estos sistemas, y además sería una estación que se hace a veces sin condiciones, que no son especialmente justas precisamente sobre esta cuestión del impacto medioambiental, y suben las generaciones futuras. Se va a celebrar la semana que viene en Bilbao la primera conferencia de los días 17 18 va a participar también en la Unidad Asociada entre el CEBS y el Instituto de Filosofía con algunos vamos a participar en este esta conferencia, donde vamos a analizar las posibilidades de alinear la transición digital en la que estamos metidos, y la transición energética en la que también estamos metidos, en la que, como estamos viendo, esta está provocando muchísimos problemas. Por lo tanto, tenemos minimizar los daños, maximizar los beneficios. El tercer principio ético sería el de respeto y autonomía, entendido como que los procesos de inteligencia artificial y robótica social han de estar centrados en las personas y amparar el derecho de éstas a conservar, la facultad de decidir qué decisiones. Tomar y ejercer la libertad de elegir cuando sea necesario, esto significa que los humanos han de preservar el poder de decidir en última instancia, qué decisiones tomar y cuál es delegar. Existen más de datos e inteligencia artificial y robótica social. Esto es muy importante porque, como he dicho antes, por ejemplo, estos sistemas pueden vigilar y modificar efectivamente, el cerebro, afectando al propio sentido de autonomía e identidad de las personas y, en última instancia, a la forma en que nos vemos a nosotros mismos y nuestras relaciones con los demás. Por lo tanto, hay que tener especialmente cuidado con todos los sistemas que generan patrones estadísticos recurrentes, que pueden ser usados para preferir, para predecir y entender el comportamiento de las personas, perfil y manipularlas emocionalmente. Por todo ello, hay que proteger a los individuos contra el uso coercitivo de estas tecnologías y la posibilidad de que la tecnología pueda ser utilizada sin nuestro consentimiento. Esto supone, por un lado, proteger la privacidad y los datos de carácter personal, pues además también, como decíamos antes, con ciertas medidas de seguridad, la fuga de datos, la falta de transparencia en la recogida de datos, etc. Y luego también buscando a preservar la identidad personal, la continuidad del comportamiento personal frente a modificaciones no consensuadas de terceros. Esto es un poco el debate que hay en la actualidad. Es un debate jurídico muy interesante sobre la pertinencia de introducir lo que se conoce como los nuevos derechos humanos, que protegerían de algún modo la libertad cognitiva. Otra terminación mental es el derecho a la privacidad mental, el derecho a la integridad mental y el derecho a la continuidad psicológica Hay algunos algunas iniciativas como la que ha liderado el neurobiólogo español Rafael Yuste, que trabaja en Columbia y ha propuesto, pues es una introducción de las constituciones o las cartas de derechos de los derechos humanos también dentro de algunos sectores de la filosofía jurídica. Es un debate interesante sobre si es necesario no introducir este tipo de derechos. En cualquier caso, respecto a la autonomía, es un elemento ético importantísimo en nuestra relación con este tipo de tecnologías. es el tercero. El cuarto sería el principio de justicia. En el ámbito de la ciencia la tecnología se puede interpretar, se puede dividir en 2 cuestiones básicas. Por un lado, digamos, el reconocimiento y, por otro lado, la asignación de recursos o distribución de recursos escasos, ya que me refiero con reconocimiento me refiero a la inclusividad, que supone tener en cuenta todos los interesados y afectados, la diversidad, la gente sí; valores en el proceso en proceso de desarrollo, de tecnologías. Incluso también consiste este reconocimiento es respetar a quienes quieren mantenerse, al margen del plano analógico, una colega, el Instituto de Gobernanza Democrática, mal una línea llamado el principio de exclusión, es decir, nadie tiene que estar excluido, por ejemplo, de su relación con la administración o de determinados bienes sociales por estar al margen del mundo digital, es decir, en cualquier caso, como dice desde la perspectiva de la investigación, innovación responsable, que creo que tuvieran además una conferencia de un amigo y colega Patrici Calvo, hablando poco de la ética de la investigación en estos ámbitos, pues en todas las etapas de los procesos de desarrollo, de inteligencia artificial, robótica social, hay que tener en cuenta y utilizar metodologías inclusivas y participativas. Esto es un elemento de la justicia de reconocimiento y el otro es el que tiene que ver con la asignación de los recursos y, por lo tanto, con la búsqueda de la igualdad y la accesibilidad, es decir, con equidad, porque se debe evitar una nueva brecha de desigualdad a causa de la inteligencia artificial y de la robótica social. Quería existe actualmente con la brecha digital, por eso es muy importante impulsar los algoritmos abiertos, el conocimiento compartido en estos ámbitos para favorecer la solidaridad y la distribución de los beneficios de la tecnología, y esto es muy importante porque corremos el riesgo de generar una nueva brecha de desigualdad a cuenta de la introducción de instrumentos de inteligencia artificial y robótica social. Estos 4 son, como les he dicho, compartidos con otras técnicas aplicadas también con la bioética y aquí habría que introducir un quinto elemento, que es especialmente relevante en el ámbito de la inteligencia artificial, y la robótica social, basada en algoritmos de inteligencia artificial, y es la explica habilidad. Hemos dicho que estas tecnologías son especialmente impactan directamente en nuestra vida cotidiana y afectan a aspectos muy sensibles, importantes desde la atención sanitaria a los propios derechos civiles y sociales, desde el crédito a los seguros, el derecho penal y, por lo tanto en la medida en que tienen esta este carácter tan disruptivo, es muy importante que puedan ser explicables. Qué significa explicable, no en el sentido técnico sino en el sentido más ético -filosófico. Significa, por un lado, que se pueda comprender de algún modo su funcionamiento quizás no todo, pero que sean procesos que en algún sentido son inteligibles y, sobre todo, que se pueda identificar el proceso de decisión, las personas implicadas y las consecuencias que se deriven, es decir, que se puedan rendir cuentas. El gran riesgo de estos restos de estas tecnologías es lo que se conoce como las cajas negras, no aquello de que no se pueda explicar y no se puedan pedir cuentas a unos sistemas que no se conoce como no. Por eso la idea de comprensión de interpreta habilidad y de rendición de cuentas están directamente ligadas a este principio que se ha venido en denominar explica habilidad. Llama a este principio complementa a los anteriores porque para que un sistema de inteligencia artificial y robótica social sea ineficiente y eficiente debemos ser capaces de entender el bien o el mal que se puede producir para que un sistema promueva y no restrinja la autonomía, la decisión de quien decide la decisión sobre quién decide debe estar informada mediante el conocimiento de cómo actuaría la inteligencia artificial, y nosotros tenemos que ver cuáles nos pasos que dar para que un sistema sea justo y alguien se haga cargo, y esto es muy importante desde el punto de vista de la responsabilidad de los resultados negativos en el caso de que los hubiera precisa la rendición de cuentas y por lo tanto es precisa esta trazabilidad y comprensión de por qué se han producido estos resultados cuando estamos antisistemas, que son opacos, no podemos tener ni rendición de cuentas ni por lo tanto asunción de responsabilidades y tampoco conocimiento suficiente para decidir qué dejamos inteligencia artificial y que no dejamos que se pueden producir. Por eso, este principio fundamental, que de alguna manera repercute condiciona los anteriores. Estos 5 principios tenían el marco del marco ético para general. Para hablar precisamente de esta convivencia con los robots sociales y con la inteligencia artificial, luego se pueden concretar en normas de actuación en buenas prácticas. La primera, de las cuales solo voy a referirme a ella, es esa que les comentaba. Y es que hay que valorar siempre previamente la necesidad y conveniencia de desarrollar una aplicación basada en Inteligencia Artificial, en datos masivos. No hay que justificar de manera convincente la necesidad y pertinencia, porque a veces si hacemos un análisis el impacto medioambiental, la posibilidad de discriminación, el riesgo con respecto a la autonomía de las personas, una materia especialmente sensible a la que se refiere, pensemos, por ejemplo, en procesos de justicia penal, nos deberían hacer considerar que no tenemos que desarrollar un sistema de inteligencia artificial, robótica social, para esa, para esa necesidad. Por eso es muy importante determinar y documentar claramente los objetivos y el alcance del sistema o aplicación y, sobre todo, establecer un marco a través de lo que se conoce como una evaluación de impacto ético de todo proyecto, y todos los servicios que se vaya a basar en inteligencia artificial y en robótica social. Para evitar los sesgos, por tanto, las discriminaciones, para analizar el impacto medioambiental, para estudiar y destacar también la participación y la inclusividad que ese desarrollo tiene con respecto al entorno ni cuál se va a introducir esta tecnología o este sistema. No voy a extenderme en estas buenas prácticas porque se pueden detallar muchas que son resultado de los principios a los que me acabo de referir. Precisamente en algunas instituciones, como por ejemplo, la Diputación Foral de Gipuzkoa está preparando un código ético para los datos y la inteligencia artificial que quiere aplicar y que quiere que sea el marco de referencia para su plan de transformación digital y para el desarrollo de sus propias aplicaciones basadas en datos y en inteligencia artificial. Esto es muy importante porque las instituciones tienen un elemento tractor y de ejemplaridad que puede generar buenas prácticas, también se relacionan. Por lo tanto, sí podrían, si me preguntan cuál es el alcance de la ética para este marco ético, para la convivencia con artefactos basados en inteligencia artificial, sociales es que la ética permite alinear los valores de la sociedad con las tecnologías, como la inteligencia artificial, de modo que se genere innovación y apropiación social de dicha tecnología mediante que mediante la confianza la ética son un elemento indispensable para generar confianza, y para propiciar estos entornos que ya nos constituyen socio -técnicos, que sean de alguna manera inclusivo como decía filósofo en la ciencia de la ministra de Salamanca, que sean entornos étnicos entrañables una palabra que lo traducen como entrañable, sin una palabra, entrañable que es un entorno social técnico entrañable, un entorno que es abierto, que es versátil, interoperable, que es controlable, que es comprensible, como hemos dicho antes, que es sostenible, que es respetuoso con la privacidad, que se centra en las personas y que es especialmente cuidadoso con los individuos y colectivos más desfavorecidos, porque la idea es que otra tecnología y tenemos que aprovechar las oportunidades que nos ofrece la tecnología, pero otro enfoque de la tecnología es si es posible. Dicho esto, y para ir terminando, porque tampoco quiero ver si puede haber lugar a un diálogo, aunque estemos así mediados tecnológicamente por las pantallas, quiero también señalar algunas algunos riesgos, algunas limitaciones también de la ética para nuestra convivencia, con la inteligencia artificial, en la robótica, y porque hay que hacer también un cierto ejercicio de autocrítica. Bueno, hay una limitación interna que es propia de la misma ética, y es que es la dificultad para poder considerar los posibles impactos sociales, ambientales o intergeneracionales de una determinada tecnología basada en inteligencia artificial, porque son esos sistemas que son muy autónomos, que son escalable, es que cambian rápidamente entonces el poder calibrar las las consecuencias. Sus impactos es especialmente difícil y además, por otro lado, los desacuerdos que existen en Filosofía moral. También se transfieren al ámbito de la ética en la inteligencia artificial. Esto sería limitaciones internas. Tenemos que recordar que, como decía, filósofos de la ciencia también Silvio dieron graves. Vivimos en un contexto de lo que se conoce como ciencia. Pues normal que es una ciencia que tiene 4 características. Tenemos gran incertidumbre sobre los hechos; tenemos valores en disputas. Tenemos también, por otro lado, situaciones de enorme emergencia, como puede ser la crisis climática, como ha sido la pandemia y por otro lado, tenemos la necesidad de tomar decisiones urgentes. Ese es un poco el contexto en el que nos movemos, es el contexto de la ciencia por normal la parte de estas limitaciones internas, que son propias de la ética como disciplina, podríamos hablar de 3 limitaciones externas que yo quisiera mencionar. Una es la inoperancia. He dicho antes que hay una enorme variedad de guías de documentos sobre ética. Ya se han recopilado ya creo que más de 90, muy bien escritas sobre muchos aspectos éticos de la de estas tecnologías o la agencia la autonomía la moralidad los derechos los valores las virtudes la rendición de cuentas muchas cosas y esto es interesante porque muestra que hay. Ahí hay una preocupación por la dimensión ética de la inteligencia artificial; también genera confusión, ruido, duplicación del debate. La gran pregunta es cómo podemos de alguna manera transformar realmente a través de una visión ética, el desarrollo de la inteligencia artificial en la robótica social como operación los principios éticos, y para eso hace falta una cierta infraestructura. Hacen falta instrumentos, procedimiento personal pasar de las musas al teatro y sobre todo huir de una visión de la ética, con una especie de recetario de principios, de buenas intenciones, y volver a la raíz de lo que significa es interrogarse y preguntar desde el principio sobre estos sistemas, sobre su desarrollo, desde el mismo diseño sobre sus sus impactos y acceso a las preguntas que muchas veces no se hacen preguntas como he dicho antes sobre el impacto medioambiental sobre las asimetrías de poder que supone este tipo de tecnologías, sobre el activismo, también de materias primas y de mano de obra, mucha inteligencia artificial para entrenar. Estos sistemas se basa en el trabajo aislado y en condiciones pésimas, muchísima mano de obra, sobre todo en países empobrecidos, que son los que alimentan las inteligencias artificiales. No habría que caer en que la ética se convierta en este este asunto esté en este asunto inoperante. Que es una especie de cháchara para iniciados no, pero que no, en la que no participan las personas y los grupos más vulnerables y que pueden ser más susceptibles de daño; impactos negativos por este tipo de sistemas, no, bien, porque tienen un acceso social restringido a los mismos, bien porque carecen de la suficiente alfabetización digital o por otras barreras sociales, económicas o culturales, que la ética corre el riesgo de quedarse. La inoperancia también corre otro peligro es el del colonialismo, no porque el diálogo ético internacional sobre estas tecnologías está dominado por una minoría de países de alto nivel, de desarrollo técnico -científico, lo que excluye la deliberación, otros muchos países y agentes que luego se van a ver afectados por este desarrollo, en una reciente Guía para entender la inteligencia artificial. Desde el mundo mayoritario se señala que la comprensión actual de los sistemas de inteligencia artificial, robótica social, tiene una debilidad, y es que las historias futuros y opiniones de la mayoría de las personas del mundo se han eliminado de la narrativa de estos sistemas, y yo añadiría que también se eliminado de la reflexión ética. Son los mismos. Cuando de mayoritario me refiero a lo que se denomina, pues de varias formas hubo países en vías de desarrollo, tercer mundo del sur global pero que son las periferias, que permanecen pasivas a los problemas y desarrollos son, como en este caso, ostensiblemente global y que tiene que ver con esas preguntas que nos hacemos el activismo de recursos naturales en estos países en unas condiciones muchas veces que no son las adecuadas, naturales y materias primas, también la cuestión de la mano de obra se mezclaban los trabajadores fantasma, etc. Por lo tanto, la ética puede ser inoperante, como he dicho antes, puede pecar de neocolonialismo, y, por último, y lo que es más grave, puede ser utilizada por las grandes corporaciones tecnológicas como coartada para evitar las regulaciones. Existe un discurso casi ubicuo de la ética, para las tecnologías destructivas, que no estaba en el comienzo del desarrollo tecnológico de la inteligencia artificial y la robótica social. Hay un discurso que se alinea mucho con los intereses de las grandes corporaciones, que han introducido importantes cantidades de dinero para crear putos o centros de investigación sobre Inteligencia, Artificial, bética entendía, siempre con prácticas responsables y voluntarias, frente a cualquier tipo de regulación y claro, esto es una manera de blanqueamiento que queda alguna. Lo que pretenden es no, no no entrar en cuestiones importantes que están relacionadas con estas tecnologías y que tienen que ver con la propiedad, con el bien común, con la legitimidad del desarrollo de las mismas, con un pluralismo razonable, con cuestiones de asimetría, de poder, etc. Por tanto, habría que ver que no se utilice la ética como una coartada para evitar la regulaciones. En definitiva, con respecto a la robótica social, la inteligencia artificial, lo que nos encontramos es 1 de los retos más importantes del mundo contemporáneo, y es, como configurar esa interacción entre el humano y la máquina entre el humano y estos sistemas tecnológicos con los cuales ya estamos híbridas. Por lo tanto, hay que considerar además que se ha dado el salto y que los artefactos operan en un entorno complejo y cambiante, donde el ser humano está situada en el centro del diseño, pero donde estamos constituidos de esta manera y en términos de una agencia compartida. Por ello es crucial la pregunta sobre la ética absolutamente necesaria y sobre cuál es el marco de convivencia que queremos establecer en este contexto de los nuevos entornos técnicos, en los cuales los cuales vivimos, como decía Ortega. Muchas gracias. Bueno, hubo muchísimas gracias a esto y si ahora el público quiere levantar la mano, quiere plantear cualquier pregunta comentario. Pues será bienvenido. Yo me están preguntando si el imaginario que nos legó la saga de La Guerra de las Galaxias en la que aparecen robots que interactúan con los seres humanos está presente de alguna manera en esa mentalidad colectiva en la cual, pues vemos cómo prácticamente inevitable, e incluso maravilloso que un simpático 3, pero como se llamará, está ayudando a los humanos, a hacer determinadas tareas y, bueno, pues a lo mejor llega un momento en que también nos parece normal subirnos a un coche que no lleva conductor, o nos parece normal que haya un montón de cosas que las máquinas y y que era impensable hace unos años, que eso ocurriera, y eso, pues llega a formar parte de nuestra normalidad sin ningún tipo de barreras, como que la efectivamente, la ética estaría llegando un poco tarde, porque ya llegó antes. El creador de la saga de esa saga de Lucas era. Yo llegaba mucho antes que entonces. Bueno, soy la sensación de que todo eso ya está como por dado por descontado. Es decir, ya se daba por descontado de que la robótica está aquí; la actividad está aquí y ha venido para quedarse y simplemente lo que tenemos que hacer es intentar convivir con ella de un modo amigable. No sé si este comentario parece ocioso si no, no creo que es muy interesante y de hecho nosotros en el grupo hemos hecho incluso algunas algunas pequeñas reuniones y cine fueron precisamente analizando el papel de la ciencia ficción en la reflexión ética para para robótica y la inteligencia artificial, porque, efectivamente, la ciencia ficción se ha adelantado a muchos de los planteamientos planteamientos podríamos decir apocalípticos ya a planteamientos integrados. No creo que la reflexión ética y filosófica está precisamente en el análisis crítico de estas tecnologías, no existiera apocalípticos y hubiesen integrado sin ser utópicos, distópico. Pero la ciencia ficción ha sido una herramienta muy interesante en la sala que mencionaba, que aparecían unos robots relativamente amables. En otras series o películas que hemos visto, aparecen otras situaciones completamente horrorosas; entonces yo creo que las narrativas nos permiten también pensar cómo queremos configurar en el futuro, y yo creo que precisamente la literatura y la son una herramienta muy interesante para plantear problemas éticos relacionados con el desarrollo de estas tecnologías. Hay un libro que no se instala, descatalogado; está publicado en Tirant lo Blanc de sobre Star Trek y los derechos humanos, que escribió un filósofo Derecho, Alfonso García Figueroa que están hubiese Castilla donde plantea también por ejemplo hasta qué punto 1 de los personajes que que quiere estar en esta saga de Star Trek le conozco menos, pues tenía derechos humanos o no tenía derecho a ser un androide, no, pero que tenía cierto grado de autonomía la había tomado una serie de decisiones. De todas formas, eso también, la ciencia ficción nos pone en relación con con una inteligencia artificial, o una robótica interactiva, que ahora mismo es eso, es ciencia ficción los mismos expertos que trabajan en la robótica inteligencia artificial lo que hacen es decir bueno nuestras nuestra nuestra situación actual es muchísimo más molesta, seguida de inteligencia, la singularidad, la inteligencia artificial general, que va a superar a los humanos. Es absolutamente ahora mismo, imposible. Entonces, lo que tenemos que centrarnos es cómo nos integramos con sistemas de tecnología que pueden ser muy útiles para mejorar, por ejemplo, servicios de atención sanitaria, servicios de cuidado y gestión de políticas públicas, gestión medioambiental, pero como lo hacemos de una manera que no sea crítica, sino que en la cual tengamos una participación y no nos entreguemos sin más a una suerte de solución mismo tecnológico Yo creo que ése es el puto y el lugar que le corresponde, precisamente la reflexión ética y filosófica, que luego se puede traducir en normas jurídicas regulaciones etc pero nosotros tenemos que hacer las preguntas las preguntas sobre esta tecnología en la cual estamos y que, de alguna manera, pues se adelantaban en esas series y películas de ciencia ficción, Ahora mismo estoy hablando con todos ustedes, todos, vosotros, a mi abuelo, le parecería ciencia que nos estuviéramos viendo esto. Salían las películas también de los años 50. Y ahora lo hemos completamente normal. Nuestros hijos y nuestros nietos. Cogen los móviles y las pantallas, hemos dado un salto. La pregunta importante es. Cómo queremos que se construyan esas tecnologías, sí al servicio de las personas o al servicio de grandes corporaciones, al servicio de otros intereses, o con una merma de derechos y libertades fundamentales. No es la gran cuestión la cuestión ya de la antropofagia antropomorfos indización de éstos de estos sistemas de atribuirles creatividad inteligencia general sentimientos eso sigue siendo y está bien que nos lo planteamos porque nos permite. Creo que la imaginación es un elemento fundamental para la ética, la filosofía, pero es eso, es imaginación para pensar futuros posibles, que no tienen que ser necesariamente distópico, sino que podrán ser lo que nosotros queramos que sean. Si intervenimos en esto y no nos dejamos llevar también por una suerte de inevitabilidad, a veces no hay que introducir un sistema de inteligencia artificial o de robótica en un contexto, y esa es la pregunta que yo quería. Además, la primera buena práctica cuando 1 habla con expertos en inteligencia artificial, como los colegas de inteligencia artificial que está en Barcelona, llegará si se plantea sistemas de inteligencia artificial para todo, cuando igual no es necesario ese sistema porque si hacemos una relación impacto riesgos etc pues no hay que empezar a hacer ese sistema. Hacer las preguntas es la obligación que tenemos como personas que nos dedicamos a la filosofía. Muchas gracias a más personas que quieran intervenir. Mercedes parece que quiere intervenir adelante adelante Mercedes buenas tardes muchas desgracias la verdad es que me ha interesado extraordinariamente la conferencia. Agradezco a quien ha organizado el encuentro, porque además Emilio lo sabe porque forma parte del proyecto de investigación. Acaban de concedernos con cargo a fondos en Eurovisión un proyecto sobre plataformas digitales para los cuidados y escuchando me preguntaba si ahora que me enfrento a la necesidad del desarrollo de la herramienta tecnológica, porque el estudio es un estudio jurídico todos los aspectos concernidos en la materia, pero 1 de los objetivos es el desarrollo de la plataforma con una singularidad que ahora no voy a comentar aquí pero sí que me preguntaba si metodológicamente sería desde luego creo que una buena praxis, pero ya no sé si posible tener un decálogo que nos orientará desde el punto de vista ético en la confección de la herramienta, porque yo instintivamente me planteo esto de la inevitabilidad la accesibilidad, la transparencia la explica habilidad de la herramienta, porque va dirigido a personas con dificultades, no necesariamente cognitivas, pero sí físicas que entonces me gustaría saber si podría contar. Existe un un decálogo, una guía bueno y es partidario del método solo y cuadriculado. Entonces me gustaría saber si tengo esa herramienta para incorporar a mi método, porque estoy ahora mismo elaborando la lista de necesidades para trasladarle a la empresa con la que voy a trabajar la tecnología. Pero yo misma quiero saber, a la hora de configurar la desarrollándola son los claves. Si están descritas ya, pues hay ahora mismo en los proyectos de la inteligencia artificial. En la Unión Europea existe ya una especie de cheque para chequear algunos aspectos eso se puede, se puede descargar porque ésta está disponible, aunque claro, como está ahora en discusión la la artista sido un poco la el reglamento europeo sobre inteligencia artificial, que está basado en riesgos, hay algunos algunos equipos que ya han desarrollado. Yo le puedo mandar algún algún ejemplo, algún tipo de también de cuestionario. En el proyecto que hemos realizado para la Fundación BBVA sobre sesgos en algoritmos de triaje, también hemos elaborado un pequeño que es precisamente para los desarrolladores, es decir, para que eso solo lo puedo enviar porque va a estar, pero ya está publicado una serie de preguntas para que los propios desarrolladores se vayan haciendo a la hora de desarrollar el sistema y que también se la hagan las personas que lo van a utilizar para decir. Bueno, este sistema ofrece garantías o garantías, porque eso es muy importante también en el ámbito de la salud o de los cuidados. También es muy importante que haya ese tipo de prevención de cautela. Por otro lado, es muy importante que me parece muy interesante la plataforma digital para los cuidados. Ha apuntado, porque una de nuestras doctorandos está trabajando precisamente su tesis sobre el alcance, las limitaciones del uso de robótica, tecnología, inteligencia artificial para los cuidados. No están haciendo su tesis sobre sobre eso y que, por cierto, creo que va a estar dentro estar conectada con Murcia, porque habrá una pequeña sesión en el máster, y doctorado debió derecho Diego, pero hay herramientas todavía son herramientas incipientes, pero es muy importante hacer las preguntas desde el principio, porque luego no vale un poco Yo creo que con la tecnología a veces ocurre y esto es un discurso muy propio de los de los que desarrollan la tecnología, que ellos hacen sistemas estupendos, que funcionan muy bien, que son muy operativos y demás, y luego dicen que el problema es cómo se usen esta vigencia del uso. Pero, pero vamos, la tecnología tiene, incorpora valores desde su propio diseño, es como se diseñe, ya está determinando cuál va a ser el resultado después con respecto a su uso, y por eso a la hora de diseñar una plataforma relacionada con los cuidados, pues es muy importante desde el principio contar con la opinión y el concurso de los futuros usuarios y usuarias. Creo que eso es fundamental. Establecer algún tipo de estrategia participativa inclusiva, la cual se les tenga en cuenta, porque además eso redunda no solo en la calidad ética y técnica de la herramienta, sino también en su aceptación y apropiación, porque nosotros hemos trabajado con empresas tecnológicas como Tecnalia en el País Vasco, que es una empresa que desarrolla muchas herramientas para tecnologías relacionadas con el cuidado soporte en los domicilios para personas con dificultades, etc. Y nos decían que ellos han tenido que echar marcha atrás algunos proyectos muy bien diseñados, muy bien desarrollados, porque se les había ido la el punto de vista de los usuarios y puede ocurrir que 1 desarrolle con la mejor intención el mejor sistema y que luego genera un rechazo, porque no ha habido ese feedback que era muy importante. Esa alineación de valores y de intereses y necesidades entre los grupos afectados y a quien va dirigido, por ejemplo, la plataforma y la herramienta que se proponen. Entonces, eso es muy importante, utilizar metodologías inclusivas desde el principio del proyecto. Existen esos cheques de la Unión Europea es bastante sencillo, pero se suma serie preguntas, cuando alguien va a iniciar un proyecto de inteligencia artificial que tenga algún tipo de riesgo sobre las personas y ahora se están desarrollando al hilo de esta nueva reglamento, que está en discusión y nosotros hemos desarrollado otro también para relacionado con los sesgos, en este caso era más centrado en cuestiones de triaje, pero que podrían aplicarse a cualquier tecnología relacionada con la tecnología basada en Inteligencia Artificial, relacionado en el ámbito de la salud. Así que yo soy sin problema, se lo agradezco; a través de Emilio estamos donde estamos. En contacto directo. Gracias. Bueno, pues alguna pregunta más, y si no, pues Eduardo tiene, la mano levantada, Eduardo es detenido, pero no he tenido muchísimo problema para poder conectar no podía imaginar Yo pienso que Pilar ha sido testigo, estaba con el móvil, me iba a venir. Ha sido Vega un cable que tenía bajo el bueno, tecnología; falló también la tecnología, falla precisamente por ahí va mi cuestión, y se está empezando a utilizar la inteligencia artificial para el diagnóstico ya hay varios grupos de investigación que recogen información. Entonces La bamba aplicará Inteligencia Artificial, paga discrimina. Habrá alguna manera que proceso subsidiario de una mayor análisis. Se está hablando también de aplicar y mantener determinado fenómenos cada vehículo que esa vivienda vayan vedadas concentraciones de temblado marcador en los vascos se salda. Yo me pregunto qué opina al respecto que evidentemente, todo esto tiene un margen de error. Estamos comentando. Ante este margen de error, puede tener importantes repercusiones para una persona dentro de esa sensibilidad de la cueva. Ya más chica quede fuera. Fue objeto de seguimiento. Como puede ocurrir también en cualquier análisis bioquímico, yo me pregunto, llega ahí. Hemos aplicado artificial en el ámbito judicial, sentencias judiciales y que haya dicho que la evaluación de lo que has comentado de no aplicar la Inteligencia Artificial absolutamente para todo saben sale de alguna manera en limitar seriamente donde no sé la aplicación es defensa oficial y, por tanto la conclusión de que podemos tener de una aplicación indiscriminada. Claro, no es eso. Esa es una buena pregunta crucial en realidad, 2 sistemas de inteligencia artificial que su nombre muy bonito y muy pomposo, pero no dejan de ser sistemas de control delegado, digamos, no es la delegación de algunas funciones. Pues nosotros tenemos que preguntarnos primero, en qué contextos estamos dispuestos a aceptar la delegación y quizás podemos plantearnos que en determinados contextos pues no ha lugar. Por ejemplo, en cuestiones, por ejemplo, de Derecho Administrativo. Podemos aceptar que que se se utilicen sistemas, sistemas de este tipo porque manejan muchos datos y pueden dar una serie de resultados de manera muy rápida y agilizar los procedimientos y y las políticas públicas y otros en otros contextos como la justicia penal. Pues es mucho más restrictivos, siempre y cuando hay que reconocer que en esos contextos además estos sistemas son sistemas de apoyo a la decisión que no nos sustituyen en ningún caso, por ejemplo, al juez, y en el caso del ámbito de la salud se discute mucho, porque porque se habla del sesgo de la automatización, que se ha estudiado mucho en pilotos de avión por ejemplo, y en médicos no, que es una confianza excesiva en el resultado que ofrecen las máquinas a ver los los humanos. Somos muy fans libres, pero las máquinas también. Entonces lo que hay que buscar es determinados contextos sensibles que haya una combinación equilibrada y por eso explica habilidad es importante, porque en el caso de que ocurra algún resultado negativo hay que poder, podrán analizar el proceso, la responsabilidad, etc. Porque si no estamos antisistemas de caja negra, hay un caso que es muy conocido. Ya se citan en el extranjero y me sorprendió en Argentina. Me encontré en un foro como este online, que se citaba el caso del algoritmo Bosco, que es el que utilizaba el Gobierno de España para otorgar los que utilizan utilizando para el bono social de la energía y demás para personas desfavorecidas a través de una denuncia de una persona que le fue denegada. Ese pidió que la Administración, a través del Consejo de Transparencia dijera que han sido los parámetros y los elementos que este algoritmo maneja para gestionar esta esta política pública, que no deja de ser un derecho social. El algoritmo favorece esa, facilita mucho porque es muy rápido, pero puede tener errores. Si esta persona reclamaba su derecho a saber, lo tremendo fue la respuesta ha sido que el algoritmo es un algoritmo desarrollado por una compañía privada que está protegido por propiedad intelectual y propiedad industrial, con lo cual no se ha hecho explícito cuál ha sido los parámetros que ha utilizado. El proceso está en curso, todavía ha habido una sentencia a favor del Estado, pero hay una organización que que exhibió que ha vuelto a recurrir el fallo porque, claro, realmente fíjense, aquí hay derecho social que está siendo que es una cuestión de política pública y hechos que está siendo gestionado a través de un algoritmo que no se puede conocer cuál es el los elementos que lo constituyen. No es cierto que hay algoritmos que basados en aprendizaje profundo cuya explica habilidad es más difícil, pero en cualquier caso hay que establecer, y quizás haya que renunciar a ciertos grados, podríamos decir de precisión, algorítmica, en aras de la aplicabilidad, porque esa aplicabilidad favorece primero la legitimidad del instrumento y la asunción de responsabilidades en el caso, por ejemplo, de que haya problemas, como en este caso hay una persona que reclamaba entonces creo que hay que ser cuidadosos. Hay infinidad de contextos donde el uso de herramientas de este tipo en el ámbito de la medicina muchísimos, también para el análisis de cantidades masivas de imágenes, por ejemplo, para establecer correlaciones, son muy útiles, pero, ojo, también hay un margen de error. También hay posibilidad de fallos, y lo mismo que en el ámbito humano se asumen responsabilidades y se reparan y se cuando cuando al lugar, pues tiene que ocurrir lo mismo con el ámbito de las máquinas, y eso además implica que en determinados contextos igual hay que limitar su uso, porque son cuestiones especialmente sensibles. No lo pienso que el derecho penal hay que ser especialmente cuidadoso, que puede haber sistemas de apoyo a la toma de decisión, pero que en ningún caso habría que dejar que una máquina decidiera, por ejemplo, sobre cuestiones de justicia penal en Cataluña lleva funcionando creo que lo hicieron más de 15 años, un sistema para evaluar el riesgo de reincidencia de las personas que están presas, pero es un sistema que, por lo que han hecho una evaluación ha funcionado bastante bien. Tiene también algún problema. Tiene algún problema que se ha ido además corrigiendo, como en los sistemas humanos también vamos aprendiendo de los errores, pero lo importante es que es un sistema de apoyo a la decisión. La decisión sigue siendo la Junta de Tratamiento del centro penitenciario, que con los datos que ofrece el programa toma la decisión. Pero no necesariamente tiene que ser la misma o exactamente la misma que la que ofrece el sistema, porque ahí precisamente estamos ante una contexto especialmente sensible. Muchas gracias. Pues no sé si estamos ya fuera de tiempo y largo, si no, no, no le digo a Pilar que como ve, ahí vamos. Bueno, si alguien quiere hacer alguna pregunta, pues entonces vamos, vamos despidiendo, te agradecemos en él atendido esta tarde y ya sabes que tienes aquí a tus amigos y que vengan cuando quieras y sabemos que vienes a menudo a Murcia y que podamos tener esa experiencia presencial a la que alude a ese antes, pues lo antes posible, y si es posible, pues con un buen vino, una buena cervecita, varios puestos, parte, encantado un placer, gracias por la invitación y deseando estar en Murcia cuanto antes, Mercedes muy interesado por su proyecto, y estaremos en contacto, porque nos interesa mucho el tema de precisamente la. Este tipo de tecnologías para los cuidados. Realmente es un ámbito en el que se está desarrollando de una manera muy rápida, pero que necesita precisamente quizás un poco de sosiego para hacerse las preguntas sobre cómo hacerlo. Lo mejor posible, Gracias, pensaba escribirle ahora para ponernos en contacto afecto bueno hasta la próxima mucha gran avalancha una plaza para la grabación Si quieres para Dallas, pues nos damos un abrazo virtual. Por El abrazo real.

Propietarios

Vicerrectorado De Investigacion

Comentarios

Nuevo comentario

Relaccionados

Seminarios online HRS4R en la Universidad de Murcia (Acción 16)
Seminarios online HRS4R en la Universidad de Murcia (Acción 16)
Seminario 4: Perspectiva de Género en la Investigación (06/03/2024)
Seminarios online HRS4R en la Universidad de Murcia (Acción 16)
Seminarios online HRS4R en la Universidad de Murcia (Acción 16)
Seminario 3: Open Science y Open Data en la Investigación (02/11/2023)
Seminarios online HRS4R en la Universidad de Murcia (Acción 16)
Seminarios online HRS4R en la Universidad de Murcia (Acción 16)
Seminario 2: Buenas prácticas en Investigación en el marco del Sello HRS4R (22/06/2023)
Seminarios online HRS4R Carrera Profesional en Investigación (Acción 23)
Seminarios online HRS4R Carrera Profesional en Investigación (Acción 23)
Seminario 6: Planifica tu carrera profesional en investigación: Herramientas en EURAXESS y EUniWell (08/11/2024)
Seminarios online HRS4R Carrera Profesional en Investigación (Acción 23)
Seminarios online HRS4R Carrera Profesional en Investigación (Acción 23)
Seminario 5: De la Investigación al Emprendimiento: Enfoques para potenciar el emprendimiento en la carrera investigadora (16/05/2024)
Seminarios online HRS4R Carrera Profesional en Investigación (Acción 23)
Seminarios online HRS4R Carrera Profesional en Investigación (Acción 23)
Seminario 4: CoARA - Nuevos criterios de evaluación en investigación (15/02/2024)
Seminarios online HRS4R Carrera Profesional en Investigación (Acción 23)
Seminarios online HRS4R Carrera Profesional en Investigación (Acción 23)
Seminario 3: Las acciones de movilidad Marie- Sklodowska Curie y la movilidad en la carrera profesional investigadora (13/12/2023)
Seminarios online HRS4R Carrera Profesional en Investigación (Acción 23)
Seminarios online HRS4R Carrera Profesional en Investigación (Acción 23)
Seminario 2: Herramientas para el desarrollo de carrera profesional investigadora (05/10/2023)
La gobernanza ética de la Inteligencia Artificial en el ámbito de la investigación
La gobernanza ética de la Inteligencia Artificial en el ámbito de la investigación
Implicaciones éticas de la IA
Comité de Experimentación Animal (CEEA)
Comité de Experimentación Animal (CEEA)
Comité de Bioseguridad en Experimentación (CBE)
Comité de Bioseguridad en Experimentación (CBE)
Comisión de ética de Investigación (CEI)
Comisión de ética de Investigación (CEI)