Señora si ahora salido que está
grabando buenas tardes,
bienvenidos.
Bienvenidas a esta conferencia
que hemos organizado desde el
Vicerrectorado de Investigación
con motivo del 20.
Aniversario de la Comisión de Ética
de Investigación de la Universidad de
Murcia.
Hemos realizado ya otras
conferencias a lo largo de este año
y hoy tenemos el honor y el placer
de leer con nosotros.
Ha hecho sin que el científico
titular
en el Instituto de Filosofía del
Grupo de Ética Aplicada sea doctor
en Filosofía por la Universidad
del País Vasco,
premio con Premio Extraordinario,
profesor invitado en varias
universidades
y colaborador en el Instituto
de Gobernanza Democrática.
Sus áreas de trabajo son
la ética pública,
la bioética,
los derechos humanos y la filosofía
de las tecnologías disruptivas
es miembro del OS de.
Data o forzosa,
el Economic editor editoria autor de
varias obras sobre estos temas,
ha sido fundador de la revista
electrónica aplicada dilema,
y en la actualidad forma parte de
los equipos de investigación
de este, que significa,
bidireccional neural.
Existen datos en salud de la
Fundación Séneca de Murcia,
detección y eliminación de ese
en algoritmos de triaje
y localización para la 9, desde
la Fundación BBVA Bazar.
Va Karzai soledad no deseada y
cuidados que está auspiciado
por BBK, Cunha, presidente
del comité de ética
de este.
Sí colabora también en la red
espacio o estética, salud vista
para la acción, cuidados
y observación social,
y en el cluster de ética
del País Vasco.
Bienvenido, querido amigo, hecho.
Si considera que estás en tu casa,
que además tienes una
intensa relación
con la Universidad de Murcia
a través del cerebro
es a través de nuestro centro
de estudios en Derecho
y por lo tanto, para nosotros eres
una persona muy cercana,
muy querida y desde luego
pues estamos encantados
de tener esta tarde para hablar
de la ética en relación
con los robots y la inteligencia
artificial
así que tienen la palabra
gracias techo
pero que si recibes la presentación
envidio eso me siento en casa
porque para mí Murcia y el centro
de estudios de Derecho Salud,
pues es como un segundo hogar.
De hecho, los constituidos
recientemente,
una unidad asociada entre sí
el Instituto de Filosofía
y cual formó parte,
así que me hubiera acto participar
en este ciclo,
también la vicerrectora
de Investigación,
la invitación a este ciclo de
conferencias que celebran
el conmemorar el vigésimo
aniversario de la Comisión de Ética
de la investigación de la
Orquesta de Murcia
que hasta donde yo sé creo que es
la decana de las comisiones
de investigación ética de la
investigación de España,
formó parte del comité de ética del
csic, que ha cumplido 15 años,
que llevamos 20, son más, así que
desde luego felicitaciones,
y la verdad es que es un
hito muy importante
y me alegra mucho participar
en este ciclo.
El título de la presentación
de la comunicación era para convivir
con la inteligencia artificial,
y lo que les quiero plantear
es un poco
cuál es, cuáles son importantes
la ética
en esta nueva convivencia, con
la inteligencia artificial,
y lo voy a empezar por
la palabra convivir,
porque podríamos preguntarnos
que igual es exagerado
hablar de ello,
pero es evidente que cada vez
más estamos constituidos,
como sistema socio técnicos,
donde hay una continuidad en cierto
modo entre lo humano
y la tecnología.
La tecnología no es un elemento
separado de la sociedad
y, como decía Ortega y Gasset, no
vivimos con la tecnología,
sino que vivimos en la tecnología.
La mayor parte de nuestro
mundo es artificial
y los seres humanos interactúan,
con los artefactos en una
suerte de simbiosis,
lo que se conoce como HDMI
fuman, sin trecho,
donde se difumina las fronteras
entre los sujetos humanos
y la tecnología.
De algún modo constituimos lo
que los tecnólogos llaman
Sistemas Murcia,
gentes, donde será una especie
de agencia compartida,
y muchos de ellos prefieren hablar,
no de inteligencia artificial,
sino de inteligencias compartidas
y colectivas.
No, porque estamos en esta suerte de
interacción con las máquinas.
De hecho podemos decir que todas
nuestras interrelaciones
están mediadas tecnológicamente.
Mantenemos una interacción
física, cognitiva,
emocional con la tecnología.
Pensemos en esa relación casi
patológica que tenemos,
con nuestros teléfonos móviles
y hay una patología que se
llama la nomofobia,
ese miedo a estar desconectado
a salir de casa,
sin el teléfono móvil,
o aquello que se presentaba en
una película de pero bonita,
donde el protagonista
Fénix se enamoraba
de una inteligencia artificial,
por eso quiere decir que
que mantenemos éste
esta simbiosis y por eso
también valores
que tradicionalmente está reservado
a los seres humanos,
como la autonomía, la
responsabilidad la vida de alguna manera
empezamos a proyectarnos también
entidades tecnológicas híbridas,
que constituimos con la tecnología.
Y por qué es?
Porque hasta entonces en todas partes
no yo lo llamo el internet del todo,
porque la inteligencia artificial
se basa en una explosión de
artefactos e instrumentos
que están altamente interconectados
y que recogen enormes cantidades de
datos de información a través,
por ejemplo, de sensores
que están incorporados
en infinidad de objetos cotidianos.
No solo nuestros teléfonos móviles,
sino el ordenador,
a través del cual estamos hablando
ahora los televisores,
los automóviles, los
electrodomésticos es decir,
todo lo que se conoce como el
Internet de las cosas,
pero también podríamos hablar
de internet de los cuerpos,
porque nuestro propio cuerpo se ha
convertido en una plataforma
tecnológica a través, por ejemplo,
de dispositivos médicos,
de implantes, de una
pulsera o un reloj
que mide nuestras pulsaciones
y nuestra forma física
a través de lo que se conoce ahora
como los medicamentos digitales
que se incorporan se ingieren.
Nuestro cuerpo incorpora
un tipo de dispositivo
y luego, además, hay que decir que
toda esta enorme cantidad
de interacciones de datos
que se recogen se hacen muchas veces
también fuertes de fuentes abiertas
de transacciones que realizamos
a través de una aplicación
o de nuestros dispositivos,
o nuestra participación en redes
sociales, etc. Incluso,
simplemente cuando estamos paseando
existen sistemas
de reconocimiento facial de
escáneres de huellas dactilares,
es decir, cada vez hay una mayor
ratificación de la realidad
y por eso me refiero a una internet
del todo la inteligencia artificial
y la robótica social que es a
la que me voy a referir.
También hay un asunto sobre
cuál me voy a referir más
adelante es el de las muchas manos
y muchas cosas conectadas,
y esto tiene una implicación directa,
por ejemplo sobre la noción
ética y jurídica,
también de responsabilidad,
como podamos atribuir la
responsabilidad en entornos
donde existen esas interacciones
esa esa hibridación
entre lo tecnológico y lo humano es
el problema de las muchas manos,
muchas cosas conectadas.
Bueno, desde un punto de
vista filosófico,
este contexto, esta convivencia
con las máquinas
supone una ratificación
de la realidad.
Podemos decir que lo que es
real es la información.
Todo se transforma.
En datos cuantificables, ya he dicho
que se cuantifican todas
nuestras interacciones humanas,
los pensamientos,
los estados de ánimo
de comportamiento,
a través del análisis de
elementos intangibles
de nuestra vida cotidiana,
que se pueden monitorizar a través
de los gráficos sociales
que estudian las redes
sociales Twitter,
Facebook, LinkedIn, etc. Pero
también se ha ratificado
los actos más esenciales de
nuestra de nuestra vida,
el sueño, la actividad física,
la presión sanguínea,
la respiración tenemos cada vez más
elementos de monitorización,
prendas de vestir, píldoras
digitales,
como he dicho antes, dispositivos
de implante cerebral,
relojes inteligentes,
prótesis que están recogiendo
constantemente datos
y que de alguna manera nos
configuran como un yo cuantificado,
pero también se cuantifica
y se ratifica el espacio
a través de la geolocalización,
y, como he dicho antes,
a través de las objetos se siguen
recogiendo constantemente.
Infinidad de cantidades de datos y
claro, todos estos, estos datos,
se utilizan y se se monetiza porque
también son un negocio
a través de algoritmos,
un algoritmo que parece una
palabra sin muy novedosa
es algo muy antiguo.
No deja de ser una lista más o menos
larga de instrucciones;
un conjunto ordenado
y de pasos que puede emplearse
para hacer cálculos
para resolver problemas y alcanzar
decisiones en un algoritmo
es un estado inicial y una entrada
siguiendo una serie de pasos se
llega a un estado final y se obtiene
un resultado eso es simplemente
un algoritmo,
lo que pasa es que es verdad
que todo este proceso
de recogida ingente de datos
se ha facilitado mucho,
con los teléfonos inteligentes, la
tecnología de computación barata
y porque tenemos eso, los equipos
procesadores digitales
y el almacenamiento para
manejar y utilizar
esta enorme cantidad de datos y a la
vez tenemos las herramientas,
son las estadísticas, algoritmos
a la vez en paralelo,
tenemos un desarrollo de lo que
también era una disciplina clásica,
era la robótica.
Al final, un Renault es
una máquina situada
en el mundo que siempre era una
manera piensa y actúa,
y tiene 3 elementos característicos.
Tiene unos sensores que le permiten
percibir información del entorno
del contexto, tiene una capacidad
de procesamiento
de información que le permite
emular algunos aspectos
de la condición humana y
sacar esa capacidad
de procesamiento.
Es la que está vinculada a la
inteligencia artificial,
y lo tiene también lo que se conoce
como unos actuadores, es decir,
algunos elementos que le permiten
interactuar en el entorno
pueden ser brazos artificiales,
ruedas, algún tipo de mecanismo,
que es lo que ha cambiado en
el ámbito de la robótica,
pues es que la robótica clásica
se limitaba a, por un lado,
a estar en espacios restringidos,
por ejemplo, en la industria,
y estaba de alguna manera
perfectamente controlado,
y se basaba en lo que se conoce como
algoritmos, determinista,
es decir,
con un conjunto de de pasos que eran
perfectamente indefinible
y predecibles.
Mientras que los algoritmos
de la robótica actual.
Son algoritmos que se
llaman cognitivos,
no porque desarrollan eso
capacidades de aprender del entorno,
y dependen mucho de esa interacción
que establecen con el entorno.
Es el caso de la robótica
interactiva o social que de alguna manera
opera directamente en un entorno
que es cambiante,
que es complejo, que es impredecible
y en el cual se encuentra
el ser humano y nosotros
interactúa con ésta,
con esta robótica.
Hay un documental que
pueden consultar,
que está en YouTube, en abierto,
que realizó un compañero de nuestro
grupo de investigación,
del Grupo de Ética Aplicada del
Instituto de Filosofía,
Daniel López, que se titula Si se
aparecen los robots están saliendo
de las fábricas y se pregunta
estamos preparados
y es una serie de reflexiones
que nuestro compañero
recogió en laboratorios
de toda Europa
sobre cómo está transformando
el sentido de esa robótica,
esa nueva robótica, que son robótica,
que está en una interacción mucho
más directa con los seres humanos;
por lo tanto, tenemos esta
explosión de artefactos,
esta inteligencia artificial,
basada en datos que alimenta
también otros artefactos,
que están ya en nuestro entorno en
un entorno que es cambiante,
que es complejo y en el cual nos
situamos los seres humanos,
y esto genera una serie de riesgos.
Como pueden pueden imaginarse,
voy a mencionar algunos
de los más evidentes,
el riesgo, que se conoce muy bien,
sobre la privacidad de las personas
y también con la posibilidad de
manipulación o el estrecho contacto
de estos artefactos y estos
sistemas cognitivos,
con las personas a través de
dispositivos implantes,
pueden favorecer la intervención
coercitiva de las mentes
y posibilitar el que se conoce
como el troquelado.
Son la manipulación
éste es un riesgo evidente también
relacionado con esto,
está el riesgo de la cancelación
de la identidad
y otro tipo de fraudes, relacionados
con la suplantación,
que puede propiciar la inteligencia
artificial
y la robótica interactiva.
Asimismo está el problema del engaño
porque este tipo de tecnologías
pueden propiciar falsas relaciones
auténticas,
en la medida en que se construyen
entornos cuya finalidad
puede ser instrumentalizar
de algún modo
los individuos que pueden;
por ejemplo, acabar dependiendo
emocionalmente
de este tipo de tecnologías de
robots e inteligencia artificial,
que es un poco lo que pasaba
en la película.
También otros riesgos, la merma
de contacto humano,
la robótica, la interactiva
y la inteligencia
artificial pueden contribuir
al deterioro
de las relaciones interpersonales,
propiciando el aislamiento social
y una pérdida de la interacción
social significativa.
Haré mucho mucha reflexión
al respecto,
por ejemplo, sobre lo que significa
el metaverso no esta nueva realidad,
que se está proponiendo unos
escrito recientemente, un,
articular aspecto también
sobre lo que
significa también de aislamiento, de
interacción social significativa,
y aunque hay discusión, parece
que los estudios apuntan
a que las relaciones interpersonales
presenciales, por ejemplo,
esta misma Conferencia, hubiera
sido mucho más grata y mucho
más interesante si hubiera podido
realizarse presencialmente,
que no nos imponen ya restricciones,
por ejemplo,
de la pantalla de nuestra banda,
que tengamos nuestra conectividad
de nuestro lugar
y que digamos, no porque
tengamos mejor o peor,
cobertura, etc. También
en las relaciones
con las tecnologías, por ejemplo,
con la robótica interactiva,
cuando se aplica por ejemplo
los entornos de cuidado
está el riesgo de la realización
de los individuos
y, por tanto, la devaluación
de su dignidad,
algo que puede ir acompañado
de cierta estigmatización
y infantilización de un colectivo
de usuarios de.
Con respecto a este tipo
de tecnologías
y también en última instancia,
esta tecnología
puede producir una reducción de
las relaciones a una ilusión,
no con lo que supone de limitación
de nuestra propia vida,
y nuestra propia comprensión,
como como seres humanos,
no pueden conducir a una
cierta deshumanización
y, por ejemplo, en el
caso del cuidado.
Pueden erosionar el mismo
sentido del cuidado
como una práctica moral
relacional esencial?
Bueno, y además hay que decir que
estos escenarios planteados
son especialmente relevantes también
para grupos individuos vulnerables
como pueden ser menores adolescentes
personas con diversidad funcional
personas mayores
no en cuyo caso hay que tener una
consideración muy específica
con respecto a estos individuos
y colectivos.
No, este es un poco el mapa
de la situación.
Convivimos con la tecnología,
existen unos riesgos que podemos
calificar de importantes
y en algún sentido existenciales,
y por eso se ha planteado una, una
reflexión ética al respecto,
y la verdad es que existen ya un
montón de análisis muy variados,
de recomendaciones de documentos,
de guías,
se han descontado ya más
de 90 a nivel global
sobre el impacto de estas
tecnologías,
lo cual, por un lado, muestra
el interés que suscitan,
aunque por otro lado, también
generan a veces ruido y confusión.
Si 1 analiza los principios
de las principales declaraciones, no
como los principios de asilo Mar,
la Declaración de Montreal para
una inteligencia artificial,
responsable, los documentos que ha
generado el Instituto para la
Ingeniería Electrónica eléctrica
de Estados Unidos,
propuestas desarrolladas por
el grupo de expertos
de alto nivel en la Comisión Europea
sobre inteligencia artificial.
Al final algunos se puede, se
puede volver a sintetizar,
que estamos podemos considerar 5
principios éticos básicos a la hora
de abordar nuestra convivencia con
la inteligencia artificial
y la robótica social, que
son 5 principios,
que los 4 primeros coinciden
básicamente con los principios
más o menos clásicos de
las éticas aplicadas,
que también han sido utilizados
ampliamente en la bioética.
Simplemente ha adaptado
su poco este contexto
más un principio.
Cuáles serían esos principios,
ese marco ético mínimo
y Alavés general para abordar
esta nueva relación,
esta nueva convivencia, el
primero y más básico
sería el principio de no
más deficiencias.
La idea de minimizar los daños no;
lo primero fundamental
es no dañar, o sea,
no sólo con acciones intencionadas
sino también sobre la imposición
de riesgos.
Por lo tanto, son muy importantes
la prevención y la precaución,
y además hay que considerar tanto el
daño relativo a los individuos,
pero también a los colectivos,
como he dicho antes,
con especial atención a individuos
y grupos vulnerables,
y a riesgos que podríamos considerar
existenciales o sistémicos,
no que tienen que ver con nuestra
propia identidad,
con nuestra propia comprensión
como seres humanos.
Por lo tanto, el principio
de eficiencia
de minimizar los daños implica la
importancia de la seguridad
y de la ciberseguridad, entendida
como un valor social
que debe destacarse cuando
los seres humanos
interactúan con sistemas
de decisión delegada,
como son los sistemas de
inteligencia artificial
y la robótica social.
Por lo tanto, la seguridad
es muy importante.
También en este contexto de
minimizar los daños se que hay que prestar
una especial atención a los sesgos
tanto en la recopilación de datos,
como en el manejo y el entrenamiento
de los algoritmos,
instrumentos de inteligencia
artificial y la robótica social,
los sesgos son, 1 de los problemas
más estudiados en este ámbito
de estas tecnologías, y no
dejan de ser prejuicios
en nuestro modo de procesar
la información
y, por tanto, un modo distorsionado
de percibir.
La realidad es la propensión
a beneficiar a un grupo,
perjudicar de manera justa o
éticamente inadmisible,
y estos sesgos dan lugar en las
inteligencias artificiales,
en la robótica social, la
discriminación por razón de sexo,
género, raza, estatus económico
consolidando prejuicios
y estereotipos existentes,
reforzando muchas veces
la exclusión social y
la estratificación.
Por lo tanto, son sesgos que dañan y
perjudican a individuos y grupos.
Ya hay muchos ejemplos que se
han estudiado, por ejemplo,
en el caso de sistema judicial
norteamericano, aquel programa compás
que perjudicaba sistemáticamente
a la población afroamericana
o en otros ámbitos,
como algunos sistemas de
reconocimiento facial,
pues estaban, por ejemplo, cargados
con con el consenso,
que discriminaban sistemáticamente
a las mujeres.
El primer principio sería
este principio básico,
un principio ético básico,
de minimizar los daños en eficiencia
correlativamente.
El segundo principio sería el
de buenas consecuencias,
maximizar los beneficios
o beneficencia,
y es que los beneficios potenciales
de estas tecnologías
deben superar el posible riesgo
para los sujetos,
las comunidades y el medioambiente,
y esto se relaciona de alguna manera
con la orientación hacia
el bien común
y hacia los Objetivos de
Desarrollo Sostenible.
Por eso, los tratamientos de
inteligencia artificial
y de robótica social deben acreditar
claramente su necesidad,
su efectividad y su orientación
al bien común,
acotando un propósito bien
definido y determinado,
es decir, tienen que ser
proporcionales.
Una buena práctica en el ámbito
de la tecnología
es evaluar previamente, si
realmente es necesario
desarrollar una tecnología
inteligencia artificial
o de robótica social para un
determinado contexto.
Problema a veces se acude
rápidamente a esta solución tecnológico,
cuando otro tipo de intervenciones
pueden ser mucho más acertadas,
mucho más sostenibles y mucho menor.
Impacto social,
ecológico, etc. Este por eso el
principio de beneficiencia
incluye la protección
del medio ambiente
y las generaciones futuras, y esto
es un asunto muy importante
que no se tiene en cuenta
muchas veces,
porque todo este desarrollo de
la inteligencia artificial
y de la robótica interactiva, tiene
un enorme impacto medioambiental.
Las infraestructuras vinculadas a la
misma inteligencia artificial,
los centros de datos y
de cálculo, que son,
que tienen materialidad y que
consumen enormes cantidades
de energía muchísimas derecho,
las propias empresas
están viendo que eso puede llegar
a ser una limitación importante
para su negocio.
Están trasladando sistemáticamente
sus centros de cálculo,
por ejemplo, a países fríos,
lugares fríos,
donde tienen que consumir
mucha menos energía.
Para refrigerar estos sistemas
también se estrena investigando,
denodadamente hardware sostenible
que produzcan menos calor que
consuman menos energía,
pero también hay que considerar la
extracción de materias primas
que es muy alta para desarrollar
estos sistemas,
y además sería una estación que se
hace a veces sin condiciones,
que no son especialmente justas
precisamente sobre esta cuestión
del impacto medioambiental,
y suben las generaciones futuras.
Se va a celebrar la semana
que viene en Bilbao
la primera conferencia
de los días 17 18
va a participar también en la Unidad
Asociada entre el CEBS
y el Instituto de Filosofía con
algunos vamos a participar
en este esta conferencia, donde
vamos a analizar las posibilidades
de alinear la transición digital
en la que estamos metidos,
y la transición energética en la
que también estamos metidos,
en la que, como estamos viendo,
esta está provocando muchísimos
problemas.
Por lo tanto, tenemos minimizar
los daños,
maximizar los beneficios.
El tercer principio ético sería
el de respeto y autonomía,
entendido como que los procesos
de inteligencia artificial
y robótica social han de estar
centrados en las personas
y amparar el derecho de
éstas a conservar,
la facultad de decidir
qué decisiones.
Tomar y ejercer la libertad de
elegir cuando sea necesario,
esto significa que los humanos
han de preservar el poder
de decidir en última instancia,
qué decisiones tomar
y cuál es delegar.
Existen más de datos e inteligencia
artificial y robótica social.
Esto es muy importante porque, como
he dicho antes, por ejemplo,
estos sistemas pueden vigilar
y modificar efectivamente,
el cerebro, afectando
al propio sentido
de autonomía e identidad
de las personas
y, en última instancia, a la
forma en que nos vemos
a nosotros mismos y nuestras
relaciones con los demás.
Por lo tanto, hay que tener
especialmente cuidado
con todos los sistemas que generan
patrones estadísticos recurrentes,
que pueden ser usados para preferir,
para predecir y entender el
comportamiento de las personas,
perfil y manipularlas emocionalmente.
Por todo ello, hay que proteger
a los individuos
contra el uso coercitivo
de estas tecnologías
y la posibilidad de que la
tecnología pueda ser utilizada
sin nuestro consentimiento.
Esto supone, por un lado,
proteger la privacidad y los datos
de carácter personal,
pues además también, como
decíamos antes,
con ciertas medidas de seguridad,
la fuga de datos,
la falta de transparencia en
la recogida de datos, etc.
Y luego también buscando a preservar
la identidad personal,
la continuidad del comportamiento
personal frente a modificaciones
no consensuadas de terceros.
Esto es un poco el debate que
hay en la actualidad.
Es un debate jurídico muy
interesante sobre la pertinencia
de introducir lo que se conoce como
los nuevos derechos humanos,
que protegerían de algún modo
la libertad cognitiva.
Otra terminación mental es el
derecho a la privacidad mental,
el derecho a la integridad mental
y el derecho a la continuidad
psicológica
Hay algunos algunas iniciativas
como la que ha liderado
el neurobiólogo español Rafael Yuste,
que trabaja en Columbia
y ha propuesto,
pues es una introducción
de las constituciones
o las cartas de derechos de
los derechos humanos
también dentro de algunos sectores
de la filosofía jurídica.
Es un debate interesante
sobre si es necesario no introducir
este tipo de derechos.
En cualquier caso, respecto
a la autonomía,
es un elemento ético importantísimo
en nuestra relación
con este tipo de tecnologías.
es el tercero.
El cuarto sería el principio
de justicia.
En el ámbito de la ciencia la
tecnología se puede interpretar,
se puede dividir en 2
cuestiones básicas.
Por un lado, digamos, el
reconocimiento y, por otro lado,
la asignación de recursos o
distribución de recursos escasos,
ya que me refiero con reconocimiento
me refiero a la inclusividad,
que supone tener en cuenta todos
los interesados y afectados,
la diversidad, la gente sí;
valores en el proceso en
proceso de desarrollo,
de tecnologías.
Incluso también consiste este
reconocimiento es respetar
a quienes quieren mantenerse, al
margen del plano analógico,
una colega, el Instituto de
Gobernanza Democrática,
mal una línea llamado el principio
de exclusión,
es decir, nadie tiene que estar
excluido, por ejemplo,
de su relación con la administración
o de determinados bienes sociales
por estar al margen del
mundo digital,
es decir, en cualquier caso, como
dice desde la perspectiva
de la investigación, innovación
responsable,
que creo que tuvieran además una
conferencia de un amigo y colega
Patrici Calvo, hablando poco de
la ética de la investigación
en estos ámbitos,
pues en todas las etapas de los
procesos de desarrollo,
de inteligencia artificial,
robótica social,
hay que tener en cuenta y utilizar
metodologías inclusivas
y participativas.
Esto es un elemento de la justicia
de reconocimiento
y el otro es el que tiene que ver
con la asignación de los recursos
y, por lo tanto, con la búsqueda de
la igualdad y la accesibilidad,
es decir, con equidad,
porque se debe evitar una nueva
brecha de desigualdad
a causa de la inteligencia
artificial y de la robótica social.
Quería existe actualmente
con la brecha digital,
por eso es muy importante impulsar
los algoritmos abiertos,
el conocimiento compartido
en estos ámbitos
para favorecer la solidaridad y la
distribución de los beneficios
de la tecnología, y esto
es muy importante
porque corremos el riesgo de generar
una nueva brecha de desigualdad
a cuenta de la introducción de
instrumentos de inteligencia
artificial y robótica social.
Estos 4 son, como les he dicho,
compartidos con otras técnicas
aplicadas también con la bioética
y aquí habría que introducir
un quinto elemento,
que es especialmente relevante
en el ámbito
de la inteligencia artificial,
y la robótica social,
basada en algoritmos de inteligencia
artificial,
y es la explica habilidad.
Hemos dicho que estas tecnologías son
especialmente impactan directamente
en nuestra vida cotidiana
y afectan a aspectos muy sensibles,
importantes desde la atención
sanitaria a los propios derechos
civiles y sociales,
desde el crédito a los seguros,
el derecho penal
y, por lo tanto en la medida en
que tienen esta este carácter
tan disruptivo, es muy importante
que puedan ser explicables.
Qué significa explicable, no
en el sentido técnico
sino en el sentido más ético
-filosófico.
Significa, por un lado,
que se pueda comprender de algún
modo su funcionamiento quizás no todo,
pero que sean procesos que en algún
sentido son inteligibles
y, sobre todo,
que se pueda identificar el
proceso de decisión,
las personas implicadas y las
consecuencias que se deriven,
es decir, que se puedan
rendir cuentas.
El gran riesgo de estos restos
de estas tecnologías
es lo que se conoce como
las cajas negras,
no aquello de que no se pueda
explicar y no se puedan pedir cuentas
a unos sistemas que no
se conoce como no.
Por eso la idea de comprensión
de interpreta habilidad
y de rendición de cuentas están
directamente ligadas
a este principio que se ha venido
en denominar explica habilidad.
Llama a este principio complementa
a los anteriores
porque para que un sistema de
inteligencia artificial
y robótica social sea ineficiente
y eficiente
debemos ser capaces de
entender el bien
o el mal que se puede producir
para que un sistema promueva
y no restrinja la autonomía,
la decisión de quien
decide la decisión
sobre quién decide debe estar
informada mediante el conocimiento
de cómo actuaría la inteligencia
artificial,
y nosotros tenemos que
ver cuáles nos pasos
que dar para que un sistema sea
justo y alguien se haga cargo,
y esto es muy importante desde
el punto de vista
de la responsabilidad de los
resultados negativos
en el caso de que los hubiera
precisa la rendición de cuentas
y por lo tanto es precisa esta
trazabilidad y comprensión
de por qué se han producido
estos resultados
cuando estamos antisistemas,
que son opacos,
no podemos tener ni rendición de
cuentas ni por lo tanto asunción
de responsabilidades y tampoco
conocimiento suficiente
para decidir qué dejamos
inteligencia artificial
y que no dejamos que se
pueden producir.
Por eso, este principio fundamental,
que de alguna manera repercute
condiciona los anteriores.
Estos 5 principios tenían el
marco del marco ético
para general.
Para hablar precisamente
de esta convivencia
con los robots sociales y con
la inteligencia artificial,
luego se pueden concretar en normas
de actuación en buenas prácticas.
La primera, de las cuales solo
voy a referirme a ella,
es esa que les comentaba.
Y es que hay
que valorar siempre previamente
la necesidad y conveniencia
de desarrollar una aplicación basada
en Inteligencia Artificial,
en datos masivos.
No hay que justificar de
manera convincente
la necesidad y pertinencia,
porque a veces si hacemos un análisis
el impacto medioambiental, la
posibilidad de discriminación,
el riesgo con respecto a la
autonomía de las personas,
una materia especialmente sensible
a la que se refiere,
pensemos, por ejemplo, en procesos
de justicia penal,
nos deberían hacer considerar
que no tenemos
que desarrollar un sistema de
inteligencia artificial,
robótica social, para esa,
para esa necesidad.
Por eso es muy importante determinar
y documentar claramente los
objetivos y el alcance del sistema o aplicación
y, sobre todo, establecer un marco
a través de lo que se conoce
como una evaluación de impacto
ético de todo proyecto,
y todos los servicios que se vaya a
basar en inteligencia artificial
y en robótica social.
Para evitar los sesgos, por tanto,
las discriminaciones,
para analizar el impacto
medioambiental,
para estudiar y destacar también
la participación
y la inclusividad que ese desarrollo
tiene con respecto al entorno
ni cuál se va a introducir
esta tecnología
o este sistema.
No voy a extenderme en estas
buenas prácticas
porque se pueden detallar muchas
que son resultado
de los principios a los que
me acabo de referir.
Precisamente en algunas
instituciones,
como por ejemplo, la Diputación
Foral de Gipuzkoa
está preparando un código
ético para los datos
y la inteligencia artificial
que quiere aplicar
y que quiere que sea el marco
de referencia para su plan
de transformación digital
y para el desarrollo de sus
propias aplicaciones
basadas en datos y en inteligencia
artificial.
Esto es muy importante
porque las instituciones tienen
un elemento tractor
y de ejemplaridad que puede
generar buenas prácticas,
también se relacionan.
Por lo tanto, sí podrían,
si me preguntan cuál es el alcance
de la ética para este marco ético,
para la convivencia con artefactos
basados en inteligencia artificial,
sociales es que la ética permite
alinear los valores
de la sociedad con las tecnologías,
como la inteligencia artificial,
de modo que se genere innovación
y apropiación social
de dicha tecnología mediante
que mediante la confianza
la ética son un elemento
indispensable
para generar confianza, y para
propiciar estos entornos
que ya nos constituyen
socio -técnicos,
que sean de alguna manera inclusivo
como decía filósofo en la ciencia
de la ministra de Salamanca, que
sean entornos étnicos entrañables
una palabra que lo traducen
como entrañable,
sin una palabra, entrañable
que es un entorno social
técnico entrañable, un entorno
que es abierto,
que es versátil, interoperable, que
es controlable, que es comprensible,
como hemos dicho antes,
que es sostenible, que es respetuoso
con la privacidad,
que se centra en las personas
y que es especialmente cuidadoso con
los individuos y colectivos
más desfavorecidos, porque la
idea es que otra tecnología
y tenemos que aprovechar las
oportunidades que nos ofrece
la tecnología,
pero otro enfoque de la tecnología
es si es posible.
Dicho esto, y para ir terminando,
porque tampoco quiero ver si puede
haber lugar a un diálogo,
aunque estemos así mediados
tecnológicamente por las pantallas,
quiero también señalar algunas
algunos riesgos,
algunas limitaciones también
de la ética
para nuestra convivencia, con
la inteligencia artificial,
en la robótica,
y porque hay que hacer también un
cierto ejercicio de autocrítica.
Bueno, hay una limitación interna
que es propia de la misma ética,
y es que es la dificultad
para poder considerar
los posibles impactos sociales,
ambientales o intergeneracionales
de una determinada tecnología basada
en inteligencia artificial,
porque son esos sistemas que son muy
autónomos, que son escalable,
es que cambian rápidamente
entonces el poder
calibrar las las consecuencias.
Sus impactos es especialmente
difícil y además, por otro lado,
los desacuerdos que existen
en Filosofía moral.
También se transfieren al
ámbito de la ética
en la inteligencia artificial.
Esto sería limitaciones internas.
Tenemos que recordar que,
como decía, filósofos de
la ciencia también
Silvio dieron graves.
Vivimos en un contexto de lo que
se conoce como ciencia.
Pues normal que es una ciencia
que tiene 4 características.
Tenemos gran incertidumbre
sobre los hechos;
tenemos valores en disputas.
Tenemos también, por otro lado,
situaciones de enorme emergencia,
como puede ser la crisis climática,
como ha sido la pandemia y por otro
lado, tenemos la necesidad
de tomar decisiones urgentes.
Ese es un poco el contexto
en el que nos movemos,
es el contexto de la
ciencia por normal
la parte de estas limitaciones
internas, que son propias
de la ética como disciplina,
podríamos hablar de 3 limitaciones
externas que yo quisiera mencionar.
Una es la inoperancia.
He dicho antes que hay una
enorme variedad de guías
de documentos sobre ética.
Ya se han recopilado ya creo que
más de 90, muy bien escritas
sobre muchos aspectos éticos
de la de estas tecnologías
o la agencia la autonomía la
moralidad los derechos
los valores las virtudes la
rendición de cuentas muchas cosas
y esto es interesante porque
muestra que hay.
Ahí hay una preocupación
por la dimensión ética
de la inteligencia artificial;
también genera confusión, ruido,
duplicación del debate.
La gran pregunta es cómo podemos
de alguna manera
transformar realmente a través
de una visión ética,
el desarrollo de la inteligencia
artificial en la robótica social
como operación los principios éticos,
y para eso hace falta una
cierta infraestructura.
Hacen falta instrumentos,
procedimiento personal pasar
de las musas al teatro
y sobre todo huir de una
visión de la ética,
con una especie de recetario
de principios,
de buenas intenciones,
y volver a la raíz
de lo que significa es interrogarse
y preguntar desde el principio
sobre estos sistemas, sobre
su desarrollo,
desde el mismo diseño sobre
sus sus impactos y acceso
a las preguntas que muchas veces
no se hacen preguntas
como he dicho antes sobre el
impacto medioambiental
sobre las asimetrías de poder que
supone este tipo de tecnologías,
sobre el activismo, también
de materias primas
y de mano de obra, mucha
inteligencia artificial
para entrenar.
Estos sistemas se basa en
el trabajo aislado
y en condiciones pésimas,
muchísima mano de obra, sobre todo
en países empobrecidos,
que son los que alimentan las
inteligencias artificiales.
No habría que caer en que la ética
se convierta en este este asunto
esté en este asunto inoperante.
Que es una especie de cháchara para
iniciados no, pero que no,
en la que no participan las personas
y los grupos más vulnerables
y que pueden ser más susceptibles
de daño;
impactos negativos por este tipo
de sistemas, no, bien,
porque tienen un acceso social
restringido a los mismos,
bien porque carecen de la suficiente
alfabetización
digital o por otras barreras
sociales, económicas o culturales,
que la ética corre el
riesgo de quedarse.
La inoperancia también corre otro
peligro es el del colonialismo,
no porque el diálogo ético
internacional sobre estas tecnologías
está dominado por una minoría
de países de alto nivel,
de desarrollo técnico
-científico, lo que excluye la
deliberación, otros muchos países
y agentes que luego se van a ver
afectados por este desarrollo,
en una reciente Guía para entender
la inteligencia artificial.
Desde el mundo mayoritario se señala
que la comprensión actual
de los sistemas de inteligencia
artificial,
robótica social, tiene una debilidad,
y es que las historias
futuros y opiniones
de la mayoría de las personas
del mundo se han eliminado
de la narrativa de estos sistemas,
y yo añadiría que también se
eliminado de la reflexión ética.
Son los mismos.
Cuando de mayoritario me refiero
a lo que se denomina,
pues de varias formas hubo países
en vías de desarrollo,
tercer mundo del sur global pero
que son las periferias,
que permanecen pasivas a los
problemas y desarrollos
son, como en este caso,
ostensiblemente global
y que tiene que ver con esas
preguntas que nos hacemos
el activismo de recursos naturales
en estos países
en unas condiciones muchas veces
que no son las adecuadas,
naturales y materias primas,
también la cuestión de
la mano de obra
se mezclaban los trabajadores
fantasma, etc. Por lo tanto,
la ética puede ser inoperante,
como he dicho antes,
puede pecar de neocolonialismo,
y, por último,
y lo que es más grave,
puede ser utilizada
por las grandes corporaciones
tecnológicas como coartada
para evitar las regulaciones.
Existe un discurso casi
ubicuo de la ética,
para las tecnologías destructivas,
que no estaba en el comienzo
del desarrollo tecnológico
de la inteligencia artificial
y la robótica social.
Hay un discurso que se alinea
mucho con los intereses
de las grandes corporaciones,
que han introducido importantes
cantidades de dinero
para crear putos o centros de
investigación sobre Inteligencia,
Artificial, bética entendía, siempre
con prácticas responsables
y voluntarias, frente a cualquier
tipo de regulación
y claro, esto es una manera de
blanqueamiento que queda alguna.
Lo que pretenden es no, no no entrar
en cuestiones importantes
que están relacionadas con
estas tecnologías
y que tienen que ver con la
propiedad, con el bien común,
con la legitimidad del desarrollo
de las mismas,
con un pluralismo razonable, con
cuestiones de asimetría,
de poder, etc. Por tanto,
habría que ver
que no se utilice la ética
como una coartada
para evitar la regulaciones.
En definitiva, con respecto
a la robótica social,
la inteligencia artificial,
lo que nos encontramos
es 1 de los retos más importantes
del mundo contemporáneo,
y es, como configurar esa
interacción entre el humano
y la máquina entre el humano y
estos sistemas tecnológicos
con los cuales ya estamos híbridas.
Por lo tanto, hay que considerar
además que se ha dado el salto
y que los artefactos operan en un
entorno complejo y cambiante,
donde el ser humano está situada
en el centro del diseño,
pero donde estamos constituidos
de esta manera
y en términos de una agencia
compartida.
Por ello es crucial la pregunta
sobre la ética absolutamente necesaria
y sobre cuál es el marco
de convivencia
que queremos establecer
en este contexto
de los nuevos entornos técnicos, en
los cuales los cuales vivimos,
como decía Ortega.
Muchas gracias.
Bueno, hubo muchísimas gracias a esto
y si ahora el público quiere
levantar la mano,
quiere plantear cualquier
pregunta comentario.
Pues será bienvenido.
Yo me están preguntando
si el imaginario que nos legó la
saga de La Guerra de las Galaxias
en la que aparecen robots que
interactúan con los seres humanos
está presente de alguna manera
en esa mentalidad colectiva
en la cual, pues vemos cómo
prácticamente inevitable,
e incluso maravilloso
que un simpático 3,
pero como se llamará, está
ayudando a los humanos,
a hacer determinadas tareas
y, bueno, pues a lo mejor
llega un momento en que también
nos parece normal subirnos
a un coche que no lleva conductor,
o nos parece normal
que haya un montón de cosas que las
máquinas y y que era impensable
hace unos años, que eso ocurriera,
y eso, pues llega a formar parte
de nuestra normalidad
sin ningún tipo de barreras,
como que la efectivamente, la ética
estaría llegando un poco tarde,
porque ya llegó antes.
El creador de la saga de
esa saga de Lucas
era.
Yo llegaba mucho antes que entonces.
Bueno, soy la sensación
de que todo eso ya está como
por dado por descontado.
Es decir, ya se daba por descontado
de que la robótica está aquí;
la actividad está aquí y ha
venido para quedarse
y simplemente lo que tenemos
que hacer es
intentar convivir con ella
de un modo amigable.
No sé si este comentario
parece ocioso
si no, no creo que es muy
interesante y de hecho nosotros en el grupo
hemos hecho incluso algunas algunas
pequeñas reuniones
y cine fueron precisamente
analizando el papel de la ciencia ficción
en la reflexión ética
para para robótica
y la inteligencia artificial,
porque, efectivamente,
la ciencia ficción
se ha adelantado a muchos de los
planteamientos planteamientos
podríamos decir apocalípticos ya
a planteamientos integrados.
No creo que la reflexión ética y
filosófica está precisamente
en el análisis crítico de
estas tecnologías,
no existiera apocalípticos y
hubiesen integrado sin ser utópicos,
distópico.
Pero la ciencia ficción ha sido una
herramienta muy interesante
en la sala que mencionaba,
que aparecían unos robots
relativamente amables.
En otras series o películas
que hemos visto,
aparecen otras situaciones
completamente horrorosas;
entonces yo creo que las narrativas
nos permiten también pensar
cómo queremos configurar
en el futuro,
y yo creo que precisamente
la literatura
y la son una herramienta
muy interesante
para plantear problemas éticos
relacionados con el desarrollo
de estas tecnologías.
Hay un libro que no se instala,
descatalogado;
está publicado en Tirant lo
Blanc de sobre Star Trek
y los derechos humanos, que escribió
un filósofo Derecho,
Alfonso García Figueroa que
están hubiese Castilla
donde plantea también por ejemplo
hasta qué punto 1 de los personajes
que que quiere estar en esta
saga de Star Trek
le conozco menos, pues tenía
derechos humanos o no tenía derecho
a ser un androide, no, pero que
tenía cierto grado de autonomía
la había tomado una serie
de decisiones.
De todas formas, eso también,
la ciencia ficción
nos pone en relación con con una
inteligencia artificial,
o una robótica interactiva, que
ahora mismo es eso, es ciencia
ficción los mismos expertos que
trabajan en la robótica
inteligencia artificial lo que hacen
es decir bueno nuestras nuestra
nuestra situación actual
es muchísimo más molesta, seguida
de inteligencia,
la singularidad, la inteligencia
artificial general,
que va a superar a los humanos.
Es absolutamente ahora
mismo, imposible.
Entonces, lo que tenemos
que centrarnos es
cómo nos integramos con sistemas
de tecnología que pueden
ser muy útiles para mejorar,
por ejemplo,
servicios de atención sanitaria,
servicios de cuidado y gestión
de políticas públicas, gestión
medioambiental,
pero como lo hacemos de una manera
que no sea crítica,
sino que en la cual tengamos
una participación
y no nos entreguemos sin más a
una suerte de solución mismo
tecnológico Yo creo que
ése es el puto
y el lugar que le corresponde,
precisamente la reflexión
ética y filosófica,
que luego se puede traducir en
normas jurídicas regulaciones etc
pero nosotros tenemos que
hacer las preguntas
las preguntas sobre esta tecnología
en la cual estamos y que,
de alguna manera,
pues se adelantaban en esas series
y películas de ciencia ficción,
Ahora mismo estoy hablando con todos
ustedes, todos, vosotros,
a mi abuelo, le parecería ciencia
que nos estuviéramos viendo esto.
Salían las películas también
de los años 50.
Y ahora lo hemos completamente
normal.
Nuestros hijos y nuestros nietos.
Cogen los móviles y las pantallas,
hemos dado un salto.
La pregunta importante es.
Cómo queremos que se construyan
esas tecnologías,
sí al servicio de las personas
o al servicio
de grandes corporaciones, al
servicio de otros intereses,
o con una merma de derechos y
libertades fundamentales.
No es la gran cuestión la cuestión
ya de la antropofagia antropomorfos
indización de éstos de estos sistemas
de atribuirles creatividad
inteligencia general sentimientos
eso sigue siendo y está bien
que nos lo planteamos
porque nos permite.
Creo que la imaginación es
un elemento fundamental
para la ética, la filosofía,
pero es eso, es imaginación para
pensar futuros posibles,
que no tienen que ser necesariamente
distópico,
sino que podrán ser lo que nosotros
queramos que sean.
Si intervenimos en esto
y no nos dejamos llevar también por
una suerte de inevitabilidad,
a veces no hay que introducir un
sistema de inteligencia artificial
o de robótica en un contexto, y esa
es la pregunta que yo quería.
Además, la primera buena
práctica cuando 1
habla con expertos en inteligencia
artificial,
como los colegas de inteligencia
artificial que está en Barcelona,
llegará si se plantea sistemas
de inteligencia artificial
para todo, cuando igual no
es necesario ese sistema
porque si hacemos una relación
impacto riesgos etc
pues no hay que empezar
a hacer ese sistema.
Hacer las preguntas es la
obligación que tenemos
como personas que nos dedicamos
a la filosofía.
Muchas gracias a más personas
que quieran intervenir.
Mercedes parece que quiere
intervenir adelante adelante
Mercedes buenas tardes
muchas desgracias
la verdad es que me ha interesado
extraordinariamente la conferencia.
Agradezco a quien ha organizado
el encuentro,
porque además Emilio lo sabe
porque forma parte
del proyecto de investigación.
Acaban de concedernos con cargo
a fondos en Eurovisión
un proyecto sobre plataformas
digitales para los cuidados
y escuchando me preguntaba
si ahora que me enfrento
a la necesidad del desarrollo de
la herramienta tecnológica,
porque el estudio es un
estudio jurídico
todos los aspectos concernidos
en la materia,
pero 1 de los objetivos es el
desarrollo de la plataforma
con una singularidad que ahora
no voy a comentar aquí
pero sí que me preguntaba si
metodológicamente sería
desde luego creo que
una buena praxis,
pero ya no sé si posible tener un
decálogo que nos orientará
desde el punto de vista ético en la
confección de la herramienta,
porque yo instintivamente me planteo
esto de la inevitabilidad
la accesibilidad,
la transparencia la explica
habilidad de la herramienta,
porque va dirigido a personas
con dificultades,
no necesariamente cognitivas,
pero sí físicas que entonces me
gustaría saber si podría contar.
Existe un un decálogo, una guía
bueno y es partidario del método solo
y cuadriculado.
Entonces me gustaría saber
si tengo esa herramienta
para incorporar a mi método,
porque estoy ahora mismo
elaborando la lista de necesidades
para trasladarle a la empresa
con la que voy a trabajar
la tecnología.
Pero yo misma quiero saber, a la hora
de configurar la desarrollándola
son los claves.
Si están descritas ya,
pues hay ahora mismo en los
proyectos de la inteligencia artificial.
En la Unión Europea existe ya
una especie de cheque para chequear
algunos aspectos
eso se puede, se puede descargar
porque ésta está disponible,
aunque claro, como está
ahora en discusión
la la artista sido un poco
la el reglamento europeo
sobre inteligencia artificial,
que está basado en riesgos,
hay algunos algunos equipos
que ya han desarrollado.
Yo le puedo mandar algún
algún ejemplo,
algún tipo de también
de cuestionario.
En el proyecto que hemos realizado
para la Fundación BBVA
sobre sesgos en algoritmos de triaje,
también hemos elaborado un pequeño
que es precisamente
para los desarrolladores, es decir,
para que eso solo lo puedo enviar
porque va a estar,
pero ya está publicado una
serie de preguntas
para que los propios desarrolladores
se vayan haciendo a la hora
de desarrollar el sistema y
que también se la hagan
las personas que lo van a
utilizar para decir.
Bueno, este sistema ofrece
garantías o garantías,
porque eso es muy importante también
en el ámbito de la salud
o de los cuidados.
También es muy importante que haya
ese tipo de prevención de cautela.
Por otro lado, es muy importante
que me parece
muy interesante la plataforma
digital para los cuidados.
Ha apuntado, porque una de
nuestras doctorandos
está trabajando precisamente
su tesis sobre el alcance,
las limitaciones del uso de
robótica, tecnología,
inteligencia artificial
para los cuidados.
No están haciendo su tesis sobre
sobre eso y que, por cierto,
creo que va a estar dentro estar
conectada con Murcia,
porque habrá una pequeña
sesión en el máster,
y doctorado debió derecho Diego,
pero hay herramientas todavía son
herramientas incipientes,
pero es muy importante hacer las
preguntas desde el principio,
porque luego no vale un poco Yo creo
que con la tecnología a veces ocurre
y esto es un discurso muy propio
de los de los que desarrollan
la tecnología, que ellos hacen
sistemas estupendos,
que funcionan muy bien, que son
muy operativos y demás,
y luego dicen que el problema es
cómo se usen esta vigencia
del uso.
Pero, pero vamos, la
tecnología tiene,
incorpora valores desde
su propio diseño,
es como se diseñe, ya
está determinando
cuál va a ser el resultado después
con respecto a su uso,
y por eso a la hora de diseñar
una plataforma
relacionada con los cuidados,
pues es muy importante
desde el principio contar
con la opinión
y el concurso de los futuros
usuarios y usuarias.
Creo que eso es fundamental.
Establecer algún tipo de estrategia
participativa inclusiva,
la cual se les tenga en cuenta,
porque además eso redunda
no solo en la calidad ética y
técnica de la herramienta,
sino también en su aceptación
y apropiación,
porque nosotros hemos trabajado
con empresas tecnológicas
como Tecnalia en el País Vasco,
que es una empresa que desarrolla
muchas herramientas para tecnologías
relacionadas con el cuidado soporte
en los domicilios para personas
con dificultades, etc. Y nos decían
que ellos han tenido que echar marcha
atrás algunos proyectos
muy bien diseñados,
muy bien desarrollados,
porque se les había ido la el punto
de vista de los usuarios
y puede ocurrir que 1 desarrolle
con la mejor intención
el mejor sistema y que luego
genera un rechazo,
porque no ha habido ese feedback
que era muy importante.
Esa alineación de valores y de
intereses y necesidades
entre los grupos afectados
y a quien va dirigido,
por ejemplo, la plataforma y la
herramienta que se proponen.
Entonces, eso es muy importante,
utilizar metodologías inclusivas
desde el principio del proyecto.
Existen esos cheques de
la Unión Europea
es bastante sencillo, pero
se suma serie preguntas,
cuando alguien va a iniciar un
proyecto de inteligencia artificial
que tenga algún tipo de riesgo
sobre las personas
y ahora se están desarrollando al
hilo de esta nueva reglamento,
que está en discusión y nosotros
hemos desarrollado
otro también para relacionado
con los sesgos,
en este caso era más centrado
en cuestiones de triaje,
pero que podrían aplicarse
a cualquier tecnología
relacionada con la tecnología basada
en Inteligencia Artificial,
relacionado en el ámbito de la salud.
Así que yo soy sin problema,
se lo agradezco;
a través de Emilio estamos
donde estamos.
En contacto directo.
Gracias.
Bueno, pues alguna pregunta más,
y si no, pues Eduardo tiene,
la mano levantada,
Eduardo es detenido, pero no he
tenido muchísimo problema
para poder conectar no
podía imaginar Yo
pienso que Pilar ha sido testigo,
estaba con el móvil, me iba a venir.
Ha sido Vega un cable que
tenía bajo el bueno,
tecnología; falló también
la tecnología,
falla precisamente por
ahí va mi cuestión,
y se está empezando a utilizar
la inteligencia artificial
para el diagnóstico ya hay varios
grupos de investigación
que recogen información.
Entonces La bamba aplicará
Inteligencia Artificial,
paga discrimina.
Habrá alguna manera que
proceso subsidiario
de una mayor análisis.
Se está hablando también de aplicar
y mantener determinado fenómenos
cada vehículo que esa vivienda vayan
vedadas concentraciones
de temblado marcador en
los vascos se salda.
Yo me pregunto qué opina al respecto
que evidentemente,
todo esto tiene un margen de error.
Estamos comentando.
Ante este margen de error,
puede tener importantes
repercusiones para una persona
dentro de esa sensibilidad
de la cueva.
Ya más chica quede fuera.
Fue objeto de seguimiento.
Como puede ocurrir también en
cualquier análisis bioquímico,
yo me pregunto, llega ahí.
Hemos aplicado artificial
en el ámbito judicial,
sentencias judiciales y que haya
dicho que la evaluación
de lo que has comentado de no
aplicar la Inteligencia Artificial
absolutamente para todo saben
sale de alguna manera
en limitar seriamente donde no sé la
aplicación es defensa oficial
y, por tanto la conclusión
de que podemos tener
de una aplicación indiscriminada.
Claro, no es eso.
Esa es una buena pregunta
crucial en realidad,
2 sistemas de inteligencia
artificial que su nombre muy bonito
y muy pomposo,
pero no dejan de ser sistemas de
control delegado, digamos,
no es la delegación de
algunas funciones.
Pues nosotros tenemos que
preguntarnos primero,
en qué contextos estamos dispuestos
a aceptar la delegación
y quizás podemos plantearnos que
en determinados contextos
pues no ha lugar.
Por ejemplo, en cuestiones,
por ejemplo,
de Derecho Administrativo.
Podemos aceptar que que se
se utilicen sistemas,
sistemas de este tipo porque
manejan muchos datos
y pueden dar una serie de resultados
de manera muy rápida
y agilizar los procedimientos
y y las políticas públicas y
otros en otros contextos
como la justicia penal.
Pues es mucho más restrictivos,
siempre y cuando hay que reconocer
que en esos contextos además estos
sistemas son sistemas de apoyo
a la decisión que no nos sustituyen
en ningún caso,
por ejemplo, al juez,
y en el caso del ámbito de la
salud se discute mucho,
porque porque se habla del sesgo
de la automatización,
que se ha estudiado mucho en pilotos
de avión por ejemplo,
y en médicos no, que es una
confianza excesiva
en el resultado que ofrecen las
máquinas a ver los los humanos.
Somos muy fans libres,
pero las máquinas también.
Entonces lo que hay que buscar es
determinados contextos sensibles
que haya una combinación equilibrada
y por eso explica habilidad
es importante,
porque en el caso de que ocurra
algún resultado negativo
hay que poder, podrán analizar
el proceso,
la responsabilidad, etc. Porque si
no estamos antisistemas de caja negra,
hay un caso que es muy conocido.
Ya se citan en el extranjero y
me sorprendió en Argentina.
Me encontré en un foro
como este online,
que se citaba el caso del algoritmo
Bosco, que es el que utilizaba
el Gobierno de España
para otorgar los que utilizan
utilizando para el bono social
de la energía y demás para
personas desfavorecidas
a través de una denuncia de una
persona que le fue denegada.
Ese pidió que la Administración, a
través del Consejo de Transparencia
dijera que han sido los parámetros y
los elementos que este algoritmo
maneja para gestionar esta
esta política pública,
que no deja de ser un derecho social.
El algoritmo favorece esa, facilita
mucho porque es muy rápido,
pero puede tener errores.
Si esta persona reclamaba
su derecho a saber,
lo tremendo fue la respuesta ha sido
que el algoritmo es un algoritmo
desarrollado por una compañía
privada que está protegido
por propiedad intelectual
y propiedad industrial,
con lo cual no se ha hecho explícito
cuál ha sido los parámetros
que ha utilizado.
El proceso está en curso,
todavía ha habido una sentencia
a favor del Estado,
pero hay una organización que
que exhibió que ha vuelto
a recurrir el fallo porque,
claro, realmente fíjense,
aquí hay derecho social que
está siendo que es
una cuestión de política pública y
hechos que está siendo gestionado
a través de un algoritmo que no
se puede conocer cuál es
el los elementos que lo constituyen.
No es cierto que hay algoritmos que
basados en aprendizaje profundo
cuya explica habilidad
es más difícil,
pero en cualquier caso
hay que establecer,
y quizás haya que renunciar
a ciertos grados,
podríamos decir de precisión,
algorítmica,
en aras de la aplicabilidad,
porque esa aplicabilidad
favorece primero
la legitimidad del instrumento y la
asunción de responsabilidades
en el caso, por ejemplo,
de que haya problemas,
como en este caso hay una persona
que reclamaba entonces
creo que hay que ser cuidadosos.
Hay infinidad de contextos donde
el uso de herramientas
de este tipo en el ámbito de
la medicina muchísimos,
también para el análisis
de cantidades masivas
de imágenes, por ejemplo,
para establecer correlaciones,
son muy útiles,
pero, ojo, también hay
un margen de error.
También hay posibilidad de fallos,
y lo mismo que en el ámbito humano
se asumen responsabilidades
y se reparan y se cuando
cuando al lugar,
pues tiene que ocurrir lo mismo con
el ámbito de las máquinas,
y eso además implica
que en determinados contextos igual
hay que limitar su uso,
porque son cuestiones especialmente
sensibles.
No lo pienso que el derecho penal
hay que ser especialmente cuidadoso,
que puede haber sistemas de apoyo
a la toma de decisión,
pero que en ningún caso habría que
dejar que una máquina decidiera,
por ejemplo, sobre cuestiones
de justicia penal
en Cataluña lleva funcionando creo
que lo hicieron más de 15 años,
un sistema para evaluar el
riesgo de reincidencia
de las personas que están presas,
pero es un sistema que,
por lo que han hecho una evaluación
ha funcionado bastante bien.
Tiene también algún problema.
Tiene algún problema que se ha
ido además corrigiendo,
como en los sistemas humanos también
vamos aprendiendo de los errores,
pero lo importante es que
es un sistema de apoyo
a la decisión.
La decisión sigue
siendo la Junta de Tratamiento
del centro penitenciario,
que con los datos que ofrece el
programa toma la decisión.
Pero no necesariamente tiene
que ser la misma
o exactamente la misma que la
que ofrece el sistema,
porque ahí precisamente estamos
ante una contexto
especialmente sensible.
Muchas gracias.
Pues no sé si estamos
ya fuera de tiempo
y largo, si no, no, no le digo
a Pilar que como ve,
ahí vamos.
Bueno, si alguien quiere
hacer alguna pregunta,
pues entonces vamos,
vamos despidiendo,
te agradecemos en él atendido
esta tarde
y ya sabes que tienes
aquí a tus amigos
y que vengan cuando quieras y
sabemos que vienes a menudo a Murcia
y que podamos tener esa experiencia
presencial
a la que alude a ese antes,
pues lo antes posible,
y si es posible, pues
con un buen vino,
una buena cervecita, varios
puestos, parte,
encantado un placer, gracias
por la invitación
y deseando estar en Murcia
cuanto antes, Mercedes
muy interesado por su proyecto,
y estaremos en contacto,
porque nos interesa mucho el
tema de precisamente la.
Este tipo de tecnologías
para los cuidados.
Realmente es un ámbito en el
que se está desarrollando
de una manera muy rápida, pero que
necesita precisamente quizás
un poco de sosiego para hacerse las
preguntas sobre cómo hacerlo.
Lo mejor posible, Gracias,
pensaba escribirle ahora
para ponernos en contacto
afecto bueno
hasta la próxima mucha gran
avalancha una plaza para la grabación Si
quieres para Dallas, pues nos
damos un abrazo virtual.
Por El abrazo real.