Es un encanto.
Llegar a Murcia,
con compañeros que conozco,
hace mucho años
y debatir en este tema el tema
de la ética artificial.
Es un tema bastante complejo,
digamos debatido
y hoy, digamos.
No quiero hacer una ponencia
en blanco
si no a hacer una ponencia que tiene
más dudas que certezas,
porque se ha discutido mucho
ese tema de la ética,
de la división, de contexto,
y me he pasado algunas pensamientos
digamos de gastar más
de un poco en reconsiderar el marco
general de relaciones que tenemos.
Así que vamos a empezar.
Bien, la primera y hace ver un
poco el enfoque crítico,
la ética, como herramienta
de manipulación
Por qué?
Porque cuando hablamos de ética
básicamente en el sector
de la actividad, en el sector militar
o de la herramienta para
la sociedad digital,
y muchas veces esta ética no
es la ética que conocemos.
En el sector de salud, donde hay
una historia, una tramitación
y también una experiencia hay un
marco teórico muy vistoso,
aquí la ética es de una ética,
muchas veces construida
por cuarta vez.
El país nunca tiene su código ético.
Twitter, tiene o se desconoce
su código del,
es y que significa ese interesante
porque se presentan
como valores éticos,
valores que son, digamos,
autorreferenciales,
que reflejan también la postura
de la empresa.
Ya lo comentaba con los de.
En parte.
Ayer, por ejemplo, en el verbo
tenemos caso de continuidad,
que se han bloqueado porque
el desnudado de Huesca
y eso ha o una manera de entender
1 de don Ignacio aceptamos
y espero llegue la alta, permiten
un y eso es interesante
porque la ética es una
ética muy diferente
de la eléctrica que entendemos
en bioética,
cambios de derecho y
todo es una ética.
Sé donde se ponen valores sin
poner en claro cuáles son,
las dice desde el valor.
Otro aspecto es que la ética,
como regulación defectuosa,
en qué sentido?
En el sentido que si ponemos valores
y estos valores no están en
un marco tradicional,
era un marco definido.
Estos valores se pueden manipular
e interpretar,
utilizar de manera muy larga,
muy diferentes,
y hay alto nivel de aproximación.
Cuando digo que es importante que
como dice la Unión Europea
también poner al centro la persona,
no, el inteligencia artificial tiene
que ser tras y tiene que ir basado
obrar la confianza es la confianza;
la confianza es un cuadro,
un indefinido.
Diga, o en las cartas de ética
también hay referencia al bienestar,
pero al bienestar.
Se pueden entender muchas
formas diferentes.
Por muchos países del mundo hay
diferentes ideas de bienestar,
así que la aplicación es indefinida,
la labor de la concertada
y no clara de lo concreto, porque
todo este código ético
es la evidencia que está dividida.
Yo hablé con los de las
grandes con mayo
sobre la jefa de de volver
a medir ya así;
pero nosotros utilizamos marco ético,
por nuestros productos todo sí;
pero vaya usted a llegar donde está
la evidencia de este marco.
Es ético.
Si hay informe a informe que dice
que se han evaluado producto general
mirando criterios y todo,
pero en el detalle
no lo sabemos porque el diseño se
hacen alguna forma u otra forma,
así que hay falta de transparencia
acerca de la rendición de cuentas
no las vemos esto.
En principio, como no solo indicamos
en el marco de este principio,
sino tampoco en este principio,
hasta cuándo se aplica de manera
concreta y efectiva
otro problema muy relevante.
Es el problema de la ética como
manipulación de la Ley
de la política fiscal que existe,
porque, claro, se dice
hacer un marco ético
para la inteligencia artificial
y ponemos algunos principio.
Pero esto, en principio, casualmente
son un mismo o parecido
al principio que ya tenemos
de la ley.
Cuando digo quiero transparencia,
la inteligencia artificial,
ni va a juzgar,
que es la transparencia de la
inteligencia artificial,
cuando ya tenemos normas
sobre la transparencia
del derecho administrativo,
hay mucho otro contexto en
la misma transparencia,
o es la transparencia diferentes.
Ese es un problema, o cuando
hablo de faenas de nuevo
como cosas correcto no hicieron nada.
El fairness es si usted justicia
también ser correcto
y digamos no actuar de
manera correcta.
Esto permite cuál es la ser
correcto del contacto,
es el correcto del marco ético,
es el correcto, como así
que el problema,
que si yo voy a definir con
naciones, que ya existen,
que tienen su interpretación
con la ley,
su interpretación con los tribunales
aceptados y lo dado,
poner como sea un días éticas a
través, desde aquí hay ética,
se puedan cambiar lo que ya está
definido, el marco de carga,
o te dice eso, y esto migrando
al principio ético,
que me dice de ser correcto,
de ser transparente,
lo interpretan esta mañana.
Me salto lo que usted
sabe perfectamente.
Está claramente no se puede
ser claramente la mani prevalece
sobre esta interpretación
que no vamos a crear un
entorno conflictivo,
donde ponemos algunos principios que
chocan con otro principio práctico
e hicieron no es una manera de
plantear a la tripulación
otro problema claramente es la ética.
Nuevamente una manipulación,
entender elevado lavado de.
Ustedes saben que cuando se
empezó a desarrollar
toda esa nueva herramienta de las
que la nueva como Elche o similares
que hacer o las grandes y se
declara laica del sector,
limitaron o cerraron
los comités éticos
que justamente estaban poniendo
dudas sobre esta herramienta,
niegan ahora negarla que
ustedes nos entregan,
y alguien alguna carga la avalada
cerrarán de todos o tracas
lo hicieron esta parte no
algunos y clara después
que para 5 o 6 años hablando
todas esta técnica fábrica
de la importante, de la ética,
del marco ética,
del compromiso que tengan
con la ética, cuando,
pero salvo la nueva herramienta que
puede poner muchos dinero,
puede aclarar mucho ese diseño,
pero en este caso habría que
cambiar una excepción.
Ejemplo.
El cine es más importante
básicamente eso,
que realmente significa que la ética
al final no es tan efectiva de gas
Esto es que a lo concreto,
así que por eso hablo de
manipulación como ha sido posible.
Por qué no?
Si hay mandatos de éticos y
habrá un debate ético,
porque al final hay todo
están debilitadas,
hay la debilita desde
el primer lugar,
porque este de la ética
de delitos digital,
de la sonda ética que no tiene
muchas veces digamos un drama
no tiene una referencia es una ética;
se crea de manera práctica caso a
caso o por un entorno específico,
sin mirar a la referencia
ética, a negarlas,
cuando hablaba del derecho
ni éramos al miedo,
miramos al principio ético que
están consolidados en la EPA
aquí no, aquí son principio
que son cartas éticas,
también por parte de
la Unión Europea;
el grupo artificial intangibles,
que fueron un listado de principios
porque expertos dicen Estos
son los mismos;
así que hay se llaman normas ética;
pero no obstante el contexto
de tipo formal
un no hay referencia en todos
estos documentos,
a ninguno de los barcos ético baja.
No se dice que ética se aplica,
se aplicaban Ética kantianas.
Ya, aplicaban ética de
otra naturaleza.
Varias escuelas de ética digamos,
no haré referencia al marco
y claramente eso es un problema
porque es un ética
de contextualizar, data,
es más difícil
aplicarla y más controvertidos
de resultados
y además muchas veces
autorreferenciales también.
Ayer lo he comentado con usted,
por estudiantes.
La lupa europeo dice.
La madre de estos principio ético
son los derechos fundamentales,
pero los derechos fundamentales
tienen que basarse sobre la ética,
es que la ética se pasa solo por
los derechos fundamentales
así lo he entendido yo, y es largo,
pero te muestra de incendio
como falta un una baja,
así que tenemos los derechos
fundamentales,
sí otro aspecto que ha ayudado.
Ha hecho posible esta
esto, marco ético,
también, definitivo, un poco es que
en parte gusta a los informáticos,
digamos que sí es verdad,
porque esto debe traer carnés de
otro principio de informática,
o desbordara ellos sobre los
congresos de Trípoli,
otros compromisos que son muy activo
en definir principios
y, digamos es importante,
porque si me indica que hay una
concienciación por parte
de prensa informático,
que se ponga en duda su,
como es su trabajo
en pactar con las, necesita.
Eso está muy bien, pero,
por otro lado,
algunos desde este principio,
como se han formulado por
el sector informático,
son simplificaciones y como se vio
que no has comentado
con la informática
voy a hablar de evidencias dirigidas
de manera informática,
donde claramente hablo de
política de aguas.
Aquí pasa lo mismo, se tumban
principios éticos,
se crean buenas personas que
nos da expertos de ética,
claramente tienen capacidad de coer,
solo algunos aspectos no enteramente
toda la problemática
de esta de atrás.
Así que este principio no está mal,
pero solo una simplificación
por algunas cosas.
Otro problema último porque
ha sido posible,
ha sido posible
porque claramente el el tipo gusta
mucho a lo que tiene que ser datos,
porque si yo soy presa en el sector
de la interactividad,
el marco ético me proporciona
mucho más margen
Por qué la ética puede
ser más interpretada
Pues varias cartas éticas o
principio que son muy generar,
y así que la actuación típicamente
transparencia, que es
un principio que está siempre en
este cartas, en transparencia,
que significa transparencia de datos,
que ha utilizado para implantar
la transparencia,
que puede acceder a la armonización,
transparencia que puede utilizar,
haciendo preguntas repetitiva,
dar bonito para entender
un poco cómo funciona
la transparencia se puede hacer
de muchas diferentes maneras,
así que claramente hay un aprecio
muy fuerte por algunas empresas
y también por algunos países.
Antes hablaba del Consejo
de Europa, por ejemplo,
en el Consejo de Europa,
o cualquier estrella poco novedosa
de crear un marco global,
la inteligencia artificial
con un convenio
que sea un convenio desde
el principio
como convenio global,
y un poco discrepo,
que porque es diferente entre
el convenio sencillo,
8 que empieza como un
convenio europeo
y después tiene la capacidad
legal atractiva
y en otro país no son de Europa,
que defienden de adoptar un marco
que es una diferencia de modelo,
y todo es diferente de esta
situación, que es
una historia de éxito, digamos,
a la idea de.
No somos el de Europa,
de lo que queremos hacer
una convención global,
Comisión Global, típicamente
del derecho internacional,
lo hace un alto organismo
de las Naciones Unidas,
así que eso no es solo
opinión personal;
ha sido muy indicativa también
el Consejo de Europa,
también entre los países europeos.
Otro país no sea una relación y parte
porque no se ha aprobado de
momento este convenio
pero claro de este pacto global
por ejemplo hay países
que por tradición y por relación
con la idea de ética,
quieran hacer normas o de eso
lo si tú hablas con Japón,
por ejemplo, te dice que no.
Quiero una norma vinculante en
inteligencia artificial
porque principio ético
son suficientes
porque sea el principio.
He tenido ellos, siguen principio
hay en Italia,
se pone un principio ético.
No pasa nada, tendría sequía
invitados a la escala
para ver si no ponemos vuelta.
Tampoco sirven al principio legales
evitar las sanciones, ese
separar ese importante,
no cuando vamos a hacer normas
sanitarias global
como es el de actividad.
El contexto cultural es muy
importante, no, no funciona
en todos los países de
la misma manera
hay países donde el compromiso
con la ética se siente
como una cosa muy importante y
a otro país tuvo la ética.
No tiene un papel relevante
y se nos llene organismos que actúan
en sanciones e controles
y toda la ética al final
nadie la considera.
En este contexto,
claramente a las que quieran hacer
una regulación más tranquila,
más optar puede ser más pavorosa
la verdad de una ética?
No, no Cuál es el espacio
de la de la ética?
En el contexto de la ley?
Sobra la inteligencia artificial?
Creo que les parece a
la señora plantea?
No hicimos la relación de arte?
Es así?
.
264
00:16:07,525 --> 00:16:12,500
No sé si aquí tenemos una estructura
un poco complicada,
pero no demasiada, digamos, empezado
desde el principio.
La ley de inteligencia artificial
es una ley que se ha propuesto
por parte de la Comisión,
se ha propuesto ya con un papel
importante de la tramo,
digamos, de Marrakech de mercado.
Para hacer una comparación, iniciar
su papel más importante
del sector de derechos fundamentales,
la idea de atrás a la inteligencia
artificial de la Ley
de utilizar ese atípicamente
de seguridad de productos.
Después va a cerrar la Comisión
se 50 que claramente no existen
problemas de seguridad de productos,
sino también un problema del pacto
sobre la societa y, en definitiva,
de incorporar también referencia
explícita
a los derechos fundamentales, pero
la propuesta de la Comisión,
así como de la propuesta del Consejo,
había esta referencia a la
protección de los derechos fundamentales,
digamos, de la macro caja, de
la evaluación de impacto
que se llama la evaluación
de conformidad.
La evaluación de conformidad
es la evaluación que compraron
mitad, que ya conocemos,
de la seguridad de datos, no
de la cuenta del producto.
Traen a lo que sea, sí sí digamos,
no que no.
Habla de años a la personas
o a las cosas.
Esta marco de evaluación de
conformista en esta propuesta
se añadiría algunas líneas,
diciendo y también protegiendo
los derechos fundamentales.
Eso es que esta evaluación
debería instalar otro.
El de conformidad así pedía
solamente a lo que eran los proveedores,
los creadores, digamos, de
inteligencia artificial.
Sí los que daban,
no solo lo que la, por ejemplo,
Google, más los afectados,
pero y un hospital utiliza la
herramienta del nuevo programa,
no estaba bajo esta norma,
porque la norma dice que
la evaluación conjunta
es solo para los proveedores Qué
hicimos a nivel de Parlamento Europeo
y coincidimos que asesora ver
con otros compañeros
de Bélgica la Benifallet
que fuera puerta?
Para mí?
Se introduce, se decidió
de poner una norma,
es decir, diga que de momento
se llamaba 21.
Verá oigamos, porque el
texto definitivo
con un nuevo finales, el 21, vea e
introduce una evaluación específica
sobre el impacto sobre los
derechos fundamentales,
que tiene que ser hecha por parte,
no de los proveedores,
sino de la ha utilizado horas
si no nos juzga,
sino por el ayuntamiento
o al hospital.
Porque cuál es la banca?
Que los proveedores de la evaluación
de conformidad
pueden hasta no acepta
la segunda medida.
Entender cuáles son la consecuencia.
Eso a usted le vienen bien
en el caso de Chipre
y si vamos a ver el recorte que hizo
Xarxa su propia herramienta
dice que puede afectar a una,
tener unos problemas
que se equivoca, que pueden pactar
sobre una categoría
que explica cómo se enfrenta
el problema,
pero después cuando el ministerio
de Portugal
dice de utilizar mitin para
proporcionar información,
es de sobra la prostitución,
ilícito administrativo,
a los ciudadanos de Puerto Real
claramente la situación es diferente.
No podemos pedir a UPN a
que se va a arruinar.
Cómo va a utilizar el Portugal
Chipre y aquí está la lógica del 21
verá claro.
Ahí ya tenemos un conocida
entre responsabilidad
y que la responsabilidad y se
reparte en base a la capacidad
del desoye acto de controlar
el riesgo
básicamente era una teoría clásica,
digamos de responsabilidad,
y así que el proveedor puede
controlar hasta a un cierto nivel
del que pueden imaginar unos
escenarios del pacto.
Todo tiene que la bolsa de
conformidad enfrentarse
a ese escenario y limitarlos,
pero claramente hay un papel
delimitador concreto
de esta herramienta,
que tiene que mirar a qué
pasa cuando va a ubicar
en el hospital al ayuntamiento
para una finalidad,
y aquí tiene que hacer una
evaluación de impacto
sobre los derechos fundamentales
como en la manera que ha utilizado.
Esta herramienta va a impactar sobre
los derechos fundamentales.
Y cuál es el problema?
El problema, que la norma propuesta
para el Parlamento Europeo
de manera menor
y que ahora está en el texto final
y por problema político
se decidió poner como norma autónoma
la referencia a la impacto sobre
los derechos fundamentales.
En términos de ingeniería,
digamos legislativa,
no es esta la manera de enfrentarse
al tema y nosotros habrían bien,
pero políticamente no se pudiera
hacer diferente al ayuntamiento.
Entiendo decir que ahora tenemos una
evaluación que técnicamente
sería una evaluación de
impacto tecnológico,
que está en el artículo
7 del Reglamento,
que dice que cuando hay una nueva
tecnología que puede
ser de alto riesgo el legislador
puede decidir de cambiar el listado
que hay en el anexo, traes
que es la anexión,
sobra la terminología de que
introducir nuevos casos
para saber esto se hace claramente
una evaluación.
En esa evaluación se tiene en
cuenta del impacto también
sobre los derechos fundamentales,
después de la otra evaluación,
si atacantes de conformidad por
parte de proveedores que llegue también
a su parte de evaluación del
derecho fundamental,
pero en este caso Comisión
y ahora de todo la parte
digamos de comisión,
utilice esta parte tiene
que se ha desarrollado
por tantas estas.
Así que la técnica de la
acreditación es muy común.
El sector de la Guardia Civil
conforme ETA tiene que aplicarse
también a esta valoración
de conformidad,
incluyendo la parte de derechos
fundamentales,
sí y después de desmontar la unidad,
que estaba valoración hecha por parte
de lo que utilizan, digamos, la
inteligencia artificial,
y es una valoración solo sobre
los derechos fundamentales,
6 estándares de referencia,
porque la norma no hace referencia
a esta Cámara,
así que claramente si yo lo voy
a ver desde la perspectiva
de la claridad del diseño normativo.
Insisto, es tan, tan buena solución,
pero yo lo comenté con los
parlamentarios ya,
pero esto del 29 tenido que
ocultarlo más arriba
y que está todo conjunto,
diga o no se modifique la parte
general hasta la parte final,
pero claramente no era posible
porque sí hubo un artículo nuevo,
hablarse de cuotas.
Al artículo nuevo.
Se va a modificar todo voto
a los artículos.
Ya habrá un debate, vamos a derogar,
hubo una PAC, el 21
hasta el final del trílogo no estaba,
seguro que se aprobaba al final sea
aprobados con una decisión técnica,
pero ha funcionado Qué dice
el 21 que hace referencia
a la evaluación de impacto?
El 29 introduce una excepción
para la investigación
y ahora tenemos que reflexionar
cómo funciona esta excepción,
porque dice sistemas de inteligencia
artificial
en los modelos que estaban diseñados
para desarrollar la crisis
y cada mente se pone en servicio
la sola finalidad
y la de investigación científica y
de desarrollo no han bajado nada,
pero solo se está específicamente
desarrollando puesto en marcha
para esta finalidad.
Esto significa
que si una investigación
identifica un clic,
no una herramienta de
entrevistas divisa,
ya hecha o parte de otro, esto,
tabaco entre el sello desarrollo,
algo que a la sola obliga
al final ETA,
desean la investigación científica,
no sea aplicable,
actuar con la idea de vertebrar
guardias en la investigación neto,
otra cosa que dice pero no
lo dice en la parte
digamos normativa.
Considerando se dice.
Se decide el cumplimiento
con estándares éticos,
porque dice el sistema de
inteligencia artificial
que tiene el dato para con Google
y actividad de investigación.
El desarrollo de la tirita están
bajo la ley de esta recuperación.
En este siglo constancia,
vamos a aprobarlo,
tiene que cumplir con el principio.
En ese sentido, una serie
además hay ninguna.
Así que esto hay una diferencia
de estándares éticos Quién
tiene que ser relevante también
en Internet de cerca.
Ahora el problema es que sí voy
a mirar el artículo 29.
Al final, la aplicación del pacto
sobre los derechos fundamentales
está bastante limitada en el
marco de la investigación,
así como en el marco,
donde la investigación por otro lado,
se aplica al sector público, se
aplica al sector bancario;
de los bancos se financia, pero
aquí el problema es,
pero el área no es una
norma de derogar,
es una norma que regula la expresión,
es que va a regular específicamente
el sector de la iniciativa privada,
pero hasta cuándo no deroga
principios generales
o cuestiones básicas aplicando,
así que no me puede decir que
los derechos fundamentales,
como el principio ético, que es algo
reconocido en algunas electoral,
no se ha aplicado por el hecho que
no hay requerimientos precedido
de la norma.
La norma puede decidir que
lea, no se aplique,
pero eso no significa que los
principios fundamentales
del derecho fundamental no
tiene que ser protegido.
Tampoco se midió que en el sector,
bajo un principio ético,
la ética no siga aplicables.
Otro aspecto es que esto del impacto
sobre el derecho fundamental es un
elemento del impacto social,
digamos, de la inteligencia
artificial,
pero a la inteligencia civil
ya no se limita al impacto sobre
el derecho fundamental,
sino sobre el pacto sobre la
sociedad y sobre la societa,
y pueden tener herramienta que
no tienen ningún impacto
sobre los derechos fundamentales,
pero eso no significa que a las
cuestiones ferroviarias
yo pueda crear un sistema como el
espacio del lado de salud,
que puede gustar o no puede estar,
pero hay que se iniciará
cuando sea aprobada y se hará
de la pega a nivel social.
Podemos decidir si es aceptable o no.
Así que el entorno legal, el
marco de agenda ambiental,
social y éticos son 2
cosas diferentes
y sigue siendo un espacio
para verbales,
sean que sea ética de valores,
a software,
el impacto social digamos eso,
porque la ley sobre dependencia
actividad no es una ley ómnibus
que va tono, proporciona
alguna protección,
pero no prohíbe extenderle por lo
que se extiende también a sectores
porque no hay la deroga.
Claro de aeronave.
Así se dice.
Eso se puede ver si también se
contra el principio ético.
Tenemos que aguantar, pero
de momento no hay,
así que ahí hay margen para
combinar la evaluación
de los derechos fundamentales como
está definida en la ley
de mi intervención inicial
o no, la evasión ética,
que ya.
Pero sé que la idea es de crear
una evaluación ética
con inteligencia artificial.
Teniendo en cuenta las limitaciones
que habíamos visto,
el problema es cómo se hace,
cuál es la referencia,
por qué la diferencia.
Primero no puede ser el trasplante,
y el trasplante ético ya lo
conocimos con el imperialismo ético,
de un libro muy interesante sobre
el periodismo ético,
que todos los que un libro histórico
sobre el debate,
que surgió con la dotación del dron
reporta y todo aplicamos
como se ha revelado en
el estatuto solito,
el tema de la ética, de
la investigación,
y claramente con la ética
médica ha ha impactado
sobre todos los sectores
que no son mediocres.
Aquí hay riesgo o intereses
artificial en lo mismo,
claramente afecta menos a la
precariedad de salud,
porque el mismo sector,
pero muchas cartas de ética
se ve claramente
como el principio típico de ley.
médica se extender a ser
principio ético
por toda la inteligencia artificial
para un sector
como el financiero o la guerra,
como otro que no tienen ni nunca,
nada que ver con los principios
típico de la ética;
falta en la relación entre
paciente y médico.
En beneficio de todo,
o que existieran a criterios
diferentes.
Así que el imperialismo ético,
que realmente es muy bien,
yo diría que podemos un de
identificar 3 niveles diferentes,
el primer nivel es la evaluación
sobre el impacto
en derechos fundamentales,
como lo definición, y reclame la ley,
y que está limitada en
unos casos, y todos,
y eso claramente el marco normativo,
con la aplicación del reglamento
todo el sector público
y parte del sector privado tendrán
que hacer esta evaluación
de impacto.
Eso no es poca cosa, no hay por
qué no hay experiencia,
no hay detrás decisión en este
sector de agresión,
de impactos de ya, pero solo
típicamente es un poco diferente.
La evolución de impacto sobre
los derechos humanos
ya ex costa, cuando hay un
impacto muy fuerte,
vaya a estar rondando típicamente.
Se hace en un contexto muy
específico contextual
típicamente grandes empresas
que van a construir en países del
sur del modelo del mundo,
grandes planes industriales con
impacto social relevante,
todo así en la cuota muy diferente
de esa es la evaluación ex ante,
una evaluación más limitada
porque el impacto es diferente
o más amplio,
porque la empresa les llegue
a esta solemne y seria
AENA se puede adoptar
con todo el mundo,
así que sea un punto con diferente
después el segundo nivel
más amplio impacto sobre los
derechos fundamentales,
sin la limitación estándar de la
ley de inteligencia activista,
el tercer nivel.
Pero cuál es la relación, entre
otras, de otras líneas?
Si vale.
Si miramos a la experiencia
de Estados Unidos
donde empezaron a desagregarles
el criterio de evaluación,
la ética la cosa que me parece
interesante es que en Estados Unidos
se desarrollaron los principios
de ética de la investigación,
pero en un contexto donde
hay falta de un enfoque
sobre los derechos humanos
están resolviendo.
La parte de derechos humanos
está muy desarrollada,
es muy limitada o se transforme en
derechos de los consumidores,
pero no permanente o limitadamente
en derechos
y mi error cuarta, y al Estado
algunas campo de públicos
y todo es así que en Estados
Unidos todo este marco
se no en un contexto donde hay falta
de derechos fundamentales
y de enfoque todos los derechos,
y se dice miramos al entorno.
Así que puede ser que hay una
relación entre el ahorro ético
y la falta de protección
de derechos aceptadas.
Otro aspecto es que la
ética en Europa
también se ha utilizado mucho
y muchos sectores,
y mucho en el sector de.
Se ha hablado mucho del sector de
la inteligencia artificial,
o metadatos ética tendrá datos?
Porque porque hasta ahora que tiene
cuál era el marco en este sector
protección de datos cuasi cabe
solo protección de datos
en la LOE única que iba a arreglar
dentro todo el sector
y protección de datos,
tendremos que ver con
sacarles muy poco.
También ha hecho muchas cosas,
pero es muy poco.
Hace referencia a temas de gerencia,
a la protección de la cita,
de la porosidad de la información
personal,
pero claramente ahora que en el área,
y no es solo la idea de por
qué llegamos a leer
la directiva que se adopta
se va a adoptar sobra
una responsabilidad de las empresas,
no solo cómo se transmite en
Castilla la directiva,
que por qué se tiene que cumplir con
los derechos fundamentales,
su papel,
y si vamos a negar hay una
también al diésel
y a otros a otras normas que se han
adoptado en el sector digital.
Todo este enorme gasto que viene
normas a ser diferente,
más al marco de los derechos
fundamentales,
así que vamos a un contexto
en el cual solo
por deseándole datos a derechos
fundamentales,
pero, claro, se esconden 2
derechos fundamentales.
La suplencia de la ética me parece
que tiene un papel más limitada
porque la ética ha hecho
por mucho tiempo
actividades suplentes no digo
en todos los sectores,
pero poniendo trabajar mucho
con la Unión Europea
en el sector de la investigación,
en el comité de investigación
y cuando vamos a examinar un
proyecto Protección de Datos,
tabaco, normas de uso dual al estar
bajo la de protección de normas,
de seguridad, tan vacua, de clara,
aparte de participación del
paciente que participa,
la investigación o no paciente,
cuartel investiga.
Esto está bajo la idea de ética
de investigación, método,
pero eso significa que temer
espacio claramente.
El expansión de los derechos
fundamentales
va un poco antes del siguiente, yo
creo en la función de suplencia
que me parece que el marco de chico
ha ejercitado por mucho tiempo,
y por eso ahora los proyectos
europeo sí van dirigidos
y en todo el proyecto
europeo también.
Una valoración sobre el impacto,
sobre los derechos fundamentales,
y esa era la duda del proyecto horas
no tendrá que también
se están diciendo,
pero solamente le han pedido hacer
esta que ya sombra la ley,
impacto de los derechos
fundamentales como parte de la evaluación.
La agencia que controla todo eso,
quiero hacer una evaluación ética
que incorpora también los
derechos fundamentales.
El espantoso para un derecho
fundamental
claramente esto va mucho
más ser la evaluación
y transforma lo que muchas veces
está bajo la ética,
un porque típicamente la
clase de las patas
de la suya entonces involucrado
en la investigación
-riesgo que haya bancas
y todo eso se verá
era un tema ético,
y ahora sin más ni gramo el marco
de los derechos fundamentales,
el de Madrid de discriminación,
con derecho a nada.
Bueno, me parece más correcto
como enfoque,
pero claramente es un traidor
entre las 2.
Los sectores.
Otro aspecto es que este marco ético,
que se va a 2 o para principio
típicamente de ética médica,
por un lado no enjuiciada
por todos los sectores,
si no tienen los mismos principios
y por otro dato tampoco es útil
que se repite como principio ético
de ahí el sector del día o derecho,
porque ellas están como
yo del derecho.
Así que no nos sirve de nada que
los principios del derecho
no se va a reiterar diciendo.
Cuando se utilizan intervenir
ya en el sector médica
tiene que ir a utilizar
ese principio,
que son lo mismo que tenéis.
Ese es un poco.
Los principios éticos muchas
veces están definidos
en un marco que deriva de
este marco me indicó.
El derecho así que yo derecho
no necesita repitiendo
y por otro dato no necesita extender
los sectores que se pasan
por el ministerio.
Diferentes.
Límites de la función tradicional
del comité de ética.
Los comités de ética funcionaban
muy bien,
pero la inteligencia artificial
es una cosa un poco diferente
de los casos típico que se tienen
que enfrentar por varias aspectos.
Primero, hay una rabieta del
pacto, que es difícil
detectar delito, ver a cuando
yo como herramienta,
como saben sí o a otras
es difícil entender
lo que se puede hacer con
esta herramienta,
exactamente como medicamento
o tratamiento sanitario
que por su naturaleza ya que
describe de manera correcta
cuál es la de de qué pasos
se utilizaron una cosa
o aquí la relación causal no está
claro, no va en definitiva,
al había manera de aplicar o variar
diferentes reacciones
también debido al contexto,
a la interacción.
Otros aspectos es importante, es
que la inteligencia artificial
puede ser diseñada en la manera
que volumen de integración,
que cambia y eso necesita un nuevo
procedimiento de seguimiento
y de seguimiento que no siempre
se utiliza en la evaluación.
Ha llevado a esa métrica
que es algo van Souto
hago una experta, está aprobado.
Tener otro aspecto es
que muchas veces
la utilidad del comité de ética se
diseñado de manera que todos,
tan el comité no digo que
siempre sea así,
pero muchas veces veo, por ejemplo,
la investigación al comité de ética,
que se decide el valor de becas,
pero esto con un cargo muy alto
sobre los que deciden que tienen
que imaginarse cuáles son los bares
Oportunitat en consecuencia,
y todos en un contexto tan
complicado como lo de actividad.
Es difícil entender.
Por eso la parte de participación,
por ejemplo,
tenía que ser mal desarrollada,
porque a través de la participación
pues entender mucho más,
cuáles son las, las, las personas
potencialmente pactada
y cuáles son algunas problemas que
puede ser que yo no entiendo.
Hay casos concretos de científicos
de datos que no entendía,
va a cobrar consecuencia y
el caso más evidente.
Paradigmático.
El Elche,
criterio que te dice.
Sí pero no pensábamos que
se pudiera utilizar.
Por eso burguesa.
Esta y por eso la participación
puede ser.
Tradicionalmente existe en el pacto
por la defensa del medio ambiente,
la parte, si me hace
a base de utilidad
exactamente para cortar
una mirada evidente
que puede complementar a la casilla.
La evaluación de las expertas
claramente no es una alternativa,
es un complemento.
Otro punto las yo creo que
la ética es importantes,
porque hay cuestiones básicas
que a está relacionada
con lo que societa que queremos
desarrollar en relación
a la utilización del interviniente
artificial,
porque estas decisiones no
son decisiones puntuales
que se hacen en relación a
la específica aplicación
si no son decisión de nivel
más alto que toca una,
una voluntad de Camus, colectiva,
más amplia cuanto a la sociedad
tiene que ser afectada, la
guerra de intereses
de apreciar el cual es
sector y todos.
Así que yo creo que aquí
el nivel ético
es más digámoslo a un nivel
de comité nacional
de definir de definir una estrategia
general no necesariamente puntual
al caso concreto.
Es un tema que no está muy debatito
ni se se hablase
en vez de Comité Andaluz del
análisis de casos puntuales específico,
pero aquí el tema es la inteligencia
artificial.
En cuanto a la inteligencia
artificial,
tienen que ser útiles
data, por ejemplo,
medida tener lugar del médico de
la relación con pacientes.
Eso no es, es el problema
de una visión general
y también es un otro sector, un
sector de la migración en sectores
donde hay un aspecto muy sensibles.
Esto es un caso concreto, las.