Buenos días, bienvenidos a la
presentación a la formación de.
Supongo que todos sabíamos,
habríamos querido perdido parte
de esta formación fuera, presencial,
pero bueno,
dadas las circunstancias,
es imposible hoy
y vamos a ver la presentación
general de del desarrollo que hemos hecho
la empresa nos enviábamos tema
nosotros y el jefe de este proyecto
por parte de Nóos y la presentación
va a tener estas partes.
Vamos a hablar primero,
hacer una presentación de breve
de las dos empresas que Nutt
dos acciones que no te
están desarrollando.
Así son los.
Si la Universidad de Deusto,
una presentación sobre el proyecto
de Hércules en general,
una descripción de Asia general
y luego un aspecto que creo
que es importante resaltar,
porque porque fija el marco
de todo el proyecto
sido que hay una parte de
Datos, ha abierto.
Si el azar, dos el uso de
datos de conocimiento,
por último, una descripción de
las dos partes que tienen
ha sido que es una parte
infraestructura antológica
y con otras culturas.
Entrando en la presentación
de las empresas Nóos,
es una pyme que lleva más de
10 años en el ámbito,
haciendo desarrollos en el ámbito
de la web semántica
usando brazos de conocimiento y
construyendo los colaboramos
con las organizaciones en
transformar la inteligencia humana
en inteligencia artificial
o tecnológica,
y nuestro objetivo es tener con
facilitar a las personas
el acceso a la vida digital
más feliz.
Lo que hacemos es una con
realismo y solidez,
hacer una transformación del entorno,
pero siempre teniendo en cuenta que
la tecnología es para personas
y pensando en el largo plazo
y con un objetivo objetivo claro
que es hacer fácil lo difícil
conseguir una vida digital, Félix.
Entonces lo que pensamos es
que la tecnología tiene
que estar en su sitio.
Nunca.
No nos gusta el término de
transformación digital del todo.
Somos una empresa que está en España,
queremos que desde España se puede
ser una tecnología relevante,
que compita con tecnologías,
que no son españolas y a veces
tienen otra intención,
más allá de dar un servicio
a las personas;
es una inteligencia artificial
en español,
y nos basamos en que todo está
basado en el uso de inteligencia
artificial, basada en
este conocimiento.
es nuestra visión tecnológica.
Entendemos que la tecnología
no es neutral,
no da igual hacer las cosas
de una manera o de otra.
La tecnología marca, marca
el resultado.
Estos son algunos de nuestros de
nuestros proyectos y clientes
en el ámbito de la cultura de
la Administración Pública,
Educación y Universidad,
banca y empresa.
En cuanto al texto que
luego a las 10,
estará Diego López de Ipiña, que es
el responsable por parte de Deusto
en este proyecto, la Universidad
de Deusto
es un referente internacional
en muchos ámbitos.
Está fundada en 1.886 cuenta con seis
Facultad de Ciencias Sociales
y Humanas, Derecho Ingeniería,
Psicología y Educación Teología,
y en este proyecto colabora un
grupo que se que como este,
un objetivo que está bastante
alineado con nuestro,
es decir, usar las tecnologías
de la información
y la comunicación para él, para
el bien y para las personas
y entendiendo que las personas y
las máquinas pueden colaborar
y generar unos resultados mejores
que cada una por su cuenta, la
investigación de Morelos,
son estas cuando el se mantiene
el boe, etc. Y, por supuesto,
tienen una gran experiencia
en el desarrollo
de de la web de la web semántica
y ingeniería, antológica.
Algunos de sus proyectos en
el pasado, pues bueno.
Son proyectos que tienen que ver qué
tienen que ver con Analytics,
con el uso del agua, se mantiene de
datos con interoperabilidad,
etc. En cuanto al proyecto Hércules,
el proyecto Hércules es un
es un proyecto ambicioso
que lo que busca es crear un sistema
de gestión de la investigación
que esté basada en datos abiertos
y se tiene una visión global
de los datos de investigación
del en España.
Los objetivos son.
Mejorar la gestión, el análisis
de los datos
y obtener sinergias entre
universidades y el público
en general.
El proyecto Hércules se estructura
en torno a 2, dos pilares por parte
de la arquitectura, que
es el proyecto Asia,
y, por otra parte, la.
La generación del prototipo
innovador del sistema de gestión
de la investigación es Hércules.
El proyecto se divide,
el proyecto Hércules
se divide entre sus proyectos
por una parte de Asia,
que es la arquitectura, se mantenga
de datos del Sur
y la infraestructura tecnológica,
y es el sistema de gestión
de la investigación
y el esma, que es enriquecimiento
de datos a partir de internet
y desarrollo de métodos de
análisis semántico.
Ha sido, tiene dos partes, digamos,
por una parte del desarrollo
de la plataforma eficientes
para almacenar,
gestionar y publicar los
datos del ensayo.
Estos datos estarían basados en
la infraestructura antológica
y tendría la capacidad de
sintonizar instancias
en diferentes universidades
y, por otra parte, la creación
de una red de antologías
que pueda ser usada para describir
con precisión y gran variedad alta
los datos del dominio de extender
la investigación.
En cuanto a si se trata de hacer
un prototipo innovador
del sistema de gestión integrada
de la investigación,
que pueda ser instalado, desplegado
en cualquier universidad,
incluye todas las actividades de
gestión que están relacionadas
con la investigación,
y tendrá que integrarse
con la arquitectura,
se o podrá integrarse mejor dicho
y el tercero chef más
que el enriquecimiento de datos a
partir de internet y desarrollo
de métodos de análisis semántico
en este proyecto
se trata de identificar,
extraer y analizar
y evaluar los datos obtenidos de
las desde las universidades,
completados con información
de fuentes externas
de datos de investigación.
En cuanto a la comunicación
entre los proyectos,
a grandes rasgos podemos decir que
se enviado a-ha sido consolidar
datos hacia un nuevo central.
Unidad este nuevo escenario
unifica datos homogéneos.
Entre nosotros, esma explota
los datos del nodo central
y enriquece los datos de
fuentes de internet
y encima, por fin se conecta
con la sgae
para la gestión de proyectos.
En cuanto al sido como proyecto,
que es lo que nos lo que nos trae
aquí el proyecto en breve,
se trata de construir y explotar
un brazo de conocimiento
unificado.
Interrogarle es extensible
y expresivo
de la investigación universitaria
del sistema universitario español.
Hércules.
Tiene dos dos partes,
por una parte, infraestructura o
antológica, que sería la uvi
y la voz de su nombre,
en el que se va a crear una red
de antologías que se llama
a la red de antologías -Hércules
Río h, que pueda ser usada
para escribir con fidelidad
y alta gradualidad
los datos del de la gestión
de la investigación.
Por otra parte, tenemos a la
arquitectura se mantiene,
que es un paquete de ley, es decir,
es el de alguna manera un respaldo
de datos con estructuras.
Se mantiene que se puede
usar para para,
para explotaciones avanzadas,
que tiene que ser una plataforma
eficiente que permite almacenar,
gestionar y publicar los
datos del modelados
con la infraestructura,
con con la antología,
definirá la infraestructura
antológica,
y que tenga la capacidad de
sincronizar instancias
de diferentes universidades,
y, posteriormente, habilitar
explotaciones inteligentes
de la información.
La arquitectura de aseo
se caracteriza
por los siguientes procedentes.
Puntos.
Cada uno de Asia tiene
cuatro módulos.
Tenemos que la carga de la
consulta, la web pública
y la web privada.
Cada nodo ocio consolidado
puede consolidar
los datos hasta el nuevo unidad,
datos homogéneos,
entrenados.
Cada nodo ha sido cuenta con
numeroso conocimiento completo
de sus entidades y en lo central;
contaría con un grado de
conocimiento de la globalidad del Sur
que recibe década del sistema
universitario español
que recibe de cada nuevo.
Tal y como lo concebimos nosotros,
y como está concebido,
el proyecto ha sido, serían la base
para la construcción del sistema
inteligente de la investigación
de la universidad española.
El marco tecnológico
de para conseguir
esto es por una parte del programa
de Inteligencia Artificial,
interpretada, semánticamente.
Por otra parte, la explotación por
parte de humanos y máquinas
de las posibilidades que da
el enlazado de datos,
en un plazo de conocimiento,
no les he visto bueno,
introduzco los términos en
inglés porque, bueno,
a nivel de referencias, de
referencias técnicas,
pues a veces se usan más que los
términos en castellano;
la infraestructura antológica,
como hemos dicho antes,
se va a definir el modelo antológico
del desgracia de conocimiento
de la investigación universitaria.
Esto es, la red de antologías
-Hércules, le revocó a Che
y la arquitectura
se se van a desarrollar e
implementar los componentes
que hacen posible la carga
interrogación de este brazo.
En este punto, bueno, hemos
introducido dos conceptos aquí
de limpieza y no queríamos aclarar,
bueno, que hacer un una introducción
a cada cosa y que porque
son en este proyecto
especialmente importantes.
Una de las vías del proyecto
ha sido, es que tiene
que proporcionar datos enlazados
y también abiertos,
es decir, tiene que ser limpieza.
Si vamos a la definición de datos
abiertos son aquellos que
pueden ser utilizados;
reutilizados y distribuidos
por cualquier persona
libremente se encuentran
sujetos, como mucho,
un requerimiento para que se diga
de dónde, de dónde vienen;
ya que se compartan la misma.
De la misma forma en la
que se ha obtenido.
Digamos que esto se se resumen
3, tres cualidades.
Por una parte, la disponibilidad
y el acceso.
Esa información tiene que
estar disponible
una forma que sea conveniente
y modificable
como un todo y a un coste razonable,
preferiblemente por internet,
tiene que ser reutilizable
y distribuir; es decir, tiene,
tienen que los términos de uso lo
tienen que permitir que terceros,
puedan reutilizar los y
redistribuirlo integrarlos
con otros conjuntos para hacer
otras explotaciones
y tiene que permitir una
participación universal.
Es decir, los los datos no
pueden estar limitados
a discriminaciones de esfuerzo,
personas o grupos o rescisiones
de algún tipo extraño.
Entonces, el asunto fundamental,
de, de ser restrictivo
para que un dato tenga
que ser abierto
es que es la única manera de
garantizar la interoperabilidad.
Esto tiene unos beneficios prácticos,
es decir, la capacidad que da para
poder combinar estas estos datos
con otros datos y desarrollar
nuevos productos
y servicios.
Es un asunto, es un asunto clave
y es un punto importante.
En el proyecto.
Hay un asunto sobre los
datos abiertos,
que bueno el movimiento en general
lo que dice que es lo más importante
es que los datos estén expuestos
cuanto antes.
Esto es cierto, pero bueno,
tiene más pegas abierto,
en realidad puede ser todo.
Esto.
Puede ser un fichero ficheros, estén
aunque sean formato propietario.
Los datos pueden ser abiertos.
Pueden ser un fichero ficheros
en formato cese, Google,
que tiene algunos problemas
con los textos,
con algunos formatos de
rendimiento general.
Puede ser una pie pueden ser, pueden
ser datos inteligentes,
que nos datos con información
acerca de los datos
o pueden ser limpieza.
Son datos abiertos lanzado si
en la tabla con otros actos
la conclusión,
pues no todos los datos
abiertos son iguales
y permiten los Mossos y ofrecen
las mismas posibilidades,
si bien la rapidez es un
factor de innovación.
La incomodidad es un freno, es decir,
los datos tienen los datos abiertos,
pueden tener distintos problemas,
es decir, hay que descargar si se
van a obtener con una descarga
o con una piel.
El modelo que los defines
cerrados abierto es.
Un estándar, es extensible expresivo.
La relación se pueden
relacionar datos.
Ahí hay un piso de vistas, hay
un acceso a consultas.
Los datos se pueden enlazar,
o están enlazados.
Quién es el responsable de
actualizar la información que lo utilizaba
el propietario?
Cómo se difunden estos datos?
Hay un enlace de una web.
En asuntos pasivos
activó entonces el que es así
al respecto de esta acción,
lo que ofrece es una app para
obtener estos datos.
El modelo abierto va a ser público,
es una antología que
va a ser pública,
va a estar publicada
como un estándar,
y está basada en estándares,
y al ser una antología es
expresivo y extensible.
Los datos se pueden relacionar entre
ellos mediante consultas,
en este caso es Parker, se va a
poder enlazar con fuentes externas
o va a estar relanzado con
fuentes externas,
se debe disponer de una piel,
y la responsabilidad de
la actualización
es el propietario de los datos,
es decir, aquel que llegue a
los datos siempre los va
a encontrar actualizados, porque eso
es responsabilidad del propietario,
en este caso, de la Universidad.
Por último, en cuanto a difusión
de los datos,
en este caso es una difusión web.
En general de ing,
que sorprende de ser el mejor medio
para publicar datos abiertos,
el mejor medio.
En cuanto al proceso de conocimiento
por hacer una introducción
a lo que sería una razón
de conocimiento,
no había planteado hacer una
una breve demo basándonos
en las personas que estamos
conectados,
pero, bueno, como pudiera salir
mal y cogido esto,
es decir sí personas felices, que
están conectadas a un zoom
y vamos a suponer los siguientes,
que son 16 investigadores e
investigadoras y que tienen,
y que hay un documento, un
documento científico,
como éste, que son los biomarcadores
del Trastorno del Espectro Autista,
etc. Que vamos a pensar que esta
tiene tres áreas de conocimiento.
Cada una de las personas que tenemos
aquí en esta foto es una entidad.
El PP, la publicación
es otra entidad,
las áreas de conocimiento
son otras entidades.
Entonces el documento
está relacionado
con estas áreas de conocimiento.
Es decir, es un documento
que trata genética,
inteligencia artificial,
neurociencia.
Por otra parte, el documento
tiene tres autores,
son estas tres son estos tres queda
aquí esto genera una relación
entre ellos, que no es que
no está explícita,
pero es implícita, es decir, tienen
un documento en común,
tienen una un resultado de
investigación en común.
Por otra parte, puede haber
tres personas,
tres investigadores o investigadoras
que tengan relación
con el área de conocimiento de
la inteligencia artificial.
Esto a su vez genera una relación
entre ellas, es decir,
son tres personas que tienen un área
de conocimiento en común.
Aquí sí sí si quisiéramos, por
ejemplo, saber qué persona,
qué persona tiene experiencia
en la investigación,
en inteligencia artificial
y neurociencia,
pero su especialidad es inteligencia
artificial,
entonces, que sería esta persona.
Entonces esto en realidad es
una especie de deducción.
Una inferencia.
Por qué esta persona tiene como
área de conocimiento
la inteligencia artificial.
A su vez el hay un documento que
está relacionado con neurociencia
y ese documento tiene una autora,
que es esta persona.
Entonces esto es una
manera de la forma
en la que el grifo de conocimiento
permite hacer relaciones
entre las entidades que representan.
Ha explicado explicadas estas
relaciones en francés simples,
que son predicadores de primer orden.
Sería que Laura es autora de la
publicación biomarcadores
del central genéticas.
Un área de conocimiento
de esa publicación.
Neurobiología es otro área de
conocimiento de la publicación,
inteligencia artificial es
una era de conocimiento
de la publicación, Laura investigan
el área de conocimiento,
inteligencia artificial.
Quizás autores otro autor de la
publicación videomarcadores
él quiera investigar el área
de conocimiento genética.
La conclusión que se podía extraer
de de esas relaciones explícitas
es que las personas que investigan
en el área de conocimiento de
Inteligencia Artificial,
que han participado en
investigaciones en conocimiento
de la genética, serían Laura y otras
personas que estuvieran
en ese mismo caso.
Así pues, un brazo de conocimiento
es una forma de integrar
y representarla y representar
la información heterogénea,
distribuida que permite descubrir
y de investigar cualquier tema de
forma profunda, intuitiva.
Al final
esto lo que ofrece es una web que
es semánticamente consciente,
los lazos de conocimiento,
lo que nos permite dotar
de sentido común a nuestros
sistemas, de manera
que puedan desarrollar inteligencia
contextual en un dominio amplio,
conocimiento en este caso de
este tipo de diferencias
como la que hemos hecho en
el ejemplo anterior.
Sería un sería un caso de este, de
esta inteligencia contextual
hablando, siempre de estos términos,
de consciente e inteligencia
y demás, entre comillas.
Los brazos de conocimiento por, por
poner un poco en donde estamos,
en el ámbito general de la
tecnología para Garner
en 2019, esto era una tecnología
emergente
que estaba más o menos la mitad del
ciclo de su vida en el 2020.
Consideran que está prácticamente?
Pues que ahora es un concepto que
tecnológicamente es relevante,
es parte de las principales
tendencias tecnológicas actuales.
Entrando ya en Asia,
vamos a comenzar por la parte de
infraestructura antológica.
En este su proyecto, digamos,
de lo que se trata
es de definir el modelo antológico
del grifo de conocimiento
de la investigación universitaria.
Esto se va a hacer mediante
la creación de una red
de antologías que va a poder
ser usada usada
para describir con fidelidad y
anualidad los datos del dominio.
Esto, el acrónimo que usaremos
era arriba.
La red de antologías
-Hércules tenía unos requerimientos
en su su diseño, por una parte,
analizar los escenarios posibles,
Escenario este uso,
como el mapa de conocimiento
nacional,
cuadro flexibles, búsqueda de socios,
selección de grupos de investigación,
el análisis de funcionalidades
de un sistema, es decir,
que se pudieran gestionar proyectos
convocatorias y ayudas producción
científica currículum contacto
de patentes ética etc
el análisis de las entidades para
identificar posibles atributos
clasificaciones taxonómica
relaciones fuentes de datos etc
y por último unos requisitos
funcionales y no funcionales,
como serían los principios de Open
de eta que hemos visto antes,
principios Feher,
el uso de persistentes
multilingüismo, interoperabilidad
con otras, antologías, integración,
con fuentes en formación existentes,
las escombreras de conocimiento
externos de eta y la la materialidad
y por último, que fuera una
publicación con licencia
o piensos.
Los principios que han seguido en el
diseño de la red de antologías
Hércules, que luego explicará más en
detalle Diego López de Ipiña,
la siguiente, la siguiente.
El siguiente modelo a
partir de las 10
son la reutilización, es decir,
modelar los conceptos existentes
y consolidados, la extensión,
modelar los nuevos conceptos
identificados en el análisis
o conceptos propios de la
universidad española
que no estuvieran en las antologías
y vocabulario existentes,
y, por último,
usabilidad documentar los atributos
de relaciones y restricciones
para facilitar el uso posterior
de la red de antologías
Hércules por parte de
desarrolladores y usuarios.
El esquema general de la antología
de la red de antologías Hércules,
este nuevo Diego, entrará
más en detalle.
Tenemos entidades relevantes como
Noble sería la persona
los investigadores tenemos proyectos
organizaciones actividades
producción científica de todo tipo.
En cuanto a los principios que
hemos citado antes Ferrer,
viene de.
También entiendo que es
un juego de palabras,
porque significa justo.
Bueno sea, serían datos buenos o no
sé si cómo, traducirlo español,
pero bueno, datos adecuados.
Entonces los estos principios
dan unas directrices para la
publicación de recursos,
que puede ser conjuntos de datos,
códigos, flujos de trabajo, etc.
Para que sean localizables
accesibles,
interoperable sido reutilizables.
Los principios se refieren a
tres tipos de entidades.
Son tanto los datos metadatos
como infraestructura.
Podemos decir que el empiezo
es el mejor medio para ser
y igual que es el mejor
medio para publicar.
Los príncipes Fer cada uno de
los grandes principios,
fer, tienen unas divisiones
en cuanto a que sea encontrarle
esto, quiere decir que los datos,
los datos y los datos deben ser
fácilmente deben ser fáciles
de encontrar tanto para
los seres humanos,
para las paralelas, para las
personas como para las máquinas.
En especial, que tenga datos que
sean elegibles por máquinas
para que el descubrimiento se haga
o pueda ser automático.
Los principios son cuatro a los
metadatos se les asigne
un identificador único.
Los datos se describan.
Comentado Torrijos, los metadatos,
incluyan explícitamente
el identificador
de los datos que describen los datos,
se registraron un recurso de
búsqueda en este sentido,
Méndez ha proporcionado Nuri,
que es un identificador único,
proporciona datos descriptivos
proporcionan un identificador
y desde luego
un medio para registro, indexación
en cuanto a accesible,
una vez que el usuario encuentra
los datos requeridos,
necesita poder acceder a ellos tal
vez con con autenticación
o sin ella pero bueno lo que
necesitas poder acceder
entonces los los los principios en
los que se divide accesibles sería
que los metadatos son recuperables
mediante su identificador,
utilizando un protocolo de
comunicaciones normal.
El protocolo tiene que ser abierto,
gratuito y de aplicación universal,
y el protocolo tiene que permitir un
procedimiento de autenticación
y autorización, si es
que es necesario,
y, por último, los metadatos
son accesibles,
incluso cuando los datos ya
no están disponibles.
De nuevo le sorprende el
acceso a los datos
mediante con un protocolo abierto
que proporciona persistencia incluso
en el caso de borrar las instancias
de los metadatos,
cuando menos en cuanto
a interoperable.
Esto quiere decir que los datos
se tienen que poder integrar
con otros datos, porque, en general,
es lo que la gente espera.
Poder integrar los datos con otros.
Los principios serían.
Los metadatos, utilizar
un lenguaje formal
que sea accesible, compartido y para
representar el conocimiento,
utiliza un vocabulario
es que a su vez,
siguen los principios fehr,
y los metadatos incluyen referencias
cualificadas a otros actos de nuevo.
La inquietud representar los
datos mediante antologías;
utiliza y propone vocabulario
estándar
abierto y accesibles, y permite
enlazar con otras.
El último principio, que es
el de reutilización,
es optimizar la reutilización
de los datos.
Para eso es fundamental que
los datos descritos,
los principios que se describan
ampliamente
con la proeza de atributos
que sean relevantes,
que estén liberados, con una
licencia de uso de datos clara
y que estén asociados a una
procedencia detallada,
y, por último, que los metadatos
y los datos cumplan
con los estándares de la comunidad
en ese dominio.
Aquí nació utiliza,
va a utilizar los ricos
y descriptivos,
incluimos la licencia y la
procedencia de los datos,
y es un modelado adecuado
para este dominio
de conocimiento, que es el de
gestión de la investigación.
El desarrollo de la infraestructura
antológica
se sustenta en 4, 3, tres puntos.
Por una parte, los principios
de diseño que hemos citado
antes de que se pueda reutilizar,
extender y usar.
Tenemos una documentación
de tres tipos,
documentación descriptiva,
documentación para y documentación
formal,
de publicación de antologías,
y tenemos algunas preguntas de
competencia, que es un conjunto
de consultas, que es extensible que
la antología debe ser capaz
de satisfacer, de tal forma
que posibles modificaciones
posteriores no supongan pérdida
de las funcionalidades.
Entramos en el segundo módulo, que
es el de la arquitectura.
Se mantiene, es el conjunto
de componentes
que permiten explotar los datos
moderados con la red de antologías
-Hércules.
La arquitectura que tiene tienen
estas características,
cada nodo tiene cuatro
módulos de carga,
pide consulta pública o privada;
dos nodos.
Se consolidan datos.
En el nuevo unidad hasta el no
unifica datos homogéneos
entre nodos y cada nodo.
Así cuenta con un brazo de
conocimiento completo
de sus entidades, dominio de gestión
de la investigación.
Por último, el nodo central, unidad
cuenta con un brazo de conocimiento,
con la globalidad de datos del
sistema universitario español
que recibe de cada nodo.
El nuevo centro,
unidad tiene unas funciones
específicas sincronizan;
los datos distribuidos
de cada universidad
permite la explotación agregada
de los datos de honestidad.
La existencia de una garantiza la
disponibilidad y el rendimiento
y permite la la conexión de datos
y detección de equivalencias
entre universidades.
Si no, no unidad.
Estas funciones anteriores
tendrían que realizarse mediante
otro tipo de consultas
en cada uno de los dos darían
problemas de rendimiento,
disponibilidad, consistencia
y porque no había manera
de garantizar al usuario que los
datos que está recibiendo realmente
son todos los que debería recibir.
En la consulta.
Perdonó Esteban.
Puedo hacer una pregunta si supongo
que sólo lo tratará con más detalle
en este nivel de detalle,
pero quiere esto decir
que cualquier modo
de cualquier universidad que se
quiera registrar el nodo central
finalmente va a tener que tener mis
especializadas no va a bastar
con general r No no no no
no me explico bien
si he dicho eso no hablo mal.
No sé el.
El no de unidad es, es el es un modo,
igual que los otros, que
los otros nuevos,
en el sentido de que sirve rdc y
tiene un líquido además lo que hace
es que cada nodo, digamos, si
inconexas sus datos hacia la India
envía datos hacia la unidad.
No hay que hacer nada particular,
más que conectarse, no hace
falta ninguna específico
ni nada de lo que se ha preguntado
con mano de tomos,
y supongo que solo le vale un
acuerdo de tardaremos más gracias.
La arquitectura ya un poco
más gente, más detalle
de estos componentes, tenemos
por una parte,
la carga que recibe datos puede
recibir datos de fuentes
como XML base de datos o
sistemas de gestión,
como puede ser culé, se dentro
de la de la carga.
Tenemos unos modelos de gestor
de datos generados de datos
con el nodo central, con lo que
estamos comentando ahora,
y las autoridades gris tenemos
el a pie de consulta,
que permite conectar con con
la parte de la web pública
el servidor para publicar
datos, para,
digamos en general para personas,
pero también para máquinas en el caso
del servidor que Data tenemos
el que digamos
aunque aquí no estaba puesto bueno,
tiene un componente público,
un componente privado, es decir,
hay parte de los de los datos que
van a estar en el brazo,
conocimiento que probaba que no van
a ser de naturaleza privada
porque no se pueden publicar.
Entonces habrá un parque que sirva
datos exclusivamente públicos
y otro para los administradores
que tendrán acceso
a todos en la parte de
la web privada,
básicamente está el gestor
de documentación gestor
de la tasa exige de usuarios.
Yendo un poco componente componente,
bueno, antes antes que eso de una
forma de una forma general,
cuál es el proceso de carga,
variación y descubrimiento,
a grandes rasgos sería si es decir,
el digamos que el Vázquez
solicita datos nuevos y modificados
al servicio,
ahí me hk interrogarles
e idealmente ser,
pero podría ser cualquier
otro tipo de sistema.
El servicio cumple el
estándar o ahí mh.
Los datos se reciben en la carga.
En un formato
XML que tiene.
Tiene una definición y se ve.
Los datos validan contra
la antología del río h
y, si disculpas, aquí hay un error
y se convierten en rdc.
Se descubren los enlaces, se
reconcilian los datos existentes
y se detectan las equivalencias
en el descubrimiento.
Los datos se publican
en la red gestor
y, por último, se han unido a eta,
que cuenta con sus propios procesos
de transformación y validación.
Hércules se puede conectar con
cualquier mensaje preferentemente
Hércules, mediante un conjunto,
mediante por una parte,
las peticiones al servicio de mh.
Es un protocolo de lo penal,
iniciativa cuya fuente de datos
sería una, tiene un formato
y que se adapta a las diversas
fuentes de datos es.
Se conecta, con los procesos
de adhesión
de carga, descubrimiento, validación
y publicación,
y se pueden definir múltiples
fuentes de datos; es decir,
podría haber una universidad que no
tuviera escuelas se tuviera.
Por ejemplo, una quisiera
incorporar datos
de los investigadores mediante
una conexión con CBS
y los datos de la gestión de los
proyectos de un sistema,
de un sistema propio de otro tipo,
entonces podría hacerlo.
Podría contar con estas dos
fuentes de información
y sincronizar controlados.
El sistema también este mismo lo que
permite es una carga inicial
de datos que habría que hacer
en la puesta en marcha.
La factoría de Ourense, un
componente importante,
porque los rdc los los datos,
se refieren en generarse, que
sean formalmente correctos,
como genios sean persistentes,
incluso más allá de la
vida del proyecto.
Entonces para ello lo
durante el proyecto
se ha desarrollado un documento
de buenas prácticas,
la especificación del esquema de
Ulises Hércules que está inspirado
por la norma técnica de
interoperabilidad
de la acción de recursos
de la información;
un software, una factoría y adecuado
para cada tipo de entidad
en la que se puede definir como
hemos aquí pues por una parte,
lo que sería él con el dominio y
luego cada uno de los fragmentos
que proporcionan una cierta
información sobre la naturaleza
de la entidad que representa.
En este caso sería una investigadora
investigadora,
en este caso un área de conocimiento.
Por último, hay un documento
de adhesión
a las buenas prácticas de gris
que se debería aceptar
y publicar en el seno de
cada universidad,
en el que se indica que
las suyas van a tener
estas cualidades que estamos aquí
que van a ser persistentes.
El proceso de validación se efectúa
mediante el uso de ese saque, que es
una recomendación del 3, tres se
ven Word, Wide Web Consortium.
Es un lenguaje para validar nunca
rdc contra un conjunto de condiciones.
En nuestro caso, disponemos de
un conjunto de variaciones
que se pueden relacionar con fuentes
de datos distintas.
Esto lo hemos hecho así porque,
como hemos dicho antes,
puede ser que uno tenga fuentes
de datos diferentes,
cada una de ellas convalidaciones
distintas y tal vez con calidad
de los datos distinta.
Entonces, para permitir que los
datos se integren en la Red Hércules,
necesitamos que la validación
o que pueda haber
valoraciones distintas según la
fuente por último, las iPS,
se generan.
Una se generan automáticamente a
partir de las restricciones
de la odontología y luego se puede
modificar manualmente.
El uso de administrador cuenta
con unas herramientas
para hacer esta gestión.
Una vez que los datos están
cargados desde Lewis
se ejecutan los siguientes procesos
descubrimiento que serían;
reconciliación, descubrimiento,
enlaces y detección
de equivalencias.
La reconciliación sirve para evitar
la duplicación de entidades
mediante la aplicación
de unas reglas,
es decir, si se incorporan,
si se incorporan datos de un
investigador que pueda
ser que puedan estar incompletos,
porque solamente está el nombre
lo que consigue esto es reconciliar
esa entidad,
que llega con una información
parcial,
con una que ya pueda estar
en el sistema
el sistema de reconciliación,
toma decisiones autónomas
y supera un cierto umbral.
Si se queda en un rango de
validación no supera ese umbral
y se queda en un rango de,
en un rango determinado.
Lo que va a hacer es consultar
al usuario,
pedirle una validación.
Decirle que esta entidad es ésta, y,
por último, bueno, hay que decir
que el proceso de reconciliación
no solamente usarlos los datos
que ya estén encargados en Asia sino
los datos que se hayan obtenido
en el descubrimiento de enlaces
de fuentes externas
y desde Niigata, entiendo.
El descubrimiento de enlaces.
Lo que hacemos aquí es obtener
identificadores que hacemos con
enlaces a fuentes externas
y unir a eta obtenemos información
para la reconciliación
y, por una parte, es un proceso
con ejecución continua,
parte de que se ejecuta en el
momento en el que los datos
se cargan en el sistema.
Tiene una ejecución continua para
buscar nueva información,
que tal vez en el momento en
el que se cargó el dato
no estuviera disponible.
Por último, está el proceso de
detección de equivalencias
que obtienen las entidades.
Otros nuevos ha sido para ello
usa el no de unidad,
y también es una información que
se utiliza la reconciliación
de entidades, es decir,
en el proceso de reconciliación.
Es posible
que te llegue un una entidad que
tú no tienes en tu sistema,
pero igual sí que está en el sistema
de alguna otra universidad
y, por tanto, ha ido al baño.
Otro componente de la arquitectura
se mantiene,
el servidor, que trata de hacer ver,
es un combate que permite la que
permiten la publicación
de los datos que están en el gestor.
Como datos abiertos
y enlazados el servicio tiene las
siguientes características,
que tiene un interfaz html con
estilos y formatos personalizables,
que permite la presentación de tablas
y grasos proporcionar los datos
en formato PDF para máquinas
cumplen las recomendaciones, que es
una recomendación del dictado
de plazo y cuenta con los
servicios jurídicos
que permite localizar entidades
por el formato
de con el que presenta.
Es parecido a esto, por una parte
tenemos datos y por otra,
pues una representación queda,
pues, en el formato tabla
o formato gastos.
Otro componente importante
es el parque.
Cuenta con un punto
es parque que permite a usuarios
y administradores
consultar los datos del conocimiento
que están en las redes gestor
es parque, él no responde
a las siglas.
Protocolo es un protocolo de
consulta y lenguaje de interrogación
para abrazos rdc!
Está normalizado por
la última versión,
es de uno punto 1, que
es el año 2013,
disponemos de un puente solo
lectura para ser público,
sin acceso a los datos privados.
En general.
Entendemos que la utilización
de los datos viene por.
Necesita 3, tres aspectos.
Conocer la Red de Hércules, el
uso de consultas, es parque,
y el uso del láser.
Con estos tres aspectos,
un usuario puede reutilizar
esa información.
El receptor es el componente de
la arquitectura que almacena
el grado de conocimiento, formato,
regresa dentro del desierto,
actúa como un servidor de datos
que responde a consultas.
Si esto tiene otros nombres,
a veces se llama servidores
parques o rbs.
La red de gestor ofrece el servicio
de datos y consultas a la izquierda,
hacer ver.
Durante el desarrollo de hemos
realizado un best bar
para que cada universidad
pueda elegir
cuál es el receptor que más le
conviene tener en cuenta.
Eso sí
que uno de los requisitos que tiene
que cumplir esto no es opcionales,
que cumpla, es que tiene que
cumplir este estándar.
Es Parker uno punto 1.
Cuenta también con una web documental
que permite hacer una publicación
de páginas,
que informen sobre el todo
de la Universidad,
puede tener contenido estático
y contenido dinámico.
Que esté obtenido desde la consulta
o desde el parque.
Con páginas de este estilo que
pueden tener una representación,
pueden hacer representaciones
de datos
o sí o simplemente informar sobre.
Sobre el Palacio de la Universidad,
entendemos que cada universidad
lo que tendría que hacer
es personalizar,
los estilos y el contenido
de estas páginas.
Por último, ha sido, tiene una
voz de Administración,
proporciona una interfaz con
las siguientes páginas,
lo que permite administrar fuentes.
Los consistorios de información
permite gestionar las elipsis,
la variación, la factoría de gris.
Obtener toques para acceso a los Apis
tiene unas herramientas de
comprobación del sistema
y permite administrar las
páginas del documental.
En cuanto a tecnología, hemos
utilizado las siguientes.
El desarrollo está hecho en punto
en el punto en el colegio
desarrollado como Microsoft como
una evolución de Pontones;
un coro ya es multiplataforma.
Lo que se desarrolla se puede puede
funcionar tanto en Windows Mac
como sea y es un, está desarrollado
bajo ambiciosa
que software abierto.
Está desarrollado con
una arquitectura
entendemos que esto favorece
la la reutilización,
los pies que hemos desarrollado
están siguiendo el principio de
comer tu propia comida para perros,
es decir,
no es una pieza aparte del de y del
software sino que el software
sea si usa las apps para funcionar
no es otra cosa
y entendemos que ofrece
un modo sencillo
de reutilización de componentes
de los componentes de aseo.
También se pueden utilizar como
librerías en los desarrollos,
pero nos lo recomendaría que vemos
que es más limpio y sencillo
implementar un servicio y
reutilizarlo haciéndole una llamada
mediante, mediante una interfaz htc.
El repositorio de software
en el que estaba sido es este con
licencias de software libre,
y en el repositorio hay mucha.
Hay una serie de acciones
que por cada versión que sube
se genera una compilación,
unos test unitarios en la
cobertura de código
y una interpretación del código.
Consolar clave para ver cuál
es la cuál es su calidad.
Por último, el despliegue se
puede hacer de dos formas.
Como conjunto de servicios que
se o mediante imágenes
esto es bueno, ya gustos.
Entre la gente de sistemas en
general lo que prefiere es instalar
mediante imágenes lo que les
da una flexibilidad mayor.
La infraestructura básica
que necesita sería un conjunto de
uno ovarios de máquinas con apache,
otro para tareas de Cofidis,
un receptor que sea compatible
con el 1,
punto, 1, use una base relacional.
Pues es posible, se cuele
para almacenar,
algunas opciones de configuración,
y un para la gestión de
colas del proceso.
Con esto sería la descripción
del del sistema
de una manera general.
Tenéis alguna pregunta.
Hemos llegado justo a las 10.
O bien no se imaginado que todo
el mundo lo piense parecidas,
pero me ha parecido interesante
que tenía muchas cosillas.
Pero, bueno, esto es, esto es
una introducción general
y así es un proyecto
bastante grandes,
una introducción general lo
que vamos a ir viendo
durante las, durante los modelos y
jornadas de los próximos días
en los que entraremos en detalle
en cada uno de estos puntos.
Entiendo que algunas de las
cosas que hemos contado
están; no, no, tratan el
asunto con mucha,
con la debida profundidad,
pero es que no, no, no
es el momento ahora,
sino que será más adelante.
El tema de la red de antologías
-Hércules, en particular,
ahora Diego, va a explicarnos
durante unas dos horas
así en detalle cómo se
ha desarrollado
y qué características tiene.
Voy a para la grabación.