Idioma: Español
Fecha: Subida: 2021-02-09T00:00:00+01:00
Duración: 40m 20s
Lugar: Curso
Visitas: 1.433 visitas

03_Módulos de gestión

Transcripción

Bueno, si se no hay, si no hay más preguntas, de momento, de todas maneras, al final nos va a sobrar, seguramente, algún, algún nos 15 minutos, no podemos aprovechar para resolver aquellas que queden por ahí en el tintero, vale? Bueno, nos movemos entonces a la parte del sistema de gestión, recordando un poco lo que teníamos hasta ahora, según unos datos que hemos importado desde desde unas fuentes de entrada, que ya lo tenemos en un formato. Poco vale, ya hemos hecho todas estas formaciones y demás, y los tenemos en ese formato listos, ya para poder pasar a generar el rbs y seguir con los siguientes pasos que se ahora es de. Esto es lo que se va a encargar el sistema de gestión. Entonces, este este sistema de gestión sea, como decía, será el encargado de recoger los datos en formato del servicio y general, así como sus alegaciones para los enlaces entre ellos del otro de la otra, con la que comentábamos entonces con ellos. Lo que va a hacer es utilizar el la librería de descubrimiento, para validar si se trata de un nuevo recurso o uno que ya existe, que hay que actualizar, o bien es necesario realizar un borrado, por ejemplo. Entonces también va a generar el rdc, apoyándose en la factoría de Uriz, que se va a encargar de darnos esos esos identificadores que antes comentábamos, cuando estábamos hablando de la introducción del rdc. Eso nos lo va a proporcionar, está ese módulo de servicio, denominado Yunis Factory y también de la ingesta del dlr de Essen, el serio del modelo de gestión, junto con con la operación a realizar, por ejemplo, insertar o actualizar o eliminar lo que permitirá disponer también de un loco, de todas las operaciones realizadas en el sistema, pudiendo ser útil. En caso de necesitar restaurada, la información final, en todo, en todos estos sistemas, cine nacional, va registrando todos. Todo lo que ha ido ocurriendo es una especie de los van a ir registrando todos estos eventos, con lo cual si en un momento dado quisiese realizar un rol, va a otro momento, podría reproducir todos los pasos que se han producido desde desde entonces para para volver a para buenos, por un lado, para identificar posibles problemas o, por otro lado, para poder reproducirlo. En caso de pérdida de información también va a ser bastante útil. En cuanto a este series Bus -que del sistema de gestión vemos que éste tiene un icono un poco diferente, y en la tubería, en este caso en lugar de utilizar Kafka, vamos a utilizar otro mecanismo Bale. Uno de los inconvenientes de utilizar Kafka es que no garantiza el orden, no es capaz de garantizar el orden por diferentes motivos, ni tampoco ha sido su cometido. El cometido principal causa es la ingesta masiva de datos, independientemente del orden que en el que llegue a entonces, al no garantizar un orden en podemos tener diferentes problemas o encontrarnos con diferentes problemas. Entonces vamos a necesitar que los datos vayan ordenados en este sentido. Después por esto vamos a utilizar en lugar de un mal el cual utiliza el estándar jm, este tipo de sistema, así que nos nos lo garantizaría, pero de otra manera se utilizaría más o menos de la misma de la misma forma. Luego el procesador de eventos, como ya comentábamos antes, poco sobre ellos, cada uno de estos procesados de eventos en Canarias de consumirlos los mensajes disponibles en este, esta cola del modelo de gestión y enviarlos almacenamiento correspondiente a través de un adaptador. La idea es que exista un procesador de eventos por cada una de las diferentes almacenamiento, como decíamos antes, que vamos a tener en principio va a ser y wiki base, aunque en un futuro se podrían añadir más, y, si es que fuese necesario y fuese necesario hacer una evolución, una ampliación del sistema mediante esta técnica. Pues ya os digo, es muy muy sencillo el poder añadirlo; simplemente tendríamos que añadir un nuevo procesador de eventos que este consumiendo está en esta cola, tener debajo. Una. Una se encarga de hacer esa esa transformación, esa traducción al almacenamiento pertinente. Realmente el procesador de eventos no es que cambie, vale, no, no es nuestro, no tenemos una implementación distinta para cada uno de los de los almacenamientos. El proceso simplemente se va a encargar de escuchar la cola, de consumir los mensajes y luego delegar en unas horas a las lectoras va a tener un una interfaz estándar. Todos ellos Stefan, que está definida igual para todos ellos, lo que cambia su implementación, con lo cual la pieza del Event, de procesos de eventos es la misma. Simplemente hay diferentes instancias de la misma. Otra otra de las ventajas de irnos a una arquitectura de servicios, puedo levantar la misma pieza con diferente configuración? En este caso la confederación diferente va a ser que llama a un servicio distinto de almacenamiento, pero el resto es exactamente igual y aprovechó la misma, la misma, la misma implementación, simplemente levantó diferentes instancias de acuerdo. Entonces, luego, cuando nos vamos a el caso de los, como como decía, bueno, en lugar de añadir la lógica correspondiente a un sistema de almacenamiento se va a utilizar ese adaptador que está especializado en el sistema en concreto. De acuerdo? Entonces es adaptador lo que lo que tiene, como decía, es una, es una pista andar, todos ellos tienen la misma, pero luego se adaptaba a a lo que haga falta. Entonces se van a encargar de transformar en el rbs que van a recibir, que se lo va a enviar el procesador de eventos para que concuerda con el sistema final, como, por ejemplo las las en algunos en algunos sistemas de almacenamiento, como puede ser, por ejemplo, wiki base, tienen que cambiar un poco, tiene una arquitectura de Ourense un poco diferente en el caso de Huawei, que iba a ser, por lo tanto, de alguna manera tenemos que hacer una traducción de esas boris al formato wiki, va a ser, por decirlo así y eso también se va a encargar el lector a Savater para ello, haciendo uso de la factoría de la factoría de Uriz, entonces, donde la odisea en el caso de que iba a ser y griega, entonces la factoría de hybris también va a tener ese registro de esa de esas traducciones para que sea para correr, relacionar ambas, ambas Ulises ambos en ambos formatos. Entonces, como como decía, dentro de este recurso del proyecto pues han desarrollado dos adaptadores diferentes. Uno para caso de trenes y otro para Paraguay, que iba a ser y podrían hacerse, los que les fuesen necesarios para, para, para futuras ampliaciones. Para un poco ya introdujimos un poco un poco el tema, pero bueno, un poco por por profundizar un poco más y con el fin de aumentar la estabilidad y la alta disponibilidad del sistema, pues propone la autorización de el sistema de procesamiento de streaming, de eventos. Este tipo de sistemas están siendo utilizados principalmente en proyectos que requieren el procesamiento de grandes cantidades de datos, sobre todo de ingesta de ingesta de información, consiste en utilizar, mediante una técnica de publicación y suscripción, un look distribuido de solo lectura. La ventaja todas las operaciones es que las operaciones de escrito eran las más eficientes, que las actualizaciones en una base de datos. Entonces, aquí realmente lo que lo que vamos a ir haciendo es cogiendo de todas las fuentes de datos, y metiendo ahí los los datos, y luego ya se procesará posteriormente por quien porque los consuman hoy de esa forma un poco la la los diferentes los diferentes módulos era un poco, un poco hablando del tema. Este procesamiento en streaming. Pues bueno, pues normalmente se suelen utilizar para pagar. Como decía, para hacer ingestas masivas de información se producen datos en todo momento en que, hablando en términos más generales fuera del ámbito de este proyecto, pues se están produciendo en todo momento datos en diferentes fuentes, después temas de movilidad, de temas de y yo te de logística, transacciones financieras, etc, etc. Ahí hay muchísima información que se está produciendo y, y para poder aprovecharse de ello necesitamos una plataforma que soporta la ingesta de grandes volúmenes de información, y aquí hay un poco en juego las herramientas, como por ejemplo este tipo de, como hacía este tipo, de. Si te vas a la final es eso, es, pues una publicación y suscripción es ahora mismo estamos viendo cómo todos estos elementos se están publicando información dentro de la de la cola, Kafka sería los los productores. Se cargan de describir en la la la cola desde diferentes fuentes de datos, pero luego por el por el otro lado de la cola, pues vamos a tener una serie de consumidores, ya sea uno o varios. Bueno, ya hemos visto ejemplos de los dos casos había. Teníamos disponibles colas que vamos a tener solamente un consumidor. Pero, por ejemplo la del la de la gestión de eventos o del módulo de gestión, pues teníamos varios consumidores. Uno para cada uno de los diferentes almacenamientos que tenía. Entonces. Cada uno va a hacer con los datos un poco lo que lo que considere, lo que considere oportuno y le haga falta realmente le va a llevar a todos todos los datos y cada uno es muy libre de hacer. Con ellos lo que quiere está un poco, tiene un poco independientes entre sí cada uno de los de los consumidores en ese. En ese sentido, entonces realmente lo que estamos consiguiendo es ese acoplando los productores de los de los consumidores, totalmente, lo cual implica que pues que puede darse el caso de que el consumo o el tratamiento posterior de la información sea más lento en algunas partes. Que la producción de los datos entonces, de esta manera al poder destacó no impacta no es decir puede podemos estar gestando datos en el sistema de una forma masiva de una forma muy rápida. Todo ello quedaría distribuido por ejemplo, toda esta información y luego los consumidores, cuando tengan disponibilidad, ya pueden seguir trabajando todos esos eventos, todos esos mensajes y tardando el tiempo que necesite cada cada uno de ellos. De esa manera conseguimos que no impacte en la producción de información. El hecho de que uno de los consumidores tarde tardé más tiempo del necesario o del previsto, no. Entonces en ese, en ese sentido, nos va a dar una ventaja, una ventaja enorme. Entonces, otras otras ventajas. Es también que un fallo de un consumidor no, no nos vaya a afectar a todo el sistema. Evidentemente, tanto el resto de consumidores como como los productores van a poder seguir trabajando con normalidad, también que sería sería posible añadir nuevos consumidores en caso de que fuese necesario al sistema sin afectar a los a los productores, que ya tenemos un poco también lo que lo que antes comentamos de cara a los distintos almacenamientos no era algo que podríamos que podríamos conseguir gracias a una, a una arquitectura de tipo tipo. Cuando cuando nos vamos a a mundo digamos que sale el concepto de tópico entonces, que es realmente un tópico, es un es un sprint de mensajes relacionados entre sí; es una, por decirlo de alguna, era una especie de Colau, ese es el look distribuido que como con una serie de mensajes que nos van a servir para para un fin común antes antes veíamos que teníamos varios, varios topes no puede ser bush general, pues eso sería un tópico. Teníamos el exterior del módulo de entrada o series Bus de de los enlaces; ese sería otro y luego tendríamos el de los del modelo de gestión, que sería otro otro topic, cada uno de esos es para una finalidad en concreto son son mensajes diferentes realmente mal entonces por ello por eso digamos hablamos de mensajes relacionados. Los que componen un punto que se relacionados entre sí mediante una representación lógica. Los topics, evidentemente, son definidos en tiempo de tiempos de desarrollo final, es lo que necesite. Cada una de las aplicaciones no podía ser de otra de otra manera, y luego en cuanto a relación productor topic, pues podría ser aena. Es decir, podríamos estar hablando de que un mismo productor sea capaz de escribir en un tópico o varias ejemplo. Antes vimos que iba a escribir en 2. Entonces topics, vale una para los objetos, planos y otro para para los objetos de tipo de tipo; enlace para los enlaces entre entre ellos, pero también la relación podría ser a la inversa, no es decir que tenga varios varios productores escribiendo sobre sobre el mismo sobre el mismo tópico, por ejemplo, en estas relaciones en esta aplicación. No sé no sé si no se va a dar este caso, pero, por ejemplo, pongamos en el caso de una de una aplicación de la que tengamos diferentes dispositivos enviando información, pues, por ejemplo, en el mundo logístico, no que tengamos diferentes diferentes caminos enviando su su ubicación; o la temperatura de que está teniendo dentro novel para mantener la cadena de frío. En ese caso, digamos que tendríamos varios dispositivos escribiendo en el mismo topic pueden ser un poco las relaciones en aena, pero también las relaciones sería de cara a los a los consumidores, no al final, como como vimos antes, nos va a permitir tener varios consumidores leyendo del mismo, del mismo, del mismo tono. Bueno, también es posible tener un número de topes y limitado, bueno, invitado entre comillas, porque al final será limitado por lo que no soporta el sistema cielo, por los recursos del propio sistema que éste está implementado y luego también vemos que los que están divididos en distintos en distintas partición, dentro de Kafka. Entonces, normalmente los mensajes, pues lo va a gestionar, los va a ir dividiendo en distintas las distintas peticiones de las que se compone el tópico al final, digamos que serían como una especie de sus colas, por decirlo de alguna manera, en las que se van insertando la información, pero en este caso el control lo tendría un poco un poco normalmente por defecto, pues esa esa determinación las suele hacer por por una clave de registro que se envía desde el productor. Pero bueno, yo digo que eso es lo normalmente, lo va a gestionar, gestionar también también, esto se suelen utilizar la las participaciones para facilitar los consumidores paralelos, que podamos tener más de más de un consumidor, leyendo sobre la misma, la misma cola. Esto no quiere decir no estoy hablando del caso que estábamos viendo antes de tener varios consumidores escuchando para fines distintos, sino que estábamos hablando de escalar un mismo consumidor, es decir, en ese caso cuando un mismo consumidor para para salvar una situación de cuello de botella, porque tenemos muchísimos mensajes y que queremos tener varios, que varios consumidores que procesen para agilizar lo que nos interesa. Es que no es que vayan llegando todos los mensajes a todos, sino que cada consumidor reciba una porción, una porción de ellos. Entonces mediante la técnica de partición es ese facilita esa esa, esa posibilidad de tener consumidores trabajando en en paralelo, no? Entonces la posibilidades que tendríamos es que podríamos estar consumiendo registros en paralelo hasta el número de participantes que tengamos también por este motivo. El tema de las participaciones no es bueno, es uno de los motivos por los que no se garantiza el orden y el orden. Se garantiza nivel de partición, pero si tenemos más de una partición, que es lo habitual, al menos tener dos digamos que que el orden ya no es garantizado, vale? Entonces un poco un poco por ese motivo que tuvimos que meter un sistema que sí que es lo que sí lo soporta, como como comentamos, como comentábamos antes de acuerdo, bueno, un poco, un poco como cómo funciona todo todo esto, pues vamos, que ya yendo a nivel de partición quizás vale. Pues vemos que se van insertando en el orden de forma secuencial pues empezaríamos por el por el obsequio número cero así sucesivamente y bueno pues el siguiente y tenga a escribir ya al final. Aquí por ejemplo, seguiría. Pues eso vemos cómo iría escribiendo el número 11, pero tendríamos dos consumidores y uno estaría estaría más adelantado que el otro. Uno estaría leyendo el número 10. Sin embargo, tenemos un poco más lento que sigue, si bien el cuadro esto no es ningún problema dentro de dentro, dentro de Kafka y precisamente es una de las de las ventajas, del poner, el poder de como decíamos, la escritura que va por arriba van una velocidad y luego por debajo distintos distintos consumidores con con distintas velocidades, uno más lentos y otros más veloces son estos soportado perfectamente por este tipo de arquitectura y además una de las ventajas que nos permite que nos permite lidiar con este tipo de situaciones. Un poco Un poco más de lo mismo en este caso Bale entonces bueno nada este estilo arquitectónico pues se ha denominado normalmente por su arquitectura tipo capa suele materializarse normalmente mediante el uso de Kafka, como como estamos viendo, el cual va a tener puesto de esas ventajas que decíamos. Buena utilización de Un lobo, distribuido como fuente de verdad, permitiendo desarrollar diferentes vistas de los mismos datos. Una vista vista, puede ser Una base de datos rdc o índice de búsqueda como las bueno, al final quiere decir es que vamos a poder tener diferentes consumidores que vayan que vayan a que estén leyendo sobre los mismos datos, pero cada uno va a hacer lo que tenga que hacer, ya sea insertar en Un lastre y ensartar en Una base de datos rdc, generar Un informe. Bueno, son ejemplos de todo lo que se podría hacer. No se podía hacer todo lo que lo que lo que queramos, pero quedamos con eso. No podemos tener distintos consumidores y cada uno de ellos hará lo que tenga que hacer con los mismos datos. Vale, muy, muy importante. Lo ha dicho. Si Una aplicación productora de eventos comienza a fallar generando datos incorrectos, sería sencillo modificar los consumidores para que ignoren datos, datos erróneos también. Si tuviésemos Una base de datos que llegásemos a corromper, pues ya tendríamos Una restauración mucho más, más complicada e incluso bueno ahora tener que utilizar otros mecanismos más más agresivos, seguramente, y también el tema de la depuración, pues puede ser más, más sencillo, al ir leyendo todos los desde Un pUnto dado, pues podemos ir viendo cómo se ha ido modificando los registros por todos los estados, pueblos que han ido pasando para poder llevar a Una determinada Una determinada situación. Vale, bueno, eso también puede facilitar el análisis de datos posterior, muchas, muchas ocasiones, pues eso es mucho más útil entender cómo se ha llevado a un estado que dispone únicamente del fino. Entonces es bueno. Vale, entonces, suena un poco como, como antes ya comentábamos, un poco un poco, cuando ésta lo estábamos viendo en la arquitectura, Kafka no está diseñado para garantizar el orden de los eventos enviados. Es por ello que en los casos en los que sea necesario garantizar este orden, apostar por otro tipo de otro tipo de sistemas y, en este caso el sistema tipo j. Meses, como es Astiz Astiz veintidos, es un broker de mensajería o piensos que implementa la especificación j j Mesa y por tanto preservando ese ese orden de mensajes enviados. Messi tiene dos modos de funcionamiento, por decirlo de alguna manera, tendría la opción de publicar mensajes a un tópico o a una cola. Hay una diferencia fundamental entre entre ambas aproximaciones, que está aquí un poco. Expresaban un topic, digamos, que envía el mensaje a, desde el productor a varios consumidores al mismo tiempo como una especie de. Esto es normalmente llamado publicación, suscripción vale mucho más parecido a lo que sería Kafka, que sería trabajaría de esta misma manera a todos los consumidores les llegaría todos los mensajes. Sin embargo, una cola podría podría tener también varios consumidores, pero en este caso redirige cada mensaje. Solo a un consumidor los consumidores esperarían en línea en la cola tomando tornas para obtener los nuevos mensajes; sería una especie de antes, hablábamos de procesamiento, paralelo, puedo decirlo de alguna manera. Bale? Entonces sería también llamada. Muchas veces estamos a la forma de trabajar aquí simplemente, bueno, saber que existen estos dos mecanismos. En el caso de que nos atañe de este, de esta aplicación. Nosotros, para dado que vamos a trabajar, vamos a intentar suplir una carencia de Kafka, lo que necesitamos es que funcione como Kafka, pero pero de forma de forma que garantice el orden. Entonces, por ello vamos a ir con la modalidad de las medidas de Tropic Bale, o sea, la segunda que tenemos aquí que tenemos expresada aquí abajo, que fue la primera, que entonces sería un poco un poco. Eso todos los mensajes van a llegar a todos los consumidores. Ya hemos visto un poco como cómo trabaja. Bueno, el sistema de gestión que hemos visto, porque trabajamos con un procesamiento en streaming. Llega el tono un poco de ver cómo se va a proceder a generar el él. En este caso vale? Entonces, digamos que haciendo recapitula un poco, decíamos que tele bajan, eran los ojos los ojos. Los baleares, sistema de gestión, y con ello general el rbs vale? Esto como hacíamos tiene un tiene un problema que necesitamos, por un lado, tener los objetos planos, y, por otro, las relaciones para no tener problemas a la hora de insertar estas últimas de tener que que detener casos como, por ejemplo, de que no exista un objeto relacionado en un momento dado. Entonces, para ello vamos a ir con los objetos lados. Planos por un lado y con las relaciones por otro. Entonces, la estrategia que vamos a seguir es un poco, es un poco esa. La tele, lo que se va a encargar de generar todos los objetos planos en ese momento va a entrar en juego. El sistema de gestión que va a empezar a consumir los los mensajes que le llegan desde la tele, con este tipo de objetos, va a generar el rbs para los mismos y los va a enviar a la que para que se inserten en los diferentes sistemas de almacenamiento. Entonces con eso lo que vamos a conseguir es una, una primera versión de la información que simplemente son recursos, pero están todos son todo como como como islas es un archipiélago de islas están que no están interconectadas entre entre sí entonces lo que necesitamos es poder conectar, establecer puentes entre entre entre ellas y para eso entraría en juego las relaciones. Las relaciones se van a enviar por la parte de una buena segunda pasada, por decirlo de alguna manera, y también van a ser procesadas después por parte del sistema de gestión. Este caso no va a estar escuchando continuamente por las relaciones, sino que en el momento en el que termine de procesar todos todos los sujetos planos de una carga, va a empezar a procesar las relaciones entre entre los mismos y con eso vamos a actualizar el rbs. Con todas esas relaciones, añadiendo las dietas necesarias para interconectar establecer esos puentes entre entre los diferentes recursos, que se vayan a que se vayan a insertar que se vayan a que vayamos a tener, y con ellos, ya conseguiremos el todos los datos en el formato final, con todas las relaciones para poder ser explotados y, por otros, por otros sistemas para otorgarle la potencia necesaria, los a los mismos. Entonces, viendo un poco un poco como los datos que nos van a venir, un ejemplo de un objeto plano de lo que no nos va a llegar desde la tele sería seria. Esto no sería un objeto en formato y eso que iba a tener una serie de una serie de información. En primer lugar, por ser la operación que se va a llevar a cabo, como puede ser. En este caso, se está indicando que sea una inserción. También podríamos estar hablando de actualizaciones o eliminaciones de información, es importante saberlo para saber lo que tenemos que hacer después. Con estos datos. Después, los datos en sí mismo que aquí estamos, como decíamos antes, están llegando a unos datos en formato de tipo literal. Perdón, vale. Como puede ser, pues pues en este caso están definiendo unos datos de un proyecto, pues podría ser el título del proyecto tenga una fecha de inicio y finalización una modalidad etc etc etc con ello con todo con todo esto lo que va a hacer el sistema de gestión va a ser coger unos coger este este guiso y con ello generar en las redes utilizando apaches como como antes comentamos para en primer lugar general el modelo y luego, posteriormente general, el lro de un formato y enviarlo a la cola de la cola de del sistema de gestión de eventos para que luego estén los los los a Sabater y demás, adaptándolos al almacenamiento pertinente. Esto, como vemos, no tiene ningún tipo de relación con otros, con otros elementos, pero aquí ya es donde llega. Entra en juego también no el la. Los datos, los enlaces los lisos. Las grabaciones, mejor dicho, de los datos que ya van a ir en una segunda pasada como como comentábamos, donde por un lado nos va a llevar en el caso de la operación, vale para diferenciar un poco de los anteriores, pero este es el que nos va a decir que se va a insertar líneas sobre sobre unos objetos que ya tenemos. Dónde identificamos los datos? En este caso sería un dato de tipo proyecto con el identificador, equis, vale y lo vamos a aplicar a diferentes diferentes recursos, no. Por un lado podríamos encajarlo a objetos de tipo factura. En este caso no tendríamos ninguno. Iría a la relación vacía, pero por ejemplo, sí que tenemos personas que forman parte de ese ese proyecto que teníamos, hay unas cuantas unas cuantas a las cuales se generaría esa se añadirían esas tripletes perdón, se añadiría al proyecto triplete para relacionarlo con todas estas. Con todas estas personas. Estas personas que ya existen porque ya los hemos insertado en la primera, la primera pasada, como como acabamos de ver ver bale es un poco el proceso de el proceso de generación, sería sería ese prolongado objetos planos y, por otro lado, los enlaces y-Congreso Ya. Todo el todo se completó con todos los datos enlazados entre sí formando una estructura de tipo de tipo, como veamos al principio, que al final es lo que lo que nos interesa tener. En cuanto a la. En cuanto a la relación con la factoría de, de acuerdo. También es también es muy importante un poco verlo vamos la factoría de va a ser la encargada de asignar las urnas a los recursos generados de acuerdo con la política de Ourense establecida para el sistema. Vale al final porque significa el sistema de gestión. Su cometido es generar, agradece a partir de unos datos, pero no sabe de Orissa final de algún lado. Se tiene que informar de la de la de Las Furias, que tiene casi a los a los recursos que le están llegando. Entonces, ahí es donde viene un poco al rescate, la factoría de uri se va a encargar de degenerar todas esas esos identificadores que le vamos a asignar, no solo a los recursos, sino también Ory. Es que hay que indicar a los a los atributos, es decir, el recurso va a tener su propio Aguri, pero cada uno de los atributos va a tener la suya propia que lo identifique antes. Antes veíamos el caso del proyecto. Pues si es verdad que el proyecto va a tener sur y en general que identificar ese proyecto en concreto, pero luego el título va a tener su sur y que identifica que son atribuibles, tributo título El la fecha de inicio y la fecha de firmas a tener el suyo propio, la modalidad va a tener el suyo propio, y así sucesivamente. No todos eso también son para indicar los atributos, con lo cual necesito un sistema que me facilite toda esa, toda esa información. El sistema de juristas hace un poco de pegamento o, si me lo permitía, entre la arquitectura semántica que es este, este módulo esté este bloque que estamos viendo hoy, pero hace pegamento entre la semántica y la infraestructura, o antológica, que veréis mañana ya que, como decía antes, la infraestructura antológica va a definir los datos, la estructura que va, que precisa tener esos datos y, por tanto, va a establecer los tipos y los atributos que va a tener cada uno de los recursos, y va a tener una integración también con la factoría de Ourense, porque tiene que registrar todo eso sea la factoría de. Tiene que conocer todas esas que son, se han definido por parte de la antología, con lo cual ahí en esa factoría de Orense, donde donde se estaba un poco uniendo ambos ambos ambos mundos ambos ambas partes del sistema entonces de cara al sistema de gestión, llevamos que esa factoría de obras nos va a dar todo eso, tanto el identificador para ese recurso en concreto, como todas las series que necesite para poder componer el que será el tipo, el tipo del recurso, es decir, las clases o si vamos a un mundo oriental, objetos que es de tipo proyecto proyecto, tendrá su sur identificativa y también de los atributos acuerdo, pero también hay otro otro punto, otro punto, otro punto importante, ya que durante todo este procesamiento de datos va a ser necesario realizar las tareas de conciliación y descubrimiento de entidades en otras fuentes de datos enlazados. Vale? Entonces ahí también en juego? La librería de descubrimiento que vemos aquí esta librería de descubrimiento nos va a permitir saber si un recurso que nos está llegando es un recurso que ya tenemos en el sistema, poder discernir si es así mediante mediante diferentes algoritmos. Por ejemplo, puede ser que nos llegue el investigador equis vale, pero ese investigador que se llama pues tenemos que saber si tiene correspondencia con otro investigador que se llama Xhaka en el sistema o por el contrario es otro otro investigador distinto. No? Entonces eso se va a cargar un poco. La librería, descubrimiento, en base a una serie de base de una serie de algoritmos, va a evitar precisamente el tener datos que vienen de distintos fuentes, vale? El que podamos tener duplicados de información? Al final es, por ejemplo, si nos vamos a una agenda telefónica en la que tengamos diferentes contactos, esa va a hacer esa labor de identificar cuáles son los mismos, cuales son equivalentes y hacernos, mediante digo, mediante una serie de algoritmos el poder discernir de forma automatizada si son si son diferentes o no? Habrá casos, evidentemente en lo que eso no es posible hacerlo de forma de forma automatizada mediante un razonamiento automático, y tendrá que entrar algún alguna, alguna labor manual por el medio, lógicamente no, pero bueno, lo habitual sería que la mayor parte de los casos se consiga mediante un razonamiento automático, y luego habrá otros. Habrá que dar soporte a esos otros en los que en los que no va a ser, no va a ser posible hacerlo de una forma tan, tan automática y tiene que intervenir un humano para poder, para poder conseguirlo un poco quedar con la idea de todo esto. Todo esto también se se va a explicar en posteriores sesiones. Hay sesiones más específicas de la factoría de misil y del descubrimiento, ya que tienen mucha, mucha enjundia en el sistema, pero buenas de cara a la sesión de hoy. Es importante tener claro las piezas que hace cada cada una de las de las piezas que desempeñan en el sistema. Si tenéis alguna duda con respecto a toda esta parte que estamos viendo, si no, pasamos a la siguiente. Bueno, bien, no sé si está siendo muy pesada la formación, igual demasiado teórica, no, por eso es el principio de todo esto y recogiendo todo lo que teórico y luego vaya poco a poco, pero muchas veces tiene claro que la estructura y como estaba de momento está claro. Por mi parte lo mejor. Yo al principio lo hago más adelante. Cuando empezaron a surgir las dudas, cuando nos metamos más lo que más estamos, si estas primeras sesiones son un poco más teóricas que siempre conviene tenerlo un poco más, más claro, aunque sea así una visión general, luego ya van a ser un poco más tácticas. Así entiendo que será un poco más amenas también de caras, de cara a abordar las noticias. Buenas. Vale? Pues si nada se parece.

Propietarios

Proyecto Hércules

Comentarios

Nuevo comentario

Serie: Formación martes 2 de Febrero ASIO Izertis (+información)

Descripción

Videos