Idioma: Español
Fecha: Subida: 2021-01-28T00:00:00+01:00
Duración: 1h 25m 36s
Lugar: Curso
Visitas: 1.400 visitas

Entrada de datos

Transcripción (generada automáticamente)

Bueno, pues vamos a tener que ir con la formación siguiente tema que quería que quería tratar, un tema de la entrada de datos y sistema para las siguientes partes. Van poco a poco, desde el proceso de entrada de datos y transformando para posteriormente en el tiempo histórico, pues en esta primera lista primera parte vamos aprendiendo, pues la entrada de datos. Lo primero que tenemos que tener en cuenta es que va a haber distintos orígenes de Fuentes, pero Jennings van a ser, por un lado, es lo que decía datos de diferentes lugares de diferentes proveedores de información, los cuales van a ponernos la información de diferentes maneras con distintos protocolos en Manresa es un etc etc etc no poder los cuales se vamos a tener que tratar de las fuentes de datos décimas más conocidas, que vamos a tener, pues podría ser de ese cebs del sheriff etc etc entonces por por resumir digamos que vamos a tener diferentes orígenes de datos, con con datos distintos, con los datos en distinto formato, pero además, con distintos protocolos , lo cual vamos a tener que poder darles soportes de la aplicación. En primer lugar, bueno, pues volviendo a ver lo que es el la parte de la arquitectura de la del módulo de importación, que ya lo vimos un poco antes del descanso. Vamos a estar formado por por por varias, por varios elementos, no en primer lugar el que va a tener que lidiar con las colas, fuentes de datos o los orígenes de datos que van a ser los importadores. La idea es tener uno por cada una de las fuentes externas las que se toma la información. Como decía, cada una de estas fuentes, disponer de los datos en un formato de diferente y además en una estructura diferente a la que se vaya luego a trabajar en el sistema bale. Entonces, estos. Micro servicios no van a estar implementados en el sistema y habrá algunos como los importadores que van a estar más acoplado esa al cliente y luego va otros que no lo van a estar tanto, por lo que será conveniente que cada uno de los componentes reales de las operaciones de la forma más más atómica y acoplada posible el caso de los importadores, como comentaba Miguel servicios, 1, por cada fuente de datos que se van a encargar de leer los datos de estas fuentes, el sistema a través de un topic de Kafka -Bale, su única misión será la de leer los datos de esa década. Una de las fuentes no va a realizar transformación ninguna, sino que lo único que lo único que va a hacer es saber cómo, cómo interactuar, cómo leer de esa fuente de datos y recoger el dato simplemente si es un XML lo cogerá el XML, lo procesara ese dato en XML generará un evento en la cola de Kafka para que luego ya sea una un formato más conocido por el sistema. Para los siguientes servicios tenemos que hacer esa labor de adaptación poco lo que decía. Por ejemplo, caso de que una fuente sea un importador correspondiente pues se encargaría de recuperar los ficheros vía fptp. Pongamos que esos ficheros son XML, pues tendría que extraerlo con de XML y generar, lo que lo que comentaba, que serían esos, esos, esos eventos dentro de la cola de interna del módulo de entrada. Una vez una vez ya tenemos los datos en el sistema, vale, que pasaría esa fase de los de los importadores de cada una de las de las fuentes. Ya ya tenemos todos esos datos adaptados dentro de nuestro modelo de entrada dentro de nuestro sistema. Pero llevamos, ha bastado simplemente en el formato vale? No, no en el dato, no en la estructura de la información, que eso vamos a tener que transformarlas posteriormente. Entonces, una vez ha pasado por los importadores que lo que los ha estado en la cola de Kafka vale. La tarea del procesamiento de del procesador de datos Suárez es la tarea que va, que va a tener, es encargarse de transformar los datos de la entrada en datos que se precisa para la antología. No la va a hacer, no sabe o no la va a hacer el por por sí mismo, sino que esa transformación la va a llevar a cabo más adelante o una de un proceso que va a estar implementado con María Pérez? Se queda la parte de del procesador en la que se va a encargar de consumir esa información está consumiendo lo que es el tope de datos en una base de datos intermedia, que es la base de datos con la que trabajarla, se podría conectar directamente al Kafka por ponerse, podría valer, pero el problema que vamos a tener aquí es que un uno cada uno de los elementos por sí solo no es completo, digamos, no, sino que voy al para poder componer los. La estructura de datos final que se vaya a almacenar sea la estructura que define la antología realmente, no puede almacenar en la tripleta. Los recursos que veamos antes. Digamos que voy a tener que coger datos de diferentes de diferentes sitios, por decirlo de alguna manera. Puedes tener que estar picando de L’ Aquila y ya entonces digamos que si me viene un dato por una cola de solamente voy a poder procesar ese ese dato realmente. Entonces, por eso, vamos a necesitar tener una base de datos intermedia, la que pueda hacer las consultas, la tele posteriormente, hecho hasta que el procesador no termina de insertar los datos en esta base de internet, ya no va a poder comenzar el proceso de la de. Por este motivo. Vale, bueno, pues nada la en cuanto al proceso de de tele, pues eso se va, va a hacer, es esa transformación y como resultado de esa, esa transformación en este caso va a escribir en una cola de para volver a realizar el procesamiento en streaming; las siguientes en las siguientes fases del del sistema para para que no dependa de la velocidad de de procesamiento. El que yo pueda seguir datos, para decirlo de alguna manera desacoplados un poco la producción de gas con el consumo de los mismos. Bueno, un poco un poco lo que diga. Lo que hablamos no realmente no merece la pena ser mucho más de lo que ya hemos comentado cuando hay esto sería la parte del procesamiento de procesamiento. Bueno, como decía aquí lo dejamos obstante, indicado. No tendremos los datos en formato de entrada a través de este procesamiento. Se va a definir los datos en más buenos datos. Una salida en datos es que muchas veces hablamos de los ojos. Vale? Realmente esto es pocos, van, van a ser clases, objetos que van a estar definidos, van a generar a partir de la antología. Es decir, si la antología de cine que haber un objeto de tipo artista, por como veamos Andersen, el ejemplo, otro equipo investigador ya llevándole un poco más al mundo universitario, digamos que va a haber un proceso que se va a encargar de que a partir de esa antología de ese modelo que se ha definido ese o un vale a través de algo que se llama así expresión estoy seguro que mañana lo van a explicar en la formación que tenéis la infraestructura antológica, se va a poder generar una clase, es decir, yo y tengo la antología de filme mi investigador, que tiene un hombre que tiene apellidos, etc, etc, vale, pues realmente eso va a desembocar en que se va a generar una clase la Public clase investigador, que tiene un private nombre, primates, tienen apellidos y así sucesivamente, no, eso es lo que denominamos cojo Bale. Entonces tenemos que tenemos que poder rellenar esas esas clases, eso es de esos datos a partir de los datos de la entrada y eso es lo que hace. El proceso de para ello vamos a utilizar ventajosas. Nos va a ayudar en ese cometido ventaja que lo que nos va a permitir, por un lado, es leer datos de diferentes fuentes. El fondo es de entrada y realizar transformaciones sobre los mismos cálculos mapping filtrado pivotado de información etc Etc. Un poco el resumen de lo que de lo que vamos a hacer en ese proceso de transformación para cada una de las entidades responde a esta estructura, para cada transformación que se centra en una entidad en particular, y se siguen estos estos pasos no abran entidades por un lado se llama general las entidades sin relación que no tenga relaciones con otras con otras entidades se van a leer los distintos orígenes implicados en la transformación, la entidad principal y todos aquellos que contengan datos relacionados con la entidad principal y que consiste en propiedades de la misma para poder rellenarla una vez obtenidos esta información, se van a eliminar, hacer un proceso de limpieza, eliminando los caracteres extraños o seleccionando. los datos que sean necesarios añade en otro tipo de datos de tipo constantes, y si procede ordenación. Es bueno un poco lo que lo que comentaba antes, aplicando diferentes fórmulas. Una vez los datos se encuentren unificado. Después se realizaría un último último filtrado para terminar con ese proceso de limpieza. Sería una carga en la base de datos de esto es un poco lo que comentaba antes de desventaja. No diré directamente que es el que va a hacer esa esa transformación, y esa ese proceso de limpieza, lo que sería el procesador de eventos, viéndonos ya justamente, a ventaja. Quería descomponer el cuerpo y la estructura del formato de salida aplicando una serie de fórmulas y teniendo un poco en cuenta los datos, el patrón descrito antes y por último, las que se cargaría y se cargaría en la cola en la cola, Kafka correspondiente a los objetos sin relaciones. Luego, en cuanto a los sujetos con relación, pues se cargan las correspondientes desde la base de datos donde se almacena la entidad y sus sus propiedades, y y luego se carga la relación es cuando cuando estábamos hablando de objetos con relación a se relación. Realmente, lo que quiero decir es que, por un lado se va a generar las, la los Los Tojos. Vale, sin sin tener en cuenta que puedan tener relaciones con otros elementos, vale? Por ejemplo, un investigador puedes decir que trabaja en determinado departamento, y ese departamento es una relación ahí que vas a que vas a tener un determinaba universidad. Entonces, lo que vamos a hacer, digamos, es, por un lado, generar esos objetos sin las relaciones todavía en una primera pasada vale, y es por eso por lo que decimos que en primer lugar, se va a enviar esas entidades sin relación? Vale, porque no es no se va a enviar las las relaciones entre ellas y lo va a haber otra segunda pasada en la que se van a enviar esas esos enlaces, esos esas relaciones entre entre todas las entidades vale? Porque porque lo hacemos así Bale lo hace así un poco para para gestionar el hecho de que si en un primer momento enviamos ya toda la información que podríamos podíamos hacerlo perfectamente enviar su entidad con sus, con sus relaciones, podría darse el caso de que se envíe una relación a un objeto, que no existe, algo que no existe. Entonces, de de cierta manera tendríamos un problema, no hay al poder insertar eso en el triple story general. El centro es para asegurarnos de que todos los objetos existan. Lo primero que vamos a hacer es insertar todos sin relaciones y, por último, vamos a hacer otro segunda. Pasaba enviando las relaciones entre los diferentes objetos para para ya en ese momento, si somos conscientes o tenemos la constancia de que de que existen en, por ejemplo, pues enviado todos los investigadores enviado todas las universidades, tengo una relación entre ambos, pues ya puedo hacerla de forma de forma bastante, bastante sencilla. Habría otras alternativas, como, por ejemplo, crear objetos vacíos o ejemplo. Si tengo una relación con una universidad equis y no existe esa universidad, es crear la de cierta manera, lo que pasa es que después podría tener problemas de rendimiento y también problemas a la hora de poder identificar esa universidad, como cuando me llega el dato para poder relacionar que son obesidad de la universidad, que me está llegando en un momento dado, no? Entonces, para un poco eliminar esos problemas de que estoy contando, decidimos hacerlo de esta, de esta de esta manera, y funcionando bastante de forma bastante adecuada. Bueno, de la parte de importación sería sería un poco hasta hasta aquí no sé si si queréis comentar alguna duda. Además, si no, pasamos a la parte del sistema de gestión, no menos. Bueno, entonces nos vamos a la modelo de gestión haciendo un resumen de lo que tenemos hasta ahora. Digamos que teníamos los datos en el sistema que proveían de diferentes fuentes, y ya lo sabemos, ya los hemos obtenido, y los hemos adaptado al formato. Qué va a esperar o que no se está definiendo la odontología entonces, por tanto, el sistema de gestión va a ser el encargado de recoger los datos en formato cojo, vale del de la cola de entrada, así como sus grabaciones, valer esos enlaces que comentaba antes de de otra cola para los que les vamos a enviar como ella es lo que se hará va a ser utilizar la librería de descubrimiento, para validar si se trata de un nuevo recurso o, por el contrario, es una ya existente que hay que actualizar o bien, es necesario realizar algún tipo de borrado o similar general. El rdc también apoyándose en la factoría de Uriz y la ingesta del del rdc, en otra, en otra cola del modelo de gestión, que va a permitir luego ya los procesadores de eventos y almacenar en los almacenamientos que sea pertinente no tengamos necesidad de almacenarla. La información. En cuanto a éste está con la cola que estamos comentando. El sistema de sistema de gestión lo va a utilizar para enviar eventos hacia el proceso de eventos, en este caso a diferencia de otros puntos del sistema que estábamos utilizando, Kafka; de hecho, está previsto usar casco en todos los este tipo de colas, pero vemos que es preciso en este caso garantizar un poco el orden de los datos que nos están llegando. Entonces es algo que no nos que no nos ofrecen al final. Así es muy muy adecuado para una ingesta masiva de información, pero no garantiza el orden de la información, con lo cual no nos no nos sirve del todo en este. Este puso entonces. Entonces en este punto no vamos a optar por utilizar una cola al tipo jm. Es en concreto, vamos a usar en cuanto a en cuanto a los procesadores de eventos bueno, ya lo ya lo comentaba un poco un poco antes en antes del descanso; cada uno de estos procesadores se va a encargar de consumir los mensajes disponibles, en la cola del modelo de gestión y enviarlos al almacenamiento correspondiente. La idea es que exista un procesador de eventos por cada uno de los diferentes almacenamiento triples Tor wiki base, etc. De esta forma, como decía, es muy, muy sencillo, poder añadir. Tanto. Almacenamiento es como sea como sea pertinente no lo ves ahora mismo hay hay dos pero podríamos incluso añadir en caso de que quisiéramos hacer con consultas de otro tipo, indexación, etc. Etc. Sería sería tan simple como añadir un nuevo procesador de eventos, con su fachada correspondiente, el procesador de eventos no es que esté especializado en ningún ningún almacenamiento, en concreto, simplemente es una nueva instancia al tener, al ser, al ser los servicios, como hacía, podemos desplegar varias instancias. En este caso, creo, además, que la diferencia es que tiene configuración, diferente, vale. Por un lado, digamos que el de eventos para lo que va a hacer es invocar a la del story. Sin embargo, el de Vicky va, se va a invocar a la pide sábado tres de wiki bases es la única diferencia que van a tener esas van a ser estándar, van a ser unificadas, van a tener la misma salida, ambos esto hará savater. La idea es que todos los sectores, Savater tengan la misma y luego internamente se especializa en eso sí ya los en cada uno de los de los almacenamientos disponibles no. Entonces también nos facilita por ahí entonces eso los esto es a la persona que habla de eso, de transformar el error de Fez recibido para que concuerda para que se adapta el sistema para el sistema final en el que sea, en el que sea pertinente. Durante el transcurso del proyecto, como decía, más se van a desarrollar para traerles y para Paraguay que no está previsto desarrollar ninguno, ningún otro. En este sentido. Bueno, ya lo comentaba un poco un poco antes, estamos haciendo uso del procesamiento en streaming para diferentes partes de toda esta aplicación. Ya lo vimos también en la parte de la parte de entrada, si bien el el punto clave de procesamiento es en streaming, estaría dentro de este módulo de gestión o entre el módulo de entrada y el modelo de gestión sería el lado blanco, la más importante, que vamos a tener, junto con la de los procesadores de eventos, también entonces la idea es utilizar este, está esta técnica de timing con el fin de aumentar la escala, habilidad y la alta disponibilidad del sistema, utilizando flujos de eventos. Este tipo de sistemas están siendo utilizados en proyectos que requieren el procesamiento de grandes cantidades de datos y consiste en utilizar un mecanismo de publicación y suscripción a un look distribuido. La lectura, la ventaja es que las operaciones de escritura en el ojo más eficientes, que las actualizaciones en una, en una, una base de datos, entre las ventajas, que luego lo veremos, pero entre las grandes ventajas es que totalmente la producción de la información del consumo, con lo cual cualquier productor de información puede estar gestando datos en el sistema, pero no tiene por qué estar esperando a que los procesadores o quien lo tenga que consumir termine de procesar. Cierto dato. Cada cada uno de estos procesadores, de estos consumidores, van a necesitar Copa, va a utilizar el tiempo que estime pertinentes sin impactar en el rendimiento de la ingesta de la información, lo cual es una grandísima ventaja que nos va a aportar este este tipo de procesamiento, como nos decía. Bueno, hoy en día Kafka se está utilizando para parar. La ingesta de datos de múltiple es de múltiples fuentes, pues de temas de idiotez, temas de transacciones financieras, con movilidad logística muy muy pero que muy utilizado en ese ámbito, cadenas de ensamblaje, bueno, muchísimos, muchísimos a ámbitos al final el mundo produce, produce datos y se está produciendo en todo momento. Para poder aprovecharse de ello, se necesita definitivo una plataforma que, soporte esa ingesta masiva de grandes volúmenes de datos de información, y es muy importante herramientas, como, como Kafka, que nos permitan gestionarla este tipo de del sistema. Pues bueno, como decía, trabajan con el patrón, publicación, suscripción normalmente y permiten de ese acoplar la publicación de los eventos de los de los consumidores. Bueno, realmente bueno, un poco lo que no estábamos comentando en esas entonces estas fuentes de datos, pues los datos a través de un productor que acabara escribiendo los datos en la la, el tópico, en la cola de Kafka en cuanto a la parte de los consumidores, pues bueno, pues realmente cada podíamos tener uno o varios consumidores, todos aquellos que sea que sea necesario, que nos vaya, que nos vaya a hacer falta. Todos van a estar mediante una estrategia de política y consumiendo de los de los diferentes. Diferentes colas vamos, vamos a estar leyendo la la información, cada uno va a ir a su ritmo, no tienen por qué porque impactar ninguno en otro puede ser que uno esté tratando el primer, el primer elemento y otro ya esté por el elemento número 10. De cada cada uno tiene su suposición o en la que la del último elemento leído, con lo cual vamos a poder tener, como decía tantos tantos consumidores como como estime más necesario y con su con su velocidad. Aquí es este ejemplo de esto lo veo, lo veamos diapositivas atrás en la parte de la gestión de eventos para el almacenamiento, la diferentes triples que va a tener el sistema que estamos hablando. Bueno, ya lo comentábamos antes. Productores y consumidores desacoplados. Los consumidores lentos no van a afectar realmente a los a los productores. Una de las grandísimas ventajas de este tipo de sistemas. Añadir cuantos consumidores sea necesario sin afectar a los productores. Bueno, aunque no afecte a los productores y que podría afectar a la configuración de la de la cola Kafka pero bueno ese sería otro otro sistema otro tema y no habría que añadir seguramente más participaciones a una cola. Las cosas se pueden dividir al final y las peticiones podrían estar distribuidas. Pero bueno, eso es otro tema que igual no nos hace falta entrar tan a al fondo de la cuestión. Lo daba fallos de algún consumidor, pues lógicamente no va, no va a afectar al al conjunto del sistema o no va a afectar al resto realmente de consumidores? . 430 00:28:27,030 --> 00:28:28,970 Bueno, como decía, estas colas, pues realmente se se denominan topics valer y un topic, pues es un tópico topic no deja de ser una estrella, una cadena de un flujo de mensajes relacionados. No encajamos como veamos. Después tengo teníamos varios topics, el topic del modelo de gestión, el topic de del modelo de entrada, etc. Etc. Entonces, digamos que cada uno de esos topics sirve para una fundación finalidad. Por eso por eso hablamos de mensajes relacionados. No deja de ser una representación lógica estos tópicos, pues son definidos por los desarrolladores más que por los desarrollados, por la propia aplicación en sí misma, no, cada aplicación pues va a necesitar una serie de de tope y, si bien es cierto que dependiendo de la configuración que le vemos al a Kafka, podría ser necesario crearlos ya previamente. En cuanto a la relación topic productor, pues vamos a tener una relación en enero, podría? Podríamos estar un mismo producto, podría estar escribiendo en diferentes tope, y si este es uno de los casos que hablábamos antes, como en el tema de la tele -escribíamos en dos tópicos. Una coloso, objetos sin relaciones, los objetos planos y otro tópico con las, con las relaciones, y ahí también podría ser al revés, tener varios productores para parar el mismo tope, aunque eso podría, habría que ver el caso, el caso de uso, pero bueno, podría, por ejemplo, el caso de Elliott, al que tengamos varios dispositivos leyendo información de temperaturas en diferentes momentos, por ejemplo, una cadena de frío? Vale? Pues todos ellos podrían estar enviando a la misma, a la misma cola, de al mismo tope, y entonces ahí podríamos ver ese, ese posible caso y bueno, número de topics y limitado, dentro de evidentemente, la capacidad del sistema bale y posibilidad de dividirlo en nme -partición es que nos van a permitir hacer, añadir o eliminar consumidores para hacer un procesamiento en paralelo por ejemplo entonces bueno un poco como como como decía tendremos esas en este caso 4, cuatro participaciones, y tendríamos un un productor que estaría escribiendo en el topic y Kafka, después, internamente de forma transparente, al productor, iría asignando a cada partición cada uno de los de los eventos. Normalmente es la clave de registro en la que determina a qué partición podría ir cuando realmente digo que es un poco el que nos lo va a gestionar. Las participaciones, como decía se podría facilitar. Se puede utilizar para facilitar el tener consumidores en paralelo para poder consumirlos? Hasta el número de partición es, por ejemplo, podríamos tener consumidores distintos consumidores? Como vemos antes, para distintas cosas, y eso es son distintos consumidores? Vale? Son distintas finalidades, pero un mismo consumidor lo podríamos tener replicado en veces? Estoy hablando de este caso no de tener varias réplicas para para darle escala, habilidad a esa a esa parte. Entonces podríamos tener en este caso pues, por ejemplo cuatro consumidores del mismo sistema, cada uno leyendo de una de las de las participaciones. Entonces esa de esa manera podemos darles a esa flexibilidad esas esa estaba escala habilidad para mejorar el rendimiento del del sistema por culpa de este tema o principalmente por lo que es uno de los puntos principales, por lo que no se garantiza el orden también, porque al final cuando estás leyendo no tienes qué exactamente leer en el orden que te lleva, porque pueden estar leyendo una partición. Primero un mensaje que ha llegado después de otro mensaje. Que estén otra partición que todavía no has leído? Por ejemplo, no. Entonces, es uno de los de los puntos. Otro de los motivos por los que no nos garantiza un orden, en este caso. Entonces, bueno, básicamente, lo que es una partición viene a significar, está esto, no deja de ser una, una, que al final vas escribiendo elementos o sucesivamente de forma de forma secuencial. 1, uno tras otro a la que vas escribiendo, como es el caso, de la cajita verde. Vale, podíamos tener varios, varios consumidores, en este caso, como mal caso, los tarjetas azules, vale? Sería un poco el caso que, como decía antes, vamos a tener el procesamiento de eventos que nosotros vamos a tener dos ahora mismo, no? Pues aquí vemos como uno de uno de los sistemas. El sistema está leyendo la, el evento, número 4, mientras que el sistema b va va mucho más rápido y ya está leyendo el número 10, vale? Entonces son. Es algo que nos va a facilitar este sistema, a este sistema para poder, para poder llevarlo, para poder llevarlo a cabo. Vale, bueno, entonces este esta forma de trabajar, este estilo arquitectónico, realmente suele denominarse arquitectura capa, vale y suele materializarse mediante el uso de casco como como estamos viendo entonces bueno, este uso del casco, como decía, me va a permitir utilizar ese distribuido como fuente de de verdad, permite desarrollar diferentes vistas de los mismos datos. La vista puede ser una base de datos rbs, o índice de búsqueda, como bueno, va a permitir un poco conectarlo. Ahí la aplicación productora de eventos comenzó a fallar, generando datos incorrectos, relativamente sencillo modificarlos. Los consumidores, también de eventos para adquirir los datos erróneos. Es una base de datos más al uso. Se se corrompe su restauración, podría ser más complicada, vale. La la decoración puede ser más más sencilla en el ojo de solo escritura. Que una base de datos que se modifica continuamente, puesto que los eventos pueden volver a ejecutarse, para explicar qué ocurrió una determinada situación, es decir, cualquiera podríamos volver a coger el look, decirle que él volverá a hacer un rol vaca un momento dado y volverá a acoger todos los eventos desde un punto en concreto desde un objeto, desde una cajita; en concreto; es decir, por ejemplo, en este caso podremos volver a coger el programa que se ha corrompido sistema b desde totalmente pues podríamos decir, volverá a hacer una limpieza, limpiarlo por completo y volver a aplicar todos los eventos, diciéndole que empieza a leer en el cero de nuevo, con lo cual esto esté este tipo de arquitectura capa, pues nos va a facilitar este está esta situación para volver a restaurar la, la información. Bueno, para el modelado de datos, autorización de un look que solamente permite añadir datos, puede ser más más sencillo, que el uso de transacciones así sobre base de datos nacional, y el hermano el patrón encaja perfectamente con esta pasta, estilo arquitectónico, también puede facilitar el análisis del dato de un dato posterior, es decir, vamos a saber cómo hemos llegado. Hemos llegado a una situación da en concreto ya que podemos analizar todos los décimos, cómo hemos llegado a tener, cómo ha llegado el consumidor a tener esto, pues podemos ir viendo desde desde cómo ha pasado desde desde el cero hasta el 10 que que eventos que ha ido sucediendo en el sistema es muy, muy fácil de seguir en ese, en ese, en ese caso y, por supuesto, el desacoplamiento de la publicación de los consumidores como, como decíamos, todo esto parece repetido de lo que ya antes. Pero bueno, esto es relativo a la arquitectura capa vale lo cual encaja perfectamente como como decía con con como un motor de Destiny, como puede ser. Claro que Kafka tienen tiene inconvenientes, como, como ya he comentado antes, y no está diseñado para garantizar el orden de los eventos enviados y habrá casos en los que, si hace falta, garantizarlo entonces para ello vamos a optar por un sistema tipo jm sé cómo es, como dicen, que es un bloqueo de mensajería, como hacía jm o pensador; se implementa simplemente a la especificación j, j, y además nos garantiza que preserva el orden de los de los mensajes enviados, lo cual es muy, muy importante como contrapartida, pues tiene otras implicaciones, como tiene un mayor consumo de recursos en el sistema, etc. Etc. Con j. M es en concreto, pues podemos tener la opción de publicar mensajes a un tópico o a una cola Bale. En el caso de Cascos solamente teníamos la opción de tópico. Hay una diferencia fundamental entre entre las dos puntos de vista vale que está un poco ilustrado, aquí está en este esquema un Topic, reenvía o envía el mensaje, desde el productor a varios consumidores al mismo tiempo sea enviado el mismo mensaje a todos ellos. Es una especie de realmente no final. Lo comentábamos antes en el caso de la gestión de eventos para proceder a los eventos para para los diferentes almacenamiento, y al final es el sistema de gestión que está insertando un evento ahí y lo va a recibir. Vamos a tratar todos los procesadores de eventos van a tratar el mismo evento, pero habría otra otra opción en el caso de caso de jm que sería la cola vale? En este caso eso en este caso también vamos a tener consumidores, pero cada uno de los de los mensajes o eventos se va a dirigir a un solo consumidor, solo un consumidor va a tratar a ese mensaje. Entonces, digamos que aunque tengamos varios, vale entre ellos, se van a acabar dividiendo la la carga y van a estar haciendo un trabajo de forma de forma secuencial, dividendo, dividiéndose dividiéndose cada uno de los de los mensajes por turnos. Realmente es una especie de pleno en ese sentido en este caso de la aplicación bueno como decíamos lo vamos a utilizar en esa parte del procesamiento de eventos para garantizar el orden, y lo vamos a ver, lo vamos a usar como un tópico vale para ser la forma más parecida a lo que es un Kafka, vale lo que a lo que estaba pensado originalmente, y ya como tiene que funcionar esa esa parte. Pero, además, dándole un plus, que es garantizando esa ordenación, que era el problema que nos que no estaba, que nos estaba dando a Kafka en, y por ello hemos decidido ir hacia hacia un modelo con j. En cuanto al proceso de generación de rdc, vale? Bueno, ya hemos visto un poco las piezas principales, más o menos, pero volviendo a hacer un poco hacia atrás, cuando nos llegaba a este modelo de gestión el dato lo que nos estaba llegando era lo que nos estaba enviando la tele, a grandes rasgos lo que nos va a llegar son esos ojos, esos objetos, planos, esos objetos que ya están transformados en lo que en lo que define de alguna manera la odontología, vale en ese formato que se va a insertar en el sistema y vamos a tener que generar el rdc a partir de ellos, es decir, nosotros ahora mismo lo que tenemos unos objetos con unos datos, una estructura de datos, pero no tenemos errores y no tenemos los tripletes poniendo desde ello ello lo va a llevar a cabo el sistema de gestión. Realmente. Bueno, yendo un poco más a detalle, que ya lo comentaba, no son sólo los ojos, no va a tener un algo algo que sea poco lo que nos va a llegar, sino que se va a dividir en 2, por un lado, a estar los objetos planos, los objetos en las relaciones, y, por otro lado, las relaciones ahí por lo que lo que decía, para gestionar que no me llegan, relaciones con las algo que todavía no tengo, el sistema vale de esta manera. Primero proceso, todos los objetos, planos planos los incierto en el almacenamiento y luego ya los con las relaciones, pero sabiendo que ya tengo los objetos a los que voy a relacionar, es un poco un poco el motivo por el que se hace entonces, nada. Con todo esto el sistema de gestión va a generar, finalmente el. El rdc, por ejemplo, un ejemplo de objeto plano de los que nos va a llevar desde la tele, va a ser Bale, no deja de ser un un Jackson, que luego al final se puede reducir. En una clase, un objeto de una clase vale un objeto plano? Pues va a tener esta pinta, va a tener una operación que va a ser bueno, este caso es inserción, pero también podría ser de eliminación o de modificación de datos bale, y luego va a tener los datos en sí mismo, no? Pues pues vamos a saber que es de tipo proyecto, en este caso vale, y además va a tener toda esta toda esta información. Todos estos datos son los que son, las que va a tener Bale. Como veis, no tienen ningún tipo de relación con con nada. Esto es lo que que es el deseo es objeto, es objeto plano, sin más, con los datos básicos, con todos los literales, por así decirlo, que nos va a permitir darnos de alta en el proyecto luego luego ya cuando no nos una vez estaba el objeto plano. Nos va a llegar más? Está mal el título, aquí sigue como plano, pero sería este sería el la relación, las relaciones Bale, esté vacía, una vez procesados. Todos esos objetos, planos ya tenemos, todo insertado, vale, toca unos con otros para para formar todos los datos enlazados, y entonces nos va a llegar otro otro tipo de objeto a través de otra cola o de otro topic. Vale? Quién nos va a decir qué relaciones tiene, por ejemplo, volviendo al caso del proyecto anterior? Vamos a decir que este proyecto 10.154 Stalingrado por un lado, hay Boix, en este caso bueno, pues resulta que no tenía ninguna ni ningún lío, pero bueno, no de otras maneras no nos venía, nos venía ahí pero sí que está ligado a ciertas personas no personas que formaban parte de ese proyecto, que sería todas estos identificadores que nos viene aquí y entonces el sistema. El sistema de gestión va a saber cómo, cómo hacer. Esos haces láser para tener que generar esas tripleta para, para enlazar los datos, unos con los unos, a los otros, son los recursos o, mejor dicho, unos con los otros vale para hacer toda toda esta inserción, por decirlo de alguna manera, para hacer toda esta esa generación de, para generar los recursos hay una cosa muy importante. Es decir, el sistema de gestión por sí solo no va a ser capaz de hacerlo, no va a ser capaz de. Iba a tener que apoyarse en otros en otros módulos, en otros sistemas adicionales. Por un lado, vamos a tener que generar una vale al principio de la sesión cuando empezamos a primera hora os comentaba que todo todo recurso en el sistema va a estar identificado mediante una mediante una uvi. Por ejemplo, antes veíamos que el recurso Picasso pues tenía una orilla identificaba que ya está el punto de Barra, Picasso que nos habló de memoria. No vale esa esa identificación. Nosotros por sí solos no vamos a poder hacerlo, porque no vamos a poder hacerlo, porque de alguna manera tenemos que mantener un registro de esa surfista que podría identificar. Luego no nos va a venir otra vez el mismo dato en el caso de la misma, uri mal entonces digamos que el sistema de gestión no va a poder saber hacer hacer eso. Es tema de gestión lo que va sin saber es general, pero para ello tiene que saber las escuelas que tiene que trabajar, tanto, tanto las de, que identifiquen al recurso como las cámaras para identificar cada uno de los atributos que va a tener ese recurso, porque los atributos, los suelos valores, pero los tributos van a ser también tripletes, como, como también veíamos que, como por ejemplo el nombre o Bueno, volviendo un poco poco atrás, pues todo esto pues la modalidad la fecha de fin la descripción etc etc éste se va a traducir en lo que es una Uriz dentro del ecosistema de una hora y general para todo este objeto María Mateo, este recurso, pero luego cada una de las de los atributos va a tener su propia obra y que lo identifiquen además, y luego también que va a tener otra Gauri. Bueno, pues todos los objetos de las relaciones, evidentemente, antes veíamos como el nombre era una, era un literal que al final era una cadena que era Pablo. En el caso de un austero podríamos tener relaciones con otros, con otros, con otros recursos también o que no sea que no fuesen literales, sino que fuesen otros otros objetos o recursos que tengamos en el sistema y así ir enlazando generando todo todo, todo el grapo para ello es para para lo que tenemos este esta factoría de Ulissi, el servicio de descubrimiento, en la factoría de, Uriz como una médica la que se va a encargar de asignar esas esas subidas a los recursos generados de acuerdo también a una política de Uriz calla, calla establecida. En el sistema, no es el que va a saber cómo cómo hacerlo como generarla no al sistema de gestión le da un poco igual, como cómo se genere, simplemente quiere tener una nueva y se tiene que cargar de ellos este esta factoría de de un gris, pero luego también también muy relacionado con todo esto, vamos a tener que realizar una labor muy importante, que sería la parte del descubrimiento y la conciliación de entidades. Claro que cuál es el cuál es el problema para que para que lo veamos yo me tiene que se me llega a algo decir. Si me llega un recurso nuevo, si me llega una actualización de un recurso o me llega una inserción, también podría ser de otra fuente de datos. Podríamos estar hablando del mismo recurso, es decir, un mismo mismo investigador, por ejemplo. Podría venirme a lo mejor, pero no estás diciendo una barbaridad, pero podría venir a una universidad de la Universidad de Murcia, por ejemplo, también podría venirme el mismo que ha colaborado en un proyecto la Universidad de Oviedo, por decir algo. No. Entonces, de alguna manera tendría que poder saber que ese mismo investigador es el mismo. Estábamos hablando del mismo recurso y ahí es donde entra en juego. La librería, de descubrimiento, de la librería descubrimiento, lo que va a hacer es esa, aplicar diferentes mecanismos, diferentes, algoritmos, para poder identificar, para poder saber si es o no es el mismo el mismo investigador que estamos hablando. Si si tuviese un mismo identificador en ambos sistemas, sabríamos que no habría forma, habría forma de poder identificarlo fácilmente, pero muchas veces no es el caso y muchas veces pues a lo mejor nos va a llegar con cada uno cada uno de esos sistemas con diferentes identificadores, pero sabemos que el usuario, que el investigador es el mismo porque se parece en un grado alto de un porcentaje muy alto, no? Entonces tenemos que poder determinar que sea que sea el mismo porque se llama y se apellida igual, porque porque vive en el mismo sitio, porque la fecha de nacimiento es la misma, por ejemplo, no por poner dos ejemplos. Aquí no; entonces es lo que se encarga del esa librería de descubrimiento. Habrá otros casos. Habrá otros casos en las que no sea posible hacerlo. Mediante un proceso automatizado, que una máquina no sea capaz de identificarlo entonces, en esos casos pues sí que habrá que hacer una, una labor manual y de hecho así está previsto que haya nada, una cierta manera, una forma manual de resolver aquellos casos que no sea la máquina, no sepa cómo cómo resolverlo. Entonces, esa esa labor es la que va a llevar a cabo. La librería de descubrimiento. Entonces, bueno, hasta hasta aquí finalizamos un poco lo que es la generación de rne y demás. Así que si tienes alguna duda, me imagino que muchas todo esto y otras maneras Oslo va a contar en profundizar mucho más en sesiones posteriores de esta. Esta parte justamente que estamos hablando, estamos hablando ahora. Yo tengo una pregunta. Una, qué pasaría si el procesamiento de las colas cae la máquina? Supongo que se persistirán, indicó y luego se recuperará a levantarse así si ese en ese caso sí se cayese a la máquina. Digamos que como tú tienes constancia de dónde está la leíste, el último elemento, cuando se vuelva a levantar la máquina, cuando se vuelva a recuperar seguiría leyenda en el último que ha dejado, con lo cual no habría ningún tipo de pérdida. Es una de las ventajas que tiene este sistema de procesamiento en streaming, bale y luego otra cosa. Cuando has dicho al final que el mecanismo de disco debería bajar, tendría que actuar. Una persona para resolver la ambigüedad de una persona informática o una persona usuaria, una persona experta en el dominio, por decirlo de alguna manera, tiene que ser alguien capaz de resolverlo. Luego a esa persona habrá que ponerle los mecanismos para que pueda hacerlo, ya sea a través de una interfaz o más más amigable. Ha trabado a través de un fichero, por ejemplo, que se procese Bach. Eso sabría que todavía está sin terminar de definir esa esa parte, pero desde luego, tiene que ser alguien que sepa que conozca el dominio y que sepa como cómo resolver el conflicto. Lógicamente bale era bueno. Yo tengo otra duda con Holly, con respecto a los topics y los eventos, cuando no me ha quedado claro, cuando creo que, por defecto, el cuando terminaba de procesar topic, se avisaba todos los altos los eventos, pero vosotros lo tanto creo que era, o algo así me solo avisaba, vais al al evento o al consumidor. Lo requería en que requería ese dato, no viéndola la transparencia, no me ha quedado muy claro, porque estaba el modelo p2 p; y el modelo transparencia. Si vale a ver aquí la diferencia entre entre ambos modelos. Digamos que, por un lado, si nos vamos al modelo p2 p, que digamos que los consumidores estarían procesando; los datos, por turnos, digamos que ejemplo, si yo voy metiendo en datos Vamos, por ejemplo, el primer consumidor, pues precisaría al primero el segundo, el segundo, el tercero, el tercero, Bale el cuarto, el cuarto, y luego evaluaría otra vez a al primero otra vez. Dirían por turnos procesando cada 1, un dato, no todos, todos los datos, como el otro modelo en este caso, se irían repartiendo, por decirlo de alguna manera, si con eso queda cada día más. Claro, se va repartiendo el trabajo de los consumidores. Es el modelo p2 p, con el modelo de cola, vale de en el ecosistema jm. Sin embargo, el otro modelo de publicados y suscripción mal el modelo de topics digamos que todos los consumidores van a estar leyendo en paralelo más, pero van a la van a hacer, vas a leer todos los los mensajes que se envíen a la al tópico. Es una especie de en este caso. Pero la solución adoptada aquí cuál ha sido la esta última que acababa de comentar? Por qué más se parece a Kafka? En ese sentido, Kafka trabaja de esta manera. Precisamente, como si fuese un broncas y cada uno lee, y si me interesa lo coge, y si no es apto para correr un poco más atrás, aquí vale. Por ejemplo, si si vemos en este caso la iigm que va la parte del en la parte del centro un poco hacia la derecha vale. Y lo que vamos a tener son dos procesadores. Es bueno para llevarse otro para Bale, pero cada uno de ellos tiene que recibir todos todos los mensajes que recibirlos todos. Luego, ya que si internamente deciden a procesarlo es problema del consumidor pero llegarle vas a llegar vale vale vale no llegan y interesar el proceso y si no, no Exacto, exacto, si no la desperdició y ya la deshecha y hasta ahora no me había quedado claro cuál era la opción que sabía que se había adoptado, si es es la de publicación y suscripción, la, por decirlo de alguna manera. Eso es gracias. Una pregunta más. Que queráis comentar. Si tenéis, al final lo bueno cuando sea sin problema. Bueno, pues en ese caso vamos a continuar hacia cómo vamos a almacenar los datos. Volvemos otra vez a ver un poco la positiva anterior para tenerlo claro, bueno, haciendo un poco también relación a lo que acabamos de comentar ahora del, pues eso va a llegar a todos los procesadores, como como ya comentábamos, y cada uno de esos procesadores va a decidir qué hacer con esos eventos, y realmente se lo va a enviar a la gestora Sabater, y en este caso y en la sala pero es el que se va a encargar de adaptarlas al sistema que corresponda, caso a utilizar, en la piel de Pepe, para estarlo entre él, y si en el caso de Wikileaks pues lo va a insertar utilizando el propio cliente que nos proporciona para para, para trabajar con él mismo. Bale entonces un poco poco bueno decía eso tenemos dos dos dos a dos almacenamientos dos lugares en los que se va a almacenar. Bueno, pues en cuanto a las decisión para elegir uno u otro en este caso, pues efectivamente, pues lo primero tendría que cumplir con estas especificaciones para el proyecto, así las que se planteaba en el propio pliego. Pues también para el tema de los plazos de entrega, la flexibilidad, la reducción de la deuda técnica, uno de los puntos que comandaba el pliego, porque pongo ese primer punto vale, porque hay un factor muy determinante que fue que tuviesen la posibilidad de intercambiar el triple. Store en un momento dado además, que éste está esta solución. podría estar pensada para que se desplegase en varias universidades que cada universidad, la despliegue bajo su bajo, su paraguas, con sus propios datos, etc. Una estancia de la de la misma. Por lo tanto, cada uno de ellos debería ser capaz de tener la posibilidad de poder intercambiar el triple Store que se está que se va a utilizar en la solución final. Entonces, por eso, por eso es el motivo de este este este punto. Porque, por ejemplo, lo primero que pensamos fue fue en poner wiki base vale? Ya que iba a ser, te da muchísimas cosas ya ya hechas, te da toda la parte de consultas, tienen muchísima potencia ahí en esa esa parte, pero, por ejemplo, no, no vamos a poder cumplir con ese objetivo de poder intercambiar el triple Store. Uy, qué base está muy ligado en ese sentido! Vale? Entonces por ello por ello lo he querido reflejar Bale. Este es un poco el esquema que nos da la arquitectura de wiki base. En este esquema se precie. Un gran bloque funcionaba en azul que digamos que sería el core de su deseo aplicación desde su de su sistema. Eso también por tanto, soportaría la mayor parte de la carga funcional de whisky. Base sería posible añadir. Ciertas extensiones. No tiene la posibilidad hasta cierto límite digamos no no podría ser demasiado demasiado profundas al final como tecnologías de almacenamiento pues iba a ser almacenar. Como vemos aquí es verdad que ya lo he comentado antes, que sea su triple héctor el que va a utilizar de forma nativa, sin posibilidad de modificarlo. Bale. Tiene que ser ahora sí o sí pero además utiliza para otros, para otras partes, para otros datos. Utilizaba otros sistemas de almacenamiento se cuele sui o las tijeras como motor de indexación para hacer ciertas ciertas consultas. También lo que lo comentaba. Una de las puntos grandes o fuertes que tienes es un sistema totalmente integrado, y es muy sencillo llevar a cabo un sistema, un sistema de este tipo, pero tiene ciertas carencias que hace que no sea adecuado para core de nuestra aplicación, sino que sería una solución en sí mismo seguramente, pero eso, o lo tomas o lo dejas, dejamos no es más difícil de adaptar a las características concretas de este de este sistema que estamos desarrollando. El caso de, por ejemplo, ya vimos antes este esquema, pero por volver a tenerlo presente, al ser un servicio mucho más modular, nos va a permitir, bueno, por un lado, hacer las modificaciones que necesitemos pertinentes. Bale también nos va a permitir realizar, escalado horizontal redundancia eso. Por lo tanto, es bastante potente en ese sentido, además de cumplir con el plazo con la especificación que también era otra de las de las necesidades que teníamos. En este ese sistema y que Wikileaks no nos no nos da llevasen, no es un servicio en sí mismo, así que sí que sería un servicio para el almacenamiento de datos enlazados, data, pero no cumple con la especificación. Por lo tanto, por lo tanto también es otro de los motivos, por lo que a ser no nos va a valer como core de nuestra, de nuestra solución. También comentábamos antes que aquí podíamos soportar bases de datos racionales y triples Tor triples Tours. Como ya comenté cualquier historia entre comillas por defecto vamos a ver pero podríamos conectar otros triples Torres a través del encuentro, es parques de forma bastante, bastante fácil, sobre todo en el caso de fucsia y al al tener por debajo te debe también y pues tiene una, tiene, se lleva muy pero que muy bien, no obstante se podría integrar con otros triples Torres, si bien es cierto que en función del tipo historia habría que volver a pasarnos la tesis del PP para garantizar que sigue que sigue combatiendo a un gran porcentaje toda todas la especificación, vale que no tengamos grandes grandes problemas en ese sentido. De acuerdo. En bueno el tema de versionado con los elementos que comentaba también antes y también buena relación con con casco pero no del mismo manera que acabamos de ver en este caso para enviar a otros sistemas una vez una vez se inserten los datos en entre y Bale la forma de verlo bueno lo acabó justo comenta lo que la forma que vamos a integrar no va a ser directamente con contenedores, sino que va a ser una integración a través de fusil por su puesto y puentes parques. Hubiese acabado utilizando, debe, como como vemos aquí no fuese, es un servicio que puede correr como como servicio de sistema operativo como como una aplicación web y como servicio independiente, y ese sería un poco el caso que vamos a tratar proporciona esa capa de extracción al acceso a al sistema de almacenamiento y proporción proporcionando un protocolo para la conexión a través de ese puente Bale por defecto interesante. Debe que como un sistema de almacenamiento robusto y transaccionado al utilizar por debajo de Jena también como como veíamos anteriormente uno de los sistemas junto a Ford j, y en cuanto a la seguridad también en el caso de fucsia y aquí también nos va a proporcionar cierta cierto nivel de seguridad, ya que vamos a tener que poder acceder a a él, no solo a través de tres como él, sino a través de sus imponente parques vale para poder hacer las consultas, es una ley de la finalidad, una ley de penas, de proveer de un en los parques, sino de un que nos va a permitir consultar los datos. Vale? Entonces, para suplir esa carencia, vamos a utilizar el encuentro, es parque del que nos de fuese quien esté en este caso. Entonces, de alguna manera tenemos también que garantizar la seguridad y en este caso la seguridad que trae de serie fuese aquí es utilizando apaches, sino que permite implementar esa autenticación y autorización y que a veces fácilmente integrarme con esa capa de permisos de una capa de permisos de género, aunque también que también para, para ir ya a nivel de a nivel de tripleta, a nivel de recursos, mejor dicho, poder limitar el acceso a ciertos datos que pueden ser más sensibles en el sistema. Entonces, como veíamos, íbamos a tener dos opciones. Teníamos wiki base y 3, 2, dos tipos de almacenamiento. Esta opción, pues, realmente propone que la elección de las dos opciones anteriores, en paralelo, lo que comentábamos antes, las dos va a servir para distintas cosas. Entonces, por un lado, digamos que, como core de la de la aplicación, la idea sería, como decía, utilizar junto con Bale, por otro lado, para un perfil más administrador, pues vamos a tener wiki base que permitan permitir consultar los datos de una forma bastante, bastante rápida, en caso de que puede estar más habituado a este tipo de sistemas. Bueno que sea un poco porque se ha decidido optado por una opción o por o por otra un poco el cuadro de para ver cómo se amolda a la a cada a cada uno de los requisitos que teníamos. En primer lugar, como decía, suena en el caso de wiki base. En cuanto a la autenticación, según la documentación disponible utiliza, se podría utilizar doble que sería un plug-in. Entonces se permitiría que iba a ser elevado en cualquier proveedor de Watts o es lo que vamos a utilizar para autorización, autenticación? El sistema? Vale para todo este tema de micros? Servicios es muy, muy cómodo utilizar otro doblete, con un 2, con 1, vale para hacer esa transferencia del toque de autenticación, ya que ya que digamos que no te hace falta depender de sistemas de autorización externos digamos que es el propio toquen por sí mismo, es fiable valen, con lo cual, evitar sobrecarga de consultas a otros sistemas internos para validarlo. Entonces, la idea es seguir por ese camino y por eso teníamos esa esa necesidad. Vale? Entonces digamos que se podría ser. Podría conseguir por ese camino, bueno, tanto el ajuste de requisitos! En este caso sería sería grande. En el caso de trenes con confusión, pues ya soporta de serie la autenticación, doblete. Con lo cual. Por lo tanto, es también un un alto nivel de de adherencia, ese ese requisito, en este caso para analizar el proceso de de lo bien y además también decir que utiliza la web y de la forma que se que se indica la especificación de referente a la web y con especificación, o entonces digamos que lo tendríamos garantizado también. Por otro lado, podría trabajar como autenticación básica, Bale, aunque en este caso no penal, y en concreto, Bale. Este caso no sería la opción adecuada, sino que tendríamos que ir más al otro, a la otra opción, utilizando otro doblete. En este punto estarían los dos en un alto nivel de adherencia al requisito. En cuanto a la autorización, en el caso de Huawei, que iba a ser, no hemos encontrado ningún tipo de documentación relevante que indique que por sí misma o mediante el uso de algún se pueda proporcionar algún mecanismo de autorización con la claridad suficiente para cubrir los requisitos del proyecto, aunque es cierto que se puede establecer algunos aspectos de la autorización a nivel global sobre la plataforma, tales como lectura. Ha decidio creación borrada de entidades y algunas autorizaciones administrativas, como creación de usuarios, etc. Etc. Pero parece que no es posible gestionar una autorización a nivel de recurso Bale, que es un poco lo que lo que necesitaríamos en este en este caso entonces, en este caso el nivel de ajuste de requisitos no sería, no sería adecuado en el caso de trenes. En este sentido, Bale, al utilizar uefa a hacer para la para autorizar, sí que permite, como vimos antes como ejemplo, el definir a nivel de recurso, quién y quién no puede acceder a ese recurso en concreto. Por lo tanto, ese es el nivel de ajuste. Requisito sería, sería alto. En cuanto al tema de la que data del que comentaba, no es un servidor de Bale, se utiliza su propia. Entonces no se sabe ni lo pretende de acuerdo Bale entonces y tampoco le incluye entre sus entonces las posibles. Simplemente acciones para entonces, en ese sentido pase no va, no va a adherirse a los requisitos de ninguna manera. Señalaron Álvaro. En el caso de que cumple plenamente el la especificación de hecho. Bueno, como decía alguna vez, ya he comentado antes el tema, sea utilizado, además para verificarlo y, efectivamente, efectivamente lo cumple, aunque si bien es cierto, aparecen algunas algunos incumplimientos, pero se puede, se podría deber a ciertos formas de interpretar la norma, digamos, de alguna manera, porque realmente la garantía de que el nos diga que cumple desde el año 2018 con el que vamos, yo creo que es garantía suficiente como para, como para poder decidir qué puedo decir? Que tiene un alto nivel de ajuste en este sentido? En el caso del pueblo de Sfar, que el base en principio cumple con los requisitos enunciados en cuanto al encuentro es parqués, ya que voy que iba a ser, expone un empollón, básicamente porque cuenta es parte del ballet. Pero realmente se es esa dependencia de blogs Graphic por decirlo de alguna manera, hace que que no se pueda cumplir con la independencia de independencia de triples, por decirlo de alguna forma, no? Entonces sí que sí que podríamos decir que cumpliría con qué tienen en puentes parques, pero no, no puedes intercambiables, no puede ser independiente de lo que tengamos debajo, ya que tendría que ser siempre en el caso de trenes más use. Bueno, pues en este caso fuese. Aquí nos provee de puentes Parken Bale, si bien es cierto que podríamos incurrir un poco en el mismo problema que en el caso de wiki base vale, pero pero como realmente el coro de nuestra aplicación va a ser, el podríamos como como ya comentaba, intercambiar y por otro, por otro triples. Todos los puentes parques que tengamos ahí hay debajo, ya sea con él a través de su imponente parques o bien implementando un modelo de persistencia de datos dentro dentro de tres que lo adapte al al nuevo, al nuevo almacenamiento, o al nuevo puentes parte, con lo cual en este caso sí que creemos que el ajuste requisito es es alto. En ese sentido, en cuanto al análisis de requisitos de triples -Touré, vale, como en el caso de wiki base, como ya como acabamos de comenzar, ahora, se utiliza además construir su propio servicio de consultas, el entonces Kohl desplegado por, por lo tanto, usar esa funcionalidad fuera de fuerza. La lección del triple historia sólo obliga, como como acaba de comentarlo y, por tanto, tiene un fuerte acoplamiento entre entre wiki base, con. Entonces los requisitos relativos a esa esa lección de triples Touré nada, hace que no tengamos un grado de libertad para poder seleccionar uno u otro, por lo tanto no habría un bajo nivel de cumplimiento. En ese sentido y y también relacionado con lo que comentaba antes de enfrentarse a ella pues sí que hay en ese caso cómo podemos intercambiarlos de forma bastante sencilla pues el nivel de cumplimiento sería sería alto, hasta aquí vamos a tres días, está ganando por goleada en ese aspecto, pero algo en el tema de la interfaz gráfica en ese caso Wikileaks, pues ofrece una interfaz mucho más sólida y madura puesta en producción con éxito, por ejemplo en el proyecto que data que además ofrece cierto grado de personalización hasta cierto punto, lo que permitiría probablemente adaptar a las distintas universidades en este sentido o perfiles del cliente que puede ser necesario para el proyecto. Por ello creemos que en este caso la interfaz de Wikileaks, que tiene un nivel de madurez alto y se ajusta mucho a los requisitos por por contrario la interfaz es demasiado madura. Seguramente no es el objetivo de ofrecer esa esa interfaz de usuario y y ya no son un elemento con la de la solución. Vale? Entonces en este sentido digamos que sería insuficientes a esa herencia no no no tendría una no cumpliría más con ese requisito pero bueno. Yo creo que este caso no es tan importante, el cumple con la parte de la interfaz gráfica. Ya que la entrega, la grada, vamos a tener que desarrollarla sí o sí. De otras maneras. Una interfaz adaptada al proyecto. Con todas las. Con todos los datos. Un poco lo que vimos antes, agregación gráficas, etc. Entonces digamos que. El que no cumpla este punto no es demasiado. No es demasiado importante. Es más importante que cumpla el resto. Vale? Por eso nos hemos ido. Hacía así el modelo discusión para nuestro coche. Si bien es cierto eso. También hemos escogido wifi base para durante el proceso de desarrollo ya. Poder explotar esa esa, esa información por parte de los perfiles y también de ciertos perfiles administradores durante durante el resto del proyecto. Entonces, digamos que nos quedamos un poco con lo mejor de ambos mundos, por decirlo de alguna manera. Bale, en cuanto, en cuanto al almacenamiento, en el sistema, podemos decir que, bueno, como como ya comentábamos, que se va a hacer a través del almacenamiento de redes, realmente lo que lo que vamos a hacer es, como vimos sistema de gestión generales, rdc, Bale, y a través de almacenar, almacenar, los los datos en a través de su app, que es la que nos va a dar las posibles opciones, estamos hablando de la, de la parte de la parte de Huawei que iba a ser, utilizaremos el héroe que iba a ser, lógicamente, pero centrándonos ya en el coro de la aplicación que se va a utilizar a través de esa. Para ello se utilizaría los diferentes mecanismos diferentes métodos http pulpos Lete etc etc que nos va a permitir trabajar con él con el sistema para poder insertar actualizar borrar consultar los datos etc etc Bale y luego también está esta pila de Pep, pues también nos va a gestionar al versionado de la información, como como ya comentábamos antes, para ver todo el histórico de cómo ha ido, cómo ha ido variando el dato en función del tiempo, cómo ha ido el recurso, mejor dicho, variando en función del, del tiempo. Vale, realmente lo que vamos a tener, por un lado, van a ser. Alfred armamento bale, vamos a tener diferentes su gris en función del tiempo. Por ejemplo, vemos aquí que que para la versión actual tenemos la Laurie, pero para la versión anterior tenemos la r1 y para la anterior de la anterior teníamos la al final no es que vaya actualizando los datos, sino que va creando diferentes versiones. Vale? Entonces voy a poder acceder al? Va dejando la foto de del recurso voy a poder acceder al recurso en un momento en un momento dado no en el momento, la versión que yo, que yo considere que considere oportuno. Entonces para ello al final lo que lo vamos a hacer, lo que se va a hacer para poder obtener esa ese dato. En un momento dado se añadirá una cabecera. Entonces yo lo que lo que sé es un objeto sirve tener un recurso, una obra de Pablo Picasso. Por ejemplo, tengo Picasso si la solicitud ese dato tal cual sin nada más me para dar la última versión, la versión actual. Pero si yo quisiera ver qué dato tenía objeto Picasso en el momento hace dos días, pues podría añadir una cabecera, la al método, que sería acepta de eta, en el que podría poner una franja de tiempo la que quiero ver como estaba ese dato vale? Entonces lo que va a hacer este sistema es de volverme otra Houry. Bale nos da una dirección, mejor dicho, una dirección que voy a tener que tratar. Esa dirección es una red de dirección hacia el recurso en ese momento hacia esa versión en concreto. Entonces esa de esa manera es cómo voy a poder obtener los datos. No fueron poco, a poco se se vería aquí no hace nada una especie de negociación de contenido, en primer lugar, en la que en la que solicitó un recurso para la mano una cabecera para ver cómo estaba en cierto momento y lo que me va a devolver a un 303 con con la web rne para poder acceder a ese recurso en ese momento, en concreto varios, un poco como cómo va. Cómo va a funcionar todo todo esto de los elementos Bale y nada. Toda la parte de la del almacenamiento llegaríamos hasta hasta aquí? Si surge alguna duda con respecto a esto no, no. Bueno, pues pasaríamos al al. punto. Sería la parte de los modelos auxiliares. Bueno, si quieres hacer un descanso de 10 minutos, como nosotros, yo creo que nos da tiempo, pero bueno, como queráis. Sí? Lo que quería era mi madre. Vale, me noto si queréis, yo creo que me sobra un poco de tiempo vale vale vale venga pues nos vemos hay 10 por ejemplo vale si venga ahora.

Propietarios

Maria Reyes Hernandez-mora Martinez

Comentarios

Nuevo comentario

Serie: Formación Hércules ASIO (+información)

Izertis

Descripción

Videos sesiones formativas de Hércules ASIO Empresa Izertis