Idioma: Español
Fecha: Subida: 2021-02-09T00:00:00+01:00
Duración: 17m
Lugar: Curso
Visitas: 1.336 visitas

02_Entrada de datos en el sistema

Transcripción

Una vez no hubiésemos visto una visión general de alto nivel de lo que es arquitectura ciertas decisiones de diferentes elementos del de la misma. Es un poco de meternos ya un poco más abajo en diferentes módulos para, para ir viendo qué es lo que es lo que incluye, que mis servicios tienen y definitiva como cómo se ha ido llevando. Se ha ido llevando a cabo cada uno de cada una de ellas, si bien es cierto que, como se hacía al principio de las sesiones posteriores, seguirá profundizando aún más a mucha más nivel también de nivel programación, y me permitirá para para ir viendo cada uno de ellos, pero bueno, en el. La reunión de hoy, la presión de la idea es verlos conceptualmente, que es lo que es lo que es lo que tienen y cómo, cómo funciona. Entonces? Un poco metiéndonos en la parte de la entrada de datos, que sería el primero de los bloques o, o por donde fluye la La 2, nos proponen toda la información. Veréis que lo vamos a ir viendo todos estos módulos a medida que va fluyendo la información en el sistema para establecer un orden en el primero es la, como decía, la entrada de la entrada de los datos, y digamos que esto esta gestión abarca desde la opción de datos de diferentes fuentes hasta la generación de los datos en formato, formato. Entonces, digamos que lo primero que tenemos que hacer es eso, leer los datos de diferentes orígenes de información. Gracias a estos orígenes de información evidentemente son distintos, cada uno de ellos tendrá diferentes características, por lo tanto, son fuentes heterogéneos. También fueron diferentes protocolos, por un lado, de diferentes formatos, diferentes protocolos que se van a obtener por tener cotizar para obtener esa información, por ejemplo en servicios o a un vídeo, una base de datos o, etc, etc. No se podría dar soporte a cualquier protocolo entre los que puedan estar previstos para este proyecto, pues podríamos incluir. Etc. Habría habría varios, varios de ellos, entonces, un poco para para dar, para darle cabida, todo a todo esto. Pues viendo otra vez el esquema de la de la del modelo de importación pues pues tendríamos pues diferentes diferentes importadores de datos uno por cada una de las cuentas externas, como vimos hace un momento, son fuentes heterogéneas, y lo hemos además. Pues vamos a tener una vez los importadores. Cojan esos datos, lo metan en el sistema, pues digamos que van a estar ya en un formato que reconocible por la aplicación, formato, ya más estandarizado que va a poder ser trabajado por los diferentes servicios. El siguiente de ellos es el procesador de datos que es el que se va a encargar de transformar los datos centrada en datos, formato, formato, ayudándose. Para ello en ventaja, en una tele vamos a inventar la nata. Entonces, digamos que va a ser necesario hacer esa esa, esa labor. De unificación de transformación para para poder llevar a sacar esa información en el formato que espera la que definen la antología entonces, para para ello, también vamos a necesitar de hacer una labor de análisis, esos datos de integración, de agregación o incluso, muchas veces, por ejemplo, para componer un único, un único dato de los que espera la teología. Es posible que necesitamos utilizar varios datos de los que nos viene de la entrada, incluso varios de diferentes fuentes. Seguramente, a lo mejor para para poder componer lo por por completo. Entonces ahí también un poco un poco por por eso también. Por un lado, se evite ese procesador que meter los datos en una base de intermedio y luego hay una tve que trabaja contra contra esa base de datos intermedio en base a una serie de consultas que le van a permitir hacer esa esa, esa unión de datos y otras formaciones, todo lo que vaya, todo lo que vaya necesitando. Por último, enviándolo al gusto de servicio de Kafka para poderlo ya ser leído desde desde desde los siguientes módulos. En cuanto a, en cuanto a los importadores, como, como decíamos, vamos a tener diferentes fuentes de forma de forma heterogénea. Entonces, la la, la idea para poder lidiar con todo eso es tener un micro servicio por cada una de las fuentes de datos. Es decir, va a existir un importador diferente por cada una de las de las fuentes de datos que vayamos a tener uno para y otro para su vez otro etc etc no entonces cada uno de estos importadores va a ser una especie de adaptador, por decirlo de alguna manera, de esas fuentes de datos tiro entonces ellos saben cómo cómo leer cómo trabajar cómo comunicarse en definitiva con esa fuente de datos o coger los datos, obtener esa información y pasarlos a un formato entendible por el resto de servicios, y ese va a ser simplemente su su cometido, es decir, leeréis a estar los datos en el sistema? Entonces, bueno, un poco un poco para, para lidiar con ello decir al final para ayudarnos en todo este proceso al que vamos a tener una ingesta masiva de información y es posible que los siguientes servicios tengan un procesamiento más más elevado y y y que tardé más tiempo en procesar cada uno de los de los eventos, pues para ello vamos a ayudarnos de un sistema como, como ya hemos visto anteriormente, que va a haber unas buses, unas colas generales o principales, pero por ello no quita que pueda haber otras otras de ayuda a otras intermedias que hagamos uso de ello. Si volvemos aquí atrás, vemos cómo los importadores, además de leer los datos de ahí y transformado su formato, entendible para el resto de servicios, lo que van a hacer es importarlo, dentro de ese servilismo del módulo de entrada, donde el procesador va consumirlos. Vale, pero lo va a consumir, a su ritmo, que es un poco el objetivo que queremos que queremos conseguir con este tipo de aproximación, que estamos, que estamos planteando. Entonces, ganó una vez, una vez transformados perdón, una vez leídos los los datos y metidos a la cola de entraría en la función el procesador de datos que el procesador va a meter esa información, como decíamos, en una base de datos intermedia, que, que va a ser sobre la cual van a trabajar bajo la atenta agresión, que va a ser nuestro motor de transformación, de datos o nuestra nuestra. Para hacer esas traducciones entre los datos de los datos de entrada y los datos en formato definido por la oncología o lo que hicimos antes, que también lo conocíamos como como los ojos. En este caso entonces, un poco lo que tenemos que hacer es. Eso. Nos hace diferentes fuentes de datos con distinta información y vamos a tener que hacerse tras una acción, aplicar una serie de cálculos script un mapping infiltrado pivotado, etc. Etc. Unas cuantas acciones que vamos a necesitar ahí mediante, mediante ese motor de el cual se va a encargar de hacer toda, toda la toda la transformación en base a una serie de reglas a paso a un huérfano, que este, que estoy definido iba a ir justo debajo. Vemos una especie de The Guard Flo un poco de ejemplo, no tiene nada que ver con ninguno de los que ayudan a la aplicación, pero bueno, para que para que hagamos un poco lo que podría estar haciendo, pues en este caso está leyendo datos de dos de dos fuentes por un caso, pues hace un filtrado en otro caso, pues añade los ciertos datos que falta o los va buscando, hacer una preparación, luego los los todos los unifica en unos objetos es bueno. Al final acaba escribiendo una, en una base de datos, el dato transformada al final, un poco la idea. La idea sería un poco un poco esa de lo que queremos conseguir con la que es una una. Entonces bueno, la al final lo que vamos a tener por un lado, pues pues el proceso de post sería un poco, un poco. Al final todo esto. Por un lado, tendríamos que extraer los datos de unas entidades principales, como también en Santander y las propiedades, como las, como las relaciones entre entre ellos, después habría que que hacer una especie de transformación mal eliminando los caracteres extraños. Entonces aquellos campos que los precisen. Si se tenían solamente los datos que fuesen necesarios y se añaden campos constantes y si procede, o realizando también ordenación es sobre diferentes campos de identificación o uniones, alegaciones necesarias. Realmente es seria, sería se harían todo aquellas cosas necesarias para analizar la transformación de esos datos para amoldar a las necesidades del sistema. Desde los datos, como tenga un origen hasta tenerlo lo que queramos tener hacia hacia el destino, hacia donde tengamos que ir, al formato que quedamos, disponer esa información, pues es un poco todo lo que se haría en esta fase de transformación y ya, en último lugar, una vez detenido esos datos ya formados, en un formato adecuado, pues lo tendríamos que cargar al final en la cola, en la cola de Kafka, que nos va a permitir comunicar con él, con el sistema de gestión y el procesamiento de eventos. Acuerdo. Hay una. Hay un tema también importante en este este proceso de transformación, de acuerdo que también hay que hay que ver, no porque aquí está ahora mismo estamos hablando un poco de forma de forma general todo esté todo este proceso, pero en el proceso al que iba a incluir tanto los datos como las relaciones entre ellos como como hemos visto, pero aquí hay un inconveniente que tenemos que tenemos que ver, no podemos mandar los datos y las relaciones a la vez. No nos podemos mandar por una forma sencilla razón, porque si lo mandamos a la vez que un dato está relacionado con otro recurso está relacionado con otro. Es posible. Es muy posible de que ese otro recurso el recurso relacionado no exista todavía se puede que sí o puede, que no vale, pero si es que no tenemos un problema porque no vamos a poder grabar esa esa relación sería. Tendríamos que seguir diferentes estrategias para poder liderarlo como crear recursos vacíos y luego luego cuando nos llegue rellenarlo pero bueno también tendríamos ahí cierto es cierto problemática para poder identificar cuando nos llegó un recurso, si ya existe un recurso vacío. Además de que requeriría comprobar en el sistema es meter muchísima más carga, sea comprobar cada vez que haya un recurso, si existe un dato vacío para para rellenarlo, etc, etc. Entonces, un poco para lidiar con con todo esto, lo que vamos a hacer es tener dos dividirlo en 2, no. Por un lado. Generar los datos sin relaciones, es decir solamente los recursos, los ojos con los con los capos de tipo literal, por decirlo de alguna manera. Eso va a ir a través de una cola de caza o quizás lo vemos aquí aquí mejor. Por un lado iría a través del después de la tele. Saldrían los datos, en formato poco querían ser muy general y luego una vez estos datos ya están generadas. Por otro lado, vamos a generar las relaciones que tienen entre entre los diferentes elementos para que se traten posteriormente. De esta manera vamos a asegurar que cuando tenemos una relación entre entre dos entidades, entre los recursos existan las dos entonces ya se va a poder crear una forma de una forma adecuada y además que no vamos a requerir de una gran sobrecarga en el sistema para estar todo el rato buscando si existe, si no existe para poder hacer la relación correctamente después en el sistema de almacenamiento. Entonces, un poco por ese motivo lo hemos, lo hemos dividido en dos en dos este proceso de transformación, por un lado, los los objetos planos y, por otro lado, van los los enlaces entre-entre ellos se van a procesar en ese orden. Bueno, eso toda esta parte en cuanto a la parte del módulo. De entrada, si queréis aprovechar para preguntar alguna cosa, alguna duda que tengáis antes de pasar al siguiente. Módulo. A mí me sugiere a profundizar más en algunos apartados, pero en el proceso de cargo. Se encarga de configurar toda la parte de la ventaja. Además, eso recae en algún usuario. Y si la parte de la tele forma parte del desarrollo del proyecto, no tanto, además del código fuente de la aplicación que requeriría todos los servicios, también estamos desarrollando toda todo. Todo. Todo. Todo la configuración, como se componía, simplemente habría que cargar dicha dicha configuración, pero digamos que la confederación ya está hecha, colocó con lo cual recaería en el equipo de desarrollo la parte de la tele. No sé si eso responde a la pregunta de otras maneras. En la sesión de mañana no es en la noche del jueves una del viernes ya se va a explicar un poco de por parte de la gente que desarrolla la tele cómo se montaría un entorno de desarrollo, en caso de que fuese necesario y y demás. Pero ya os digo que en principio eso requería de la parte de desarrollo el tener esa, esa configuración ya hecha, bale.

Propietarios

Proyecto Hércules

Comentarios

Nuevo comentario

Serie: Formación martes 2 de Febrero ASIO Izertis (+información)

Descripción

Videos