Idioma: Español
Fecha: Subida: 2021-03-17T00:00:00+01:00
Duración: 40m 58s
Lugar: Curso
Visitas: 1.382 visitas

02_Descripción a bajo nivel

Transcripción (generada automáticamente)

Vamos a hablar, de la librería, descubrimiento, de una descripción a nivel de la misma. En este módulo vamos a hablar de cómo, cómo queremos reducir, a cómo queremos solventar los problemas. Para encontrar vamos a hablar de la reducción del acoplamiento del modelo de datos generalizado de la reducción de la complejidad de la gestión de estructuras, memoria y el dato y a sincronía paralelismo y peticiones. Bueno, bueno, nos encontramos con una serie de vetos entre ellos que las distintas fuentes de datos, cambiar una antología para ir cambiando esto, nos nos hace que tenemos una dependencia con antología. Por otro lado, tenemos secreto, tal y como comentamos anterior, de la reducción de la complejidad, también queremos maximizar el rendimiento de la librería, ya que es un un proceso bastante pescado. Nos interesa hacerlo de forma más más ágil posible y gestionar las peticiones, de forma que ésta sea en cuanto en cuanto a las fuentes de datos. Nos interesan reducir el acoplamiento a la fuente de los datos, nos interesa que el modelo sea lo más alto posible y les sirve posible capaz de cualquier tipo de entidad. En cuanto a la reducción de complejidad, nos interesa reducir el espacio de búsqueda brevemente en el anterior por medio del uso de Pixar y mantener el estado de las últimas búsquedas, es decir, trabajar solamente con los tonos del caso se buscan los cambios que se han producido en aquellas entidades que han cambiado, nos interesa también maximizar el rendimiento de la librería. Para ello nos apoyamos en los datos, en estructuras, en memoria, de forma que la ejecución sea lo más eficiente posible y utilizamos en la medida de lo posible las peticiones pesadas, sobre todo para estrenar datos de triples, desde la caché para evaluar las similitudes o nazis también nos interesa que las peticiones no se bloquean peticiones pesadas realizadas por los clientes, sean las comparaciones, la búsqueda es dudes, todas ellas serán pesadas e intentaremos procesarlas por medios, informa que éstas no bloqueen adquiriente. Unos serán almacenados y procesados cuando la librería de descubrimiento está preparada para las sucesivas peticiones iguales. Hechos al cliente, sólo se procesarán una vez, pero en respuesta a cada una serpiente. La respuesta en este caso será así puede ser por medio de cola, Kafka o según la preferencia de cliente, vale. En cuanto al modelo de datos, vamos a hablar de la reducción del acoplamiento a la fuente de datos. El proyecto impone que puedan existir más de una fuente de datos y éstas pueden ser intercambiables; ahora mismo coexisten y Wikileaks y ambos son accesibles y nos interesa la librería, descubrir la fuente de datos, hemos dicho. Esta fuente de datos. Puede cambiar ahora mismo tenemos un equipo que va a ser, pero en el futuro podrían ser otros, otros triples tornos que existiesen y el modelo de datos. Entendemos que la antología es cambiante, la antología puede evolucionar y nos interesa; nos interesa que el modelo de datos se haga que, sin ningún cambio a cualquier cambio que pueda sufrir la antología para ello, buscamos acoplar la fuente de datos, ganas de descubrir la librería -descubrimiento, al fin y al cabo, el modelo de generación a las fuentes de datos para interactuar con ellos. Así que la idea es delegar esta responsabilidad. Por otro lado, lo que hemos comentado, tenemos que crear modelos de datos, los 90 extracto para poder dar soporte a datos y pérdida de información. En lo relativo a la antología cambiante modelo de dominio y de ser capaz de modelar cualquier tipo de objeto descrito por la antología, tiene que ser capaz de almacenar, además, datos relativos a la instancia como fecha; la última actualización, ya que este atributo será clave para unas lobos, los deltas, sus hermanas, las entidades que han cambiado la clase a la que pertenece, lo cual nos permite segmentar la información, lo cual la localización donde se encuentra, lo cual nos permitirá después llevar a cabo las acciones de actualización o un lado y naves. La solución que hemos implementado es crear un tipo de objeto abstracto e implementado mediante la clase de empleo, conciertos, venta de datos constantes. Entre los metadatos, cabe destacar, el di de la entidad. Lo que hemos comentado es la localización física en el triple. Estoy para ese objeto al que pertenece la última modificación, que es la fecha en la que cambió por última vez esta instancia, lo cual nos permite, como hemos dicho, trabajar con deltas y, por otro lado, queremos los atributos propiamente dichos, que son los atributos que están almacenados en él. El texto, por ejemplo, si hacemos una consulta sobre la estancia de persona a través podemos ver, podemos ver los atributos centro, que sería la Facultad de Informática lanzamiento de ingeniería de información en Haití y estos atributos sería lo que haríamos la estructura atributos. Es una estructura potencialmente discursiva en forma de clave, valor donde modelado forma de hojas pah, donde cada uno de los atributos un atributo plano o algún tipo de los que hemos visto o puede ser un objeto, que es también una estructura, esto hace que podemos modelar cualquier tipo de objetos en cualquier cosa, que podemos modelar con cuotas por medio de este tipo de gas, pero también aumenta bastante la vigilancia a la hora de explotar todo atributos, hasta una distancia. El modelo de dominio, bueno, podemos decir que hay funciones específicas, por ejemplo, no asfixiar la búsqueda, enlaces que necesitan ser modelados con otros tipos de objetos, con características distintas. Para ello se crean variaciones de longitud, que podrían estar diferentes. Tenemos, por un lado, el objeto triple. Esto que modela las características que he visto anteriormente, tenemos el objeto triples que básicamente es el mismo objeto triples que básicamente es el mismo objeto, pero modelo algunos atributos peculiares, algunas características, peculiaridades de Pixar. Por ejemplo, la, la métrica de similitud a la gestión. Podemos ver, podremos ver un ejemplo de ello. Aquí tenemos los objetos que están realmente almacenados en el ascensor y, bueno, como podemos ver, los objetos. El objeto es básicamente el mismo, pero tiene algunos tributos propios. Como podría ser el escollo, podría ser Linde lo que nos interesa modelar nuestra clase, triple ambiente se acaba de describir. Por otro lado tenemos el triple que veremos con más detalle posteriormente, solo objeto generado cuando encontramos un enlace estarlo. Cuando buscamos en la novela Oz encontraremos una serie de becas que comparten, que no comparten antología inquietas, que tenemos en nuestros vagones, y y bueno, hay que tener en cuenta que tenemos algunos atributos nuevos relevantes en la csa distintas aviso. Otros objetos dentro de la novela o unas algunos datos específicos para este tipo de objetos; por ejemplo, Los Vengadores 2, tributos propios, modelo distinto a nuestro modelo. Bueno, en esta página lo que podemos ver es un poquito lo que hemos visto anteriormente en la parte izquierda en negro podemos ver un objeto de ti, triple o bien. Ese la parte amarilla, podemos ver los atributos, los atributos que comparte, con el triple, como podemos ver eso en su conjunto y en la parte en blanco. Podemos ver los atributos que son propios de la conversión entre entre ambos objetos, es que vivían al compartir la parte que resultaban amarilla, es bastante sencillo convertir un objeto y luego tenemos aquí un objeto enlace, estarlo donde podemos ver que los atributos cambian sensiblemente. En la primera parte quizás sea parecida, pero como en el otro caso, pero encontramos algunos, algunos atributos nuevos, datos que nos indican la danza, ser igual se han extraído los objetos el base le indicaría que el edil ha sido todo, ha sido extraídos el nombre. Nombre local, este nombre local, es el nombre, nuestra antología, con lo cual nos permite encarar cualquier objeto de nuestra antología con un objeto suyo. Los perdedores, que básicamente, lo que hacen es mapear, un objeto de la antología a la cual estamos recuperando información, a nuestra trilogía. Por ejemplo, tenemos que ser para la clase, por otro lado, tenemos dos precisos para las propiedades, necesitamos que éstas tengan forma de Huy. Entonces, bueno, por ejemplo, aquí encontramos. El prefijo sería impresiones, correspondería a esta web, lo cual, la web en total, que formada por esta parte y su hijo. Por otro lado, tendremos tenemos información también de la de la entidad de origen. Esta entidad de origen es realmente una entidad de triple A y es la entidad a partir de la cual hemos conseguido los enlaces en una veloz, los cocos; después tendríamos meta datos relativos a los link, por ejemplo, nos estaría dirigiendo el primer atributo que la información que hemos obtenido. Podríamos tenerla a partir de una llamada a la instalación. Que la información del autor podremos obtener la imagen que la información a través de Scouts. Y bueno, aquí los atributos propiamente dichos, que serán finalmente en nuestro sistema. Bueno, ahora vamos a hablar de, iremos hablado anteriormente, de la reducción de complejidad y bueno, vamos a hacerlo de una forma más profunda. Los requisitos nos dicen qué bueno que tenemos que como hemos descrito anteriormente, la complejidad viene dada, o esta comparación. La comparación donde comparamos todos los elementos con el resto de elementos esto nos lleva a un orden de magnitud de complejidad de cuadrado, es decir, una, una complejidad exponencial. Es necesario que encontremos, por ejemplo, por poner un ejemplo, si hubiésemos 2000 elementos, 1.000 entidades que comparar es fácil, que tendríamos una complejidad de 900, de 999.999 es decir, sería una una complejidad bastante elevada, simplemente con 1.000 elementos. Si tuviésemos un caso de uso de entidades, pues quizás más real y mucho mayor, lo mejor de un 1.000.000 de instancias de una determinada clase, pues nos iríamos acerca. El 1.000.000.000 de entidades comparar para comprar esto hace que que tratar esto sea prácticamente imposible y es uno de los más de los mayores retos encuentra que encuentran la. La búsqueda de similitudes para reducir esta complejidad como amos, como hemos mencionado anteriormente, estamos, buscamos reducir el espacio de búsqueda en este punto intentaríamos busque reducir en uno es decir el número de elementos que tenemos que comparar esto lo hacemos apoyándonos en el motor de búsqueda sobre los atributos más más relevantes para reducir el número de elementos con los que comparar cada instancia haremos, es cortar los resultados en un túnel que similitud y bajas. Especialmente. Buscamos un punto de inflexión. Debido a los vasos vale, ahora vamos a hablar del algoritmo que utilizamos para para obtener reducir el espacio de búsqueda y y bueno, para ello tenemos algunos parámetros de configuración. Tenemos, por un lado, los se hará atributos, o esto lo que nos está diciendo, que es el grado de importancia que tienen que alcanzar nuestros atributos para construir la contra la asfixia y, por otro lado, el atributo, la asfixia Hernández, gracias; o lo que se reducirá el número, es decir, vamos a dar un porcentaje sobre el número total de votos, de forma que, que nunca realicemos nada, todos los atributos, y siempre en su conjunto, de los votos más relevantes. El algoritmo bueno al acuerdo y vamos a construir de forma dinámica se va a realizar para realizar operaciones, aunque sea por coincidencia exacta en los criterios de triples tory, dijimos. Los valores para dar estos atributos, y en cuanto a los atributos propiamente dicho, hemos seleccionado como más importantes y relevantes. Buscaremos es una coincidencia parcial o aproximada, tanto simplemente como profesora, y pasaremos importancia como calcular previamente el atributo como parámetro para calcular similitud, aquí podríamos ver un ejemplo del acuerdo, y que estamos construyendo en la primera parte. Es una condición más, más, implica condiciones entre ellas, es decir, buscamos que se cumplan todos los requisitos, que estemos aquí, o sea, no sé a que el nombre del triple, esto es parte, que la clase sea la clase, y además buscamos el valor exacto, valor similar a Weems, exacto, para ir a la parte de los atributos, se moderan una, cual, es decir, una operación. Entre ellas podemos destacar los siguientes puntos. Primero, que se modela de común acuerdo, y, es decir, buscaremos por cada una de las palabras una vez que haya nada. Que aparecen en esa frase cualquier coincidencia con cualquier palabra, pues no nos darán resultado. Ahora, cuanto más, más coincidencia, más palabras coincidieran, mayor será el grado de las Pixar. Como vemos, también hemos configurado para agregar sinónimos y en el establecemos el peso que tendrá esto, y tú y este beso es el peso que tenemos nosotros, calculado para la importancia que tenemos, calculada para cada 1. Por último, sobre los resultados que tenemos nos interesa establecer un punto de corte de tal forma que realmente son los resultados, y el conjunto de resultados que obtengamos su conjunto significativamente menor. Al menos -1 se comparamos con un número de entidades que sea manejable, idealmente salarial máximo de 50 entidades, pero buscaremos ajustarlo de forma que la mayoría de las veces cinco o seis menos de una semana como podemos ver gráfica el índice presenta las dos que está moviendo más para cada una de las instancias que la asfixia, y podemos apreciar en esta gráfica que al final encontramos un punto donde la similitud parece mantenerse constante en un nivel bajo. Para nosotros. Este será el punto corto y punto en que las similitudes son bajas y no parecen cambiar demasiado. Sobre el espacio, hemos quedado reducido, esta vez sí a Creta para calcular la similitud de entidades. Según la similitud obtenidas, existen ciertos umbrales en la configuración que determinan las acciones en el cuadro en negro podemos pegar el autómata o automático que significa que, a partir de esa esa similitud que la librería, descubrimiento desencadenará, acciones automáticas, las cuales implicaron, que esos implican entre las entidades que son parecidas entre sí que son similares y la actualización de la entidad resultante sobre una de ellas, sobre la que más se parezca y también deberemos efectuar sobre la entidad, que no queremos que prevalezca la entidad, quizá el más antiguo, que fuese más distinta resultado del por otro lado, existe en este otro fresco que está establecido como 7. Qué bueno es un fresco que indica que existe realmente cierto, pero esto no lo suficiente. Para desencadenar las acciones automáticas esto implica, que necesitaremos la acción del usuario, que pueda evaluar si procede o no procede. Esa es la asignación de igualdad. Bueno, en este esquema podemos esperar un poquito del proceso que van a seguir, las van a seguir. La evaluación de similitudes y la reducción de complejidad. En el punto 1, pues podemos ver que el comparador de el comprador de entidades pide a la caché las entidades. Para cierto, no triples la caché retornar a dichas instancias en ese momento el comparador de entidades con las que a las entidades más relevantes para cada una de esas entidades que vamos a evaluar, ordenando los resultados de similitud, lo hemos dicho de mayor a menor y cortando por el punto de inflexión donde vemos que las similitudes se parecen parecen más o menos constantes. Existen valores de configuración que también limita el número de resultados garantizados, garantizando que el resultado está limitado por número. Es decir, idealmente, si vemos la función que hemos mostrado antes para limitar el resultado, aún así si supera un cierto número. Si ese resultado, porque entendemos que a partir de a partir de sus valores. Están ordenados en el momento en que deje de cumplir la ley serie iguales, los valores que las que se ha presentado con menos, y todos tendrán a un menor similitud. Nosotros, por otro lado, con el espacio de búsqueda reducido, representaría este dibujo de. Aquí lo que haremos es evaluarlo, evaluarlo de entidades que anteriormente, según su equipo, es como hemos comentado. Por un lado, por un lado, evaluarán los tributos de texto; por otro numéricos, las fechas y bueno, nos retornarán valor de similitud y ese valor de similitud. Como hemos explicado anteriormente, las acciones que se llevan es que se llevan a cabo. Ahora vamos a hablar de la reducción de entidades a comparar, pues en la fórmula que estábamos viendo anteriormente búsqueda en el asfixia se resolvería la parte menos solo ahora, buscamos reducir la parte de la parte de las entidades, que no saben cual vamos a buscar así dado que las similitudes son simétricas, es decir, sin titubear, respetable. La misma clase con respecto a esto implica que cuando añadimos instancia y esto genera un duplicado solo con evaluar la nueva instancia ya estaríamos teniendo en cuenta la similitud con las anteriores. Para la complejidad antes mencionada, siendo esta estrategia conseguimos reducir el, es decir, el número de elementos para los cuales es necesario hacerlo. La solución que hemos implementado es que las entidades almacenadas en los triples contienen datos a fecha de última actualización almacén almacenado de información y descubrimientos, relativa a las búsquedas anteriores, jornadas históricas. Podemos comparar dichas fechas con la fecha de realización, y sólo aquellos altas instancias que han sido modificadas en la última, dado que la similitud tiene la propia educativa, es decir, las similitudes no existe, problema que cuando recuperamos para asfixiar las entidades similares estamos teniendo en cuenta todo el conjunto. Como antes podemos ver un poquito el esquema implementada, vemos que el punto grueso de la similitud de búsqueda o similar y edad para un determinado todo esto, lo clase en el punto dos obtenemos la fecha. Para ser. Triples clase y lo comparamos con en el punto 3, se busca desde la cárcel, que han sido modificadas para la fecha obtenida desde la última bonificación, es decir, los que hayan cambiado en este punto llamó a reducir la complejidad por y a partir de este momento lo llamaremos de que es, es decir, los ventas está claro que la primera ejecución de la librería, descubrimiento, de estar ahí tenemos que evaluar sobre todos los elementos, pero las sucesivas interacciones descubrimiento, ese número será significativamente menor a partir de ese punto, pues un poquito lo que habíamos comentado antes se realizará la para partir de los deltas. Las entidades con estos reducimos al término menos la de la complejidad, que en este caso ya hablaremos, llamaremos. Ese es el número similares, según unen ahora claramente la embestida inicial, sino que es de ponerse siendo que es mucho menor, que es mucho menor. Llegando incluso asemejarse a constantes, obviamente, el producto de dos constantes. Será una nueva constante, algo mayor, por lo cual el problema ahora es manejable. En este punto es la a la similitud. Bueno, ahora vamos a hablar un poquito del rendimiento y para ello, los requisitos son que los datos almacenados en los triples estarán disponibles en el menor tiempo posible. La librería no estará operativa hasta que esos datos, el tiempo necesario, es muy importante. Las entidades a evaluar deben estar en memoria para minimizar el tiempo necesario para el proceso. Obviamente, no es al mismo tiempo necesario para la escritura y lectura en disco que la lectura, memoria. Los datos disponibles que no están en memoria, deben ser accesibles en el menor tiempo posible. Para ello, necesitamos implementar la recuperación, desde cualquier cambio en el triple. Esto, obviamente, actualizar la caché a desplegarse, la aplicación debe tener los datos. De esa forma. La aplicación está operativa en un intervalo de tiempo bastante corto. De forma paralela, la aplicación de los datos más actuales desde el módulo de generación del, del módulo de Data, que actualizará el hd, los datos en memoria en ese punto, pues tendremos los datos actualizados, una íntima información. Existen estructuras de datos en memoria para los datos necesarios para las evaluaciones, que en las librerías, buscando en ese momento pasada la evaluación son más saturar la memoria el acceso a la cancha, de esta forma, ocurrente, forma que se minimice el tiempo necesario para actualizar las estructuras de Nakache. Existe un volumen y una cola, Kafka los que se notifica cada vez que se modifica una entidad, lo cual deriva en una actualización de la caché escenarios. Aquí como antes tenemos un esquema que describe un poquito la lógica implementada, en el punto uno vemos que la librería -La librería empieza un estado inicial rizado, y lo primero que va a hacer es intentar recuperar pronto datos en caso afirmativo, recuperar los datos de forma de la cárcel, de forma paralela e ilegalizada y así y estos datos, en caso de que exista actualizarán las estructuras en memoria y el estado de la aplicación, pasará a cancha. El dato significa que está operativa, pero con datos, pero acto seguido en información de los tuits, esto se demostró inversor a partir del módulo de federación ya con una llamada al módulo, Tata. Si tenemos datos, actualizar las estructuras de memoria guardaremos estos datos en la caché y una aplicación basada en su estado definitivo, que es. En cuanto a las estructuras de memoria, las entidades a evaluar en memoria para minimizar el tiempo en el proceso normal, una lente, una lectura es una petición. De una memoria las estructuras en memoria, de mantenerse siempre sincronizadas con respecto a la caché y a los datos almacenados. En caso contrario, tendríamos problemas de integridad. El intercambio de información entre nuestro Investor, la memoria deben realizarse de forma transparente, los usuarios la solución e implementada el servicio que hsa salvar es la interacción entre la caché y mantienen los datos siempre necesarios de memoria en estructuras de datos que garanticen los accesos y búsquedas con elementos de coco. Complejidad siempre 1. Realmente no sería. Transparencia, de modo que el tiempo necesario para obtener cualquier datos de este servicio garantiza datos sin memoria. Aquí tenemos un poquito. La descripción de las estructuras memorias son implementadas por medio de estructuras más lo que garantiza una orden, uno en cada una de las de los pasos. Por un lado, por un lado tenemos los mismos nombres no y para cada nombre no tendremos una estructura más otra vez donde tenemos los triples, por cada nombre de triples Tort, tendremos aquí faltaría una estructura más en este día y para cada nombre de clase, cada uno de los triples que contiene, como hemos visto, pues esto garantizaría un acceso a cualquier información en 3. Una palabra o Estado sobre estas becas. Por otro lado, Teresa Teresa, también de la sincronía y el mismo sería deseable minimizar el tiempo que las peticiones pesadas, como la actualización y descarga de datos de Nakache carga de datos. Esto no fuesen bloque antes para la aplicación de forma paralela, se implementan todas las operaciones pesadas de forma que éstas ejecutan, siempre con Google y sitio, y así esto hace que el tiempo necesario para comentar una operación de la carga de datos no sea solo la suma de las operaciones necesarias, sino el tiempo de la operación más lenta. Por otra parte, para favorecer la que la concurrencia se divide en dos grandes conjuntos de datos, dado triples todo lo que hemos visto antes, aquí tendríamos su esquema. Por ejemplo, para obtenerlos. Los datos de todas las clases, de forma concurrente todas las peticiones a la vez y bueno el tiempo necesario para tenerlos. Los datos, para todas las clases sería el tiempo que tardó imaginar en este caso. Y no la suma de tiempos. Por otro lado, sería deseable que las peticiones no fuesen, no fuesen bloquean. La búsqueda de similitud la hemos simplificado enormemente, no hemos dicho por el espacio de búsqueda, y la aplicación de los de los delitos. Es una aplicación, es una decisión que en principio puede ser sana, por lo tanto, nos interesa, nos interesa que no bloqueará. También sería deseable que las peticiones de la capacidad de una mayoría de descubrimiento es un número muy alto y podría llegar a múltiples peticiones idénticas. No deben procesar últimas múltiples veces, sino únicamente una, es decir, si yo Vigo para la Universidad de Murcia, todos triples Thor de todas las personas todos los duplicados de las personas por las similitudes. Que haya una persona no quiero que luego varias veces quiero ir y muchas veces porque el resultado es el mismo quiero una única vez y, sin embargo, todas las peticiones obtengan respuesta. La solución implementada. Las peticiones están marcadas, como así la petición veremos posteriormente y te permite hacerlo de forma sincronizada si no se produjesen inmediatamente la petición retorne inmediatamente código. La respuesta de la petición procesada es enviado de forma sin corona, por medio, según preferencial del usuario. Las peticiones idénticas solo se almacenan una vez que ésta solo se procesa; sin embargo, se guarda registro de todos los clientes una petición y, por lo tanto, la librería de descubrimiento. Por último, vamos a ver un pequeño esquema, como hemos visto los casos anteriores, donde estar inscrita un poquito, la lógica de la implementada, en este caso será libre descubrimiento. En el punto no recibimos una nueva petición. Todos evaluamos si existen peticiones peticiones y cuáles. El caso en caso de que exista, lo que haremos es añadir el cliente como cliente a notificar, pero no añadiría la petición. Si en caso, en caso de que no existan, lo que haríamos es añadir la ola de peticiones pendientes para una vez que estén añadidas a la cola. De ello tendremos el proceso lanzado de ellos, de lanzamiento de ellos, que básicamente se ejecutará cada vez que termine de ejecutar un. Yo o pasado un tiempo determinado. En este caso lo que va a hacer el proceso es obtener de la cola. La fifa preguntará si existen condiciones por procesar y, en caso de que existan en caso de que no existan, pues nada, esperará hasta la próxima interacción en caso de que existan o tendrá el próximo. Yo quiero que me toquen procesal. Procesara. Yo hacía y buscando las similitudes. Una vez que tenga la respuesta a esas similitudes notificará, entonces podré hacerlo bien, o si se ha confirmado si Kafka o hacerlo cualquiera de los hechos, y este es el final de este motor para obtener siendo que hayan sido. Muchas gracias.

Propietarios

Proyecto Hércules

Comentarios

Nuevo comentario

Serie: Formacion ASIO viernes 12 de febrero IZERTIS (+información)

Descripción

Formacion ASIO viernes 12 de febrero IZERTIS