FIng - Trabajos de Titulación Post-Grado
URI permanente para esta colección
Examinar
Examinando FIng - Trabajos de Titulación Post-Grado por Materia "Algoritmos Computacionales"
Mostrando 1 - 10 de 10
Resultados por página
Opciones de ordenación
Ítem Algoritmo para generación de ligandos usando diseño de drogas basado en fragmentos(Universidad Andrés Bello, 2021) Vargas Marín, Matías; Montero Ureta, Elizabeth; León Vásquez, Roberto Jesús; Facultad de IngenieríaEl problema principal que se busca abordar en este trabajo es la fabricación de compuestos químicos conocidos como ligandos, los cuales tienen la capacidad de influenciar sobre las proteínas HSP. Se espera que los ligandos fabricados tengan una buena capacidad en inhibir el HSP90 y de esta forma tener el potencial de convertirse en un candidato a droga para combatir el cáncer de seno. En este contexto es importante destacar que actualmente, la investigación farmacéutica se ha basado en métodos computacionales para el descubrimiento de fármacos, en particular, se utiliza una amplia variedad de modelos computacionales para estudiar las complejas interacciones de los sistemas químicos y biológicos En este trabajo el problema fue enfrentado en el contexto de la línea de investigación conocida como De Novo Drug Design y será afrontado mediante un algoritmo de búsqueda de tipo heurístico contrastado con un algoritmo exhaustivo. De este modo será posible tener una referencia respecto al rendimiento de ambos algoritmos tanto en calidad de soluciones como en tiempos de ejecución.Ítem Diseño de redes Hub-and-Spoke con r-conectividad(Universidad Andrés Bello, 2020) Quevedo Vergara, Antonio Israel; Lüer-Villagra, Armin; Facultad de IngenieríaLas empresas que operan redes de transporte o comunicaciones extensas buscan diseñar redes que sean apropiadas de acuerdo con alguna métrica. Una alternativa, utilizada por empresas dedicadas al transporte aéreo de pasajeros, paquetería y telecomunicaciones son las redes hub-and-spoke. En las redes hub-and-spoke existe un tipo especial de instalación denominada hub. Los hubs se utilizan para consolidar, ordenar y direccionar los flujos de transporte dentro de la red. La demanda de transporte viene dada por pares origen-destino (OD) de nodos, debiendo pasar por al menos un hub. Los modelos de localización de hubs tiene como objetivo diseñar redes hub-and-spoke, determinando las mejores ubicaciones para los hubs. Esta investigación busca comprender la importancia de la redundancia de rutas para un problema de diseño de redes hub-and-spoke. Se busca maximizar la cobertura y minimizar los costos totales. Para esto se formula un modelo de localización de hubs, donde un par OD ( , ) i j se considera conectado si existen al menos ij r rutas disjuntas, siendo ij r un parámetro del modelo. Dicho modelo se resuelve de forma exacta mediante el software AMPL y el solver Gurobi 8.1.1. Se observa que los modelos propuestos permiten obtener una economía de redundancia en los costos asociados. Como investigaciones futuras se encuentra el desarrollo de métodos de resolución para instancias de mayor tamaño, y de una heurística de resolución que permita obtener tiempos de cómputo razonables.Ítem Grid fast path finding using 2k neighborhood(Universidad Andrés Bello, 2019) Hormazábal Santibáñez, Nicolás; Hernández, Carlos; Facultad de IngenieríaMoving from a place and reaching a goal through a path can be tedious, especially when you are looking for efficiency. People, robots or even entities in video games, use Path Planning, which will deliver a sequence of actions to achieve their goal. The representation of this worlds is made through regular grids, where exist an Agent with the ability to move through this discreet world. Usually the co connectivity allow 4 or 8 movement for an Agent in each position, which can be really limited to find a better path, because the range of motion. One solution for this is a 2 k neighborhood, with the ability of get a bigger range of motion as the k is increased for k ≥ 2. In this thesis we use a 2 k neighborhoodapproaches to extend the range of motion in the algorithms Sub Goal Graph and to a different approach of Jump Point Search. The first, Sub Goal Graph look for all corner or sub goal in the map, to create a graph with only the subgoal to find a solution, with a better range of motion the solution will be more realistic. The second one is and approach of Jump Point Search but using a Canonical search and saving the best candidate to the next search. Both of the algorithms are based in A* Search. The objective is to measure the performance of the Sub Goal Graph and Jump Point Search algorithms, with the new connectivity implemented, with respect ANYA an any angle planner and Sub2-Theta*. Measuring the path cost delivered and the execution time, as a comparison. The planner based in sub goals with a 2 k neighborhoodgot optimal path faster than ANYA, having a margin of sub optimality of 0.0005%. While Jump Point Search has an 0.19% of sub optimality and 25% quicker in some cases. Also all solution had an improvement in performance and lower cost as the k is increased.Ítem Mejoramiento de un algoritmo de ambigüedad espacial topológico(Universidad Andrés Bello, 2022) Pérez Palavecino, Felipe Andrés; Blázquez Lavín, Carola; León Vásquez, Roberto Jesús; Facultad de IngenieríaEl problema de Map-Matching ocurre cuando se quiere integrar la posición GPS de un ente, principalmente un vehículo, con la red vial en un mapa digital. La principal motivación de esta investigación es implementar una mejora a un Algoritmo de Map-Matching Topológico (TMMA) ya desarrollado en un estudio anterior, aplicando principalmente dos mejoras que ayuden a obtener resultados en un menor tiempo computacional sin perjudicar la calidad de estos. El objetivo es poder reducir el trabajo realizado por el algoritmo asegurando un buen resultado, sin la necesidad de tener que estar variando los parámetros de entrada en la búsqueda de un mejor rendimiento. Para poder llevar a cabo esta investigación, se realizó un análisis previo de los datos de entrada para trabajar con información coherente que no interfiriera en los resultados finales. De esta manera, se seleccionaron ocho set de datos con mediciones GPS con frecuencia de 30 segundos, provenientes de vehículos de carga que transitaron por la comuna de Renca, Santiago en febrero de 2015. Dentro de las mejoras realizadas, se incorporó una obtención previa del radio de búsqueda óptimo que asegura que la gran mayoría de las mediciones GPS tengan una vía cercana. En segundo lugar, se incluyó un procedimiento encargado de filtrar las calles que no tienen la misma dirección en la que se iba moviendo el vehículo. Con estas mejoras desarrolladas, se ejecutaron diferentes experimentos con los ocho set de datos, que posteriormente se compararon con el algoritmo original respecto al tiempo de ejecución y calidad de la solución. Donde se logró apreciar que seis de las ocho rutas se resolvieron en un tiempo menor que con el algoritmo original. Asimismo, siete de las ocho rutas obtuvieron un porcentaje de acierto igual o mejor. Analizando los resultados con un mayor detalle, se logró apreciar que las mediciones que tenían una velocidad inferior a 5 km/h entregaban una dirección (heading) imprecisa. Por lo tanto, se decidió realizar un experimento que no considerara el filtro de las calles por su dirección, cuando un registro tuviera una velocidad inferior a 5 km/h. Sin embargo, la los resultados obtenidos con la nueva mejora mostraron ser despreciable como para considerar esta modificación en el algoritmo. Por otro lado, se decidió evaluar cómo se comportaría con un set de datos al reducir la frecuencia de los registros a la mitad, quedando con un set de datos registrado cada 1 minuto. En el cual se logró percibir que el tiempo computacional igualmente se redujo a la mitad, y el comportamiento del algoritmo mejorado siguió siendo superior al algoritmo original. Por último, se realizó una evaluación de sensibilidad para las variables de Tolerancia de Velocidad y de Heading, donde se logró comprobar la importancia que ´estas tienen y como influyen directamente en el rendimiento del algoritmo. Se espera que para una siguiente investigaci´on se puedan estandarizar estas variables, tal como se hizo con el radio de búsqueda, el cual se selecciona previamente de acuerdo al set de datos con el que se trabajará de forma independiente.Ítem Métodos de selección de variables óptimas para la predicción de enfermedades cardiovasculares utilizando machine learning(Universidad Andrés Bello, 2020) Rodríguez Segura, Mauricio; Nicolis, Orietta; Facultad de IngenieríaLas enfermedades cardiovasculares (ECV) son la principal causa de muerte en el mundo. La detección temprana de ECV en relación con condiciones del sueño como la apnea y ˜ la actividad física han sido prometedoras y aun es un desafío encontrar nuevas formas de prevenir su aparición. Este trabajo propone metodologías de reducción del número de variables ´ para determinar el riesgo de ECV, mediante métodos de extracción de variables óptimas, ´ con técnicas de pre-procesamiento de datos y evaluando su rendimiento para la clasificación´ predictiva con algoritmos de machine learning (ML) sobre el dataset del Sleep Heart Health Study (SHHS). El pre-procesamiento incluyo el balanceo de datos mediante muestreo SMOTE ´ y la selección de variables óptimas para la predicción de ECV se obtuvo mediante la regresión´ logística con valor p mas bajo y el análisis de componentes principales, utilizando índices médicos y datos de la prueba de polisomnografía. Los algoritmos de ML utilizados para la experimentación fueron: Natıve Bayes (NB), Redes Neuronales Prealimentadas (NN), Maquinas de Soporte Vectorial (SVM) y Bosque Aleatorio (RF). Los resultados obtenidos en ´ el modelo de NN mejoraron la precisión de estudios anteriores (0,81) y presentaron un AUC ´ competitivo (0,76).Ítem Modelo de predicción de riesgo de no rehabilitación cardiovascular con datos limitados usando transfer learning(Universidad Andrés Bello, 2022) Zurita Palma, Christopher; Torres, Romina; Nicolis, Orietta; Facultad de IngenieríaLa rehabilitación cardiovascular, es una etapa que conlleva un conjunto de esfuerzos multidisciplinarios clínicos. A causa de esto, la Fundacion Kaplan en conjunto con la Universidad de Valparaíso y la Universidad Andres Bello, han trabajado y colaborado en ´ el desarrollo de SITECard, una aplicación enfocada a la telerrehabilitación de pacientes en el programa de rehabilitación cardiovascular. Esta plataforma tiene el fin de monitorear los pacientes a distancia, reservar horas, enviar indicaciones remotas a los pacientes, entre otros. En este trabajo nos enfocamos en el componente inteligente de SITECard, el cual consiste en un modelo de aprendizaje automatico de predicción de riesgo de no rehabilitación cardiovascular. Este modelo, fue entrenado con registros retrospectivos de 207 pacientes que participaron en el tratamiento de rehabilitación cardiovascular de la fundación Kaplan, lo que es una cantidad de datos bastante limitada para la obtención de buenos resultados. El desafío que se plantea en este documento, es el de mejorar la precisión de la predicción de este modelo de aprendizaje automatico preexistente (R2 0.716 en el mejor modelo), mediante la incorporación de nuevas características, provenientes de un conjunto de datos biométricos que a su vez fue recolectado de una serie de fichas, exámenes y dispositivos clínicos. Para lograr la mejora del modelo preexistente, se ha utilizado la técnica “JDA” la cual permite realizar una adaptación de características entre conjuntos de datos con distribuciones diferentes. Con su utilización se logró una transferencia de aprendizaje basada en características, entre el conjunto de datos utilizado en el modelo preexistente y el nuevo conjunto de datos biométricos. También se han utilizado técnicas como “RFECV” para la selección de características y “Aprendizaje jerárquico”, para ayudar a lidiar con la limitada data disponible. Mediante la utilización en conjunto de todas estas técnicas se ha logrado mejorar la predicción del modelo de riesgo de no rehabilitación hasta un R2 de un 0.923, en el mejor modelo reportado.Ítem Solving bi-objective time-dependent shorted path problems(Universidad Andrés Bello, 2021) Sepúlveda Caroca, Tomás Enrique; Hernández, Carlos; Facultad de IngenieríaMuchos problemas de búsqueda interesantes se pueden formular como ´ problemas de búsqueda bi-objetivos, es decir, problemas de búsqueda en los ´ que dos tipos de costos tienen que ser minimizados, por ejemplo, distancia y costos para problemas de transporte. Últimamente esta área de investigación ha ´ ido en aumento, introduciendo una extensión, basándose en obtener los caminos ´ mínimos de vehículos con dependencia temporal. Para este estudio, se experimentan aplicaciones en mapas de Estados Unidos. Para esta experimentación se cuenta con ´ un problema dependiente del tiempo, donde el día es divido en intervalos temporales discretos proporcionales. Los costos asociados dependerán del intervalo temporal ´ inicial. Por ejemplo, un conjunto de soluciones optimas obtenidas entre dos puntos ´ en un grafo (nodos) A y B a las 12:00hrs puede varias a las obtenidas a las 19:00hrs. En este trabajo se propone un estudio para el mapa de Estados Unidos proponiendo la adapcion del algoritmo BOA* para afrontar la extensi ´ on del problema bi-objetivo ´ con dependencia temporal. BOA* ha demostrado su contribucion en tiempo de ´ ejecucion respecto a algoritmos de la literatura tales como NAMOA*, NAMOA*dr, ´ Bi-Objective Dijkstra, y Bidirectional Bi-Objective Dijkstra. Con esto, planteamos que es posible resolver problemas mas grandes que los reportados y realizar análisis ´ exhaustivos en mapas de Estados Unidos, proponiendo un algoritmo de búsqueda de ´ caminos mínimos basado en el algoritmo BOA*.Ítem Time dependent bi-objective A* case study in Santiago de Chile(Universidad Andrés Bello, 2021) Montecinos Zambra, Daniel Ignacio; Hernández, Carlos; Facultad de IngenieríaEn este trabajo de tesis, se presenta el algoritmo Time Dependent Bi-Objetive A*(TDBOA*), una extension de Bi-Objetive A*(BOA*). Se utiliza como base ´ BOA* debido a que ha destacado en la literatura por su fuertes propiedades teoricas y rapidez de ejecución. TDBOA* es una variante interesante para el ´ problema bi-objetivo con dependencia temporal, donde el día es divido en intervalos temporales discretos proporcionales. Para esta variante, los costos asociados dependeran del intervalo temporal inicial u hora de partida. Además, se realiza un ´ análisis exhaustivo, experimentando con datos reales, en escenarios reales para el ´ mapa de Santiago de Chile.Ítem Visual recognition incorporating features of self-supervised models for the use of unlabelled data(Universidad Andrés Bello, 2021) Díaz Calderón, Gabriel Antonio; Peralta Márquez, Billy; Nicolis, Orietta; Facultad de IngenieríaAutomatic visual object recognition has gained great popularity in the world and is successfully applied to various areas such as robotics, security or commerce using deep learning techniques. Training in machine learning models based on deep learning requires an enormous amount of supervised data, which is expensive to obtain. An alternative is to use semi-supervised models as co-training where the views given by deep networks are differentiated using models that incorporate lateral information from each training object. In this document, we describe and test a co-training model for deep networks, adding as auxiliary inputs to self-supervised network features. The results show that the proposed model managed to converge using a few dozen iterations, exceeding 2 % in precision compared to recent models. This model, despite its simplicity, manages to be competitive with more complex recent works. As future work, we plan to modify deep self-supervised networks to increase diversity in co-training learning.Ítem Windowed conflict-based search algorithm(Universidad Andrés Bello, 2020) Contreras Leyton, Jean Luis; Hernández, Carlos; Facultad de IngenieríaLa búsqueda de rutas de múltiples agentes (MAPF) es el problema de encontrar rutas para varios agentes mientras evitan colisiones en un grafo. Uno de los algoritmos más fuertes en este campo es Conflict-Based Serach (CBS). CBS encuentra la ruta óptima para todos los agentes de manera offline. Esto significa que es necesario finalizar la búsqueda antes de que los agentes puedan avanzar hacia sus objetivos. Por otro lado, uno de los algoritmos online (intercala planificación y movimiento) más poderosos es Windowed Hierarchical Cooperative A* (WHCA*). WHCA* encuentra una ruta subóptima para todos los agentes y limita la profundidad de la búsqueda espacio-temporal a una ventana dinámica de tamaño fijo, reduciendo el cálculo computacional. En base a esto, presentamos un nuevo algoritmo online subóptimo llamado Windowed CBS (WCBS). WCBS se basa en CBS, pero incorpora las ventanas de WHCA*. Otra contribución menor que se presenta en el artículo, es una mejora al procedimiento de búsqueda de WHCA* llamada improved WHCA* (iWHCA*). En nuestros experimentos, WCBS supera a CBS en su tasa de éxito y tiempo de ejecución, pero tiene un rendimiento inferior en costo de solución. Por otro lado, WCBS supera a iWHCA* en costo de solución y tiempo de ejecución (para un bajo número de agentes y mapas con corredores o pasillos), pero tiene un rendimiento ligeramente inferior (para ventanas más grandes) en su tasa de éxito.