Grau en Ciència i Enginyeria de Dades (Pla 2017)
http://hdl.handle.net/2117/351018
2024-03-28T13:37:25ZDevelopment of value metrics for specific basketball contexts: evaluating passing opportunities and defensive help positioning
http://hdl.handle.net/2117/403259
Development of value metrics for specific basketball contexts: evaluating passing opportunities and defensive help positioning
Mas Tena, Aina
The introduction of the three-point line in the National Basketball Association (NBA) has brought a significant transformation in the way teams understand and play the game. With the advent of the 3-pointer, teams progressively adapted their offensive strategies, changing their style of play and their shot selection patterns. However, on the defensive end, teams have struggled to adapt to these strategies with the same effectiveness. In the world of professional sports, where winning margins are razor-thin, analysis that leads to marginal gains is paramount. Particularly over the last decade, with the surge in data availability, data science and statistics have played a pivotal role in this respect. This study focuses on using basketball tracking data to analyze and optimize defensive strategies in response to the growing prevalence of the three-point shot. The first objective of this work is to introduce the concept of fractional defensive assignments, offering a nuanced perspective on the defender-offender relationship. This innovation provides valuable insights into the attention that defenders allocate to each offender, benefiting both offensive and defensive strategic analysis. To determine the optimal defensive positions for a given game situation, we have developed a model that optimally positions defenders on the court based on offenders and ball locations. This model takes into account the mobility of the defenders, their speed and reaction time, as well as the passing ability of the offenders depending on the court layout, effectively positioning defenders for maximum coverage of both the ball and the off-ball players. To assess the model's effectiveness, an innovative evaluation method has been devised. It relies on a similarity metric comparing real-world defensive setups with the optimized positions generated by the model. The results indicate that optimizing defensive setups through the implemented model can lead to significant improvements in team performance, particularly in more strategically charged contexts. In summary, this research introduces innovative concepts and methodologies to enhance the defensive strategies of NBA teams. It offers a valuable tool for optimizing defensive assignments by mitigating offenders' passing and shooting capabilities. The findings suggest the potential for substantial improvements in team performance, as it overcomes traditional defensive strategies in order to optimize for today's three-point-centric offenses.; La introducció de la línia de tres punts a l'Associació Nacional de Bàsquet (NBA) ha suposat una important transformació en la manera com els equips entenen i practiquen el joc. Amb l'arribada de la línia de 3 punts, els equips van adaptar progressivament les estratègies ofensives, canviant el seu estil de joc i els seus patrons de selecció de tir. Tot i això, en l'aspecte defensiu, els equips han tingut dificultats per adaptar-se a aquestes estratègies amb la mateixa eficàcia. Al món de l'esport professional, on els marges de millora són molt petits, l'anàlisi que condueix a guanys mínims és primordial. Especialment a la darrera dècada, amb l'augment de la disponibilitat de dades, la ciència de dades i l'estadística han tingut un paper fonamental en aquest aspecte. Aquest estudi se centra en l'ús de dades de \textit{tracking} de bàsquet per analitzar i optimitzar les estratègies defensives en resposta a la creixent prevalença del tir de tres punts. El primer objectiu d'aquest treball és introduir el concepte d'assignacions defensives fraccionades, oferint una perspectiva matisada de la relació defensor-atacant. Aquesta innovació proporciona informació valuosa sobre l'atenció que els defensors assignen a cada atacant, cosa que beneficia tant l'anàlisi estratègic ofensiu com al defensiu. Per determinar les posicions defensives òptimes en una situació de joc determinada, hem desenvolupat un model que situa de forma òptima els defensors a la pista en funció de la posició dels atacants i de la pilota. Aquest model té en compte la mobilitat dels defenses, la seva velocitat i el seu temps de reacció, així com la capacitat de passada dels atacants en funció de la disposició dels dos equips a la pista, posicionant eficaçment els defensors per a una cobertura màxima de els atacants amb i sense pilota. Per avaluar l'eficàcia del model, s'ha ideat un mètode d'avaluació innovador. Es basa en una mètrica de similitud que compara les configuracions defensives del món real amb les posicions optimitzades generades pel model. Els resultats indiquen que l'optimització de les configuracions defensives a través del model implementat pot conduir a millores significatives en el rendiment de l'equip, particularment en contextos de més càrrega estratègica. En resum, aquesta investigació introdueix conceptes i metodologies innovadores per millorar les estratègies defensives dels equips de la NBA. Ofereix una valuosa eina per optimitzar les assignacions defensives mitigant les capacitats de passada i tir dels atacants. Els resultats obtinguts suggereixen el potencial de millora substancial en el rendiment d'un equip, ja que supera les estratègies defensives tradicionals per optimitzar els atacs actuals centrats en els tres punts.
2024-02-27T08:49:27ZMas Tena, AinaThe introduction of the three-point line in the National Basketball Association (NBA) has brought a significant transformation in the way teams understand and play the game. With the advent of the 3-pointer, teams progressively adapted their offensive strategies, changing their style of play and their shot selection patterns. However, on the defensive end, teams have struggled to adapt to these strategies with the same effectiveness. In the world of professional sports, where winning margins are razor-thin, analysis that leads to marginal gains is paramount. Particularly over the last decade, with the surge in data availability, data science and statistics have played a pivotal role in this respect. This study focuses on using basketball tracking data to analyze and optimize defensive strategies in response to the growing prevalence of the three-point shot. The first objective of this work is to introduce the concept of fractional defensive assignments, offering a nuanced perspective on the defender-offender relationship. This innovation provides valuable insights into the attention that defenders allocate to each offender, benefiting both offensive and defensive strategic analysis. To determine the optimal defensive positions for a given game situation, we have developed a model that optimally positions defenders on the court based on offenders and ball locations. This model takes into account the mobility of the defenders, their speed and reaction time, as well as the passing ability of the offenders depending on the court layout, effectively positioning defenders for maximum coverage of both the ball and the off-ball players. To assess the model's effectiveness, an innovative evaluation method has been devised. It relies on a similarity metric comparing real-world defensive setups with the optimized positions generated by the model. The results indicate that optimizing defensive setups through the implemented model can lead to significant improvements in team performance, particularly in more strategically charged contexts. In summary, this research introduces innovative concepts and methodologies to enhance the defensive strategies of NBA teams. It offers a valuable tool for optimizing defensive assignments by mitigating offenders' passing and shooting capabilities. The findings suggest the potential for substantial improvements in team performance, as it overcomes traditional defensive strategies in order to optimize for today's three-point-centric offenses.
La introducció de la línia de tres punts a l'Associació Nacional de Bàsquet (NBA) ha suposat una important transformació en la manera com els equips entenen i practiquen el joc. Amb l'arribada de la línia de 3 punts, els equips van adaptar progressivament les estratègies ofensives, canviant el seu estil de joc i els seus patrons de selecció de tir. Tot i això, en l'aspecte defensiu, els equips han tingut dificultats per adaptar-se a aquestes estratègies amb la mateixa eficàcia. Al món de l'esport professional, on els marges de millora són molt petits, l'anàlisi que condueix a guanys mínims és primordial. Especialment a la darrera dècada, amb l'augment de la disponibilitat de dades, la ciència de dades i l'estadística han tingut un paper fonamental en aquest aspecte. Aquest estudi se centra en l'ús de dades de \textit{tracking} de bàsquet per analitzar i optimitzar les estratègies defensives en resposta a la creixent prevalença del tir de tres punts. El primer objectiu d'aquest treball és introduir el concepte d'assignacions defensives fraccionades, oferint una perspectiva matisada de la relació defensor-atacant. Aquesta innovació proporciona informació valuosa sobre l'atenció que els defensors assignen a cada atacant, cosa que beneficia tant l'anàlisi estratègic ofensiu com al defensiu. Per determinar les posicions defensives òptimes en una situació de joc determinada, hem desenvolupat un model que situa de forma òptima els defensors a la pista en funció de la posició dels atacants i de la pilota. Aquest model té en compte la mobilitat dels defenses, la seva velocitat i el seu temps de reacció, així com la capacitat de passada dels atacants en funció de la disposició dels dos equips a la pista, posicionant eficaçment els defensors per a una cobertura màxima de els atacants amb i sense pilota. Per avaluar l'eficàcia del model, s'ha ideat un mètode d'avaluació innovador. Es basa en una mètrica de similitud que compara les configuracions defensives del món real amb les posicions optimitzades generades pel model. Els resultats indiquen que l'optimització de les configuracions defensives a través del model implementat pot conduir a millores significatives en el rendiment de l'equip, particularment en contextos de més càrrega estratègica. En resum, aquesta investigació introdueix conceptes i metodologies innovadores per millorar les estratègies defensives dels equips de la NBA. Ofereix una valuosa eina per optimitzar les assignacions defensives mitigant les capacitats de passada i tir dels atacants. Els resultats obtinguts suggereixen el potencial de millora substancial en el rendiment d'un equip, ja que supera les estratègies defensives tradicionals per optimitzar els atacs actuals centrats en els tres punts.Differential architecture search for efficient MLP-based networks
http://hdl.handle.net/2117/402352
Differential architecture search for efficient MLP-based networks
Gadea Alcaide, Tomás
Les xarxes basades en Perceptrons Multi Capa (MLP) han demostrat ser tan efectives com algunes xarxes d'última generació, com ara les Xarxes Neuronals Convolucionals (CNN) o els Transformers, però estan fetes de mòduls conceptualment senzills que són els MLP. Simultàniament, ha sorgit un nou paradigma de cerca automàtica de noves arquitectures a les xarxes neuronals. La idea de la cerca neuronal d'arquitectures (NAS) és seleccionar un espai de cerca i després optimitzar no només els pesos, sinó també les arquitectures candidates de l'espai de cerca. Malgrat el cost computacional, NAS ha demostrat un comportament d'última generació. En aquest projecte pretenem estendre mètodes NAS diferenciables i ràpids per definir noves xarxes eficients basades en MLP.; Multi Layer Perceptron (MLP)-based networks have demonstrated to be as effective as some state-of-the-art networks such as Convolutional Neural Networks (CNN) or Transformers and yet be made of conceptually simple modules which are the MLPs. Simultaneously, a new paradigm of searching automatically for new architectures in neural networks has emerged. The idea in neural architecture search (NAS) is to select a search space and then optimize not only over the weights, but also over candidate architectures from the search space. Despite the computational cost, NAS has demonstrated state-of-the-art behavior. In this project we aim to extend fast differentiable NAS methods for defining new efficient MLP-based networks.
2024-02-21T08:58:56ZGadea Alcaide, TomásLes xarxes basades en Perceptrons Multi Capa (MLP) han demostrat ser tan efectives com algunes xarxes d'última generació, com ara les Xarxes Neuronals Convolucionals (CNN) o els Transformers, però estan fetes de mòduls conceptualment senzills que són els MLP. Simultàniament, ha sorgit un nou paradigma de cerca automàtica de noves arquitectures a les xarxes neuronals. La idea de la cerca neuronal d'arquitectures (NAS) és seleccionar un espai de cerca i després optimitzar no només els pesos, sinó també les arquitectures candidates de l'espai de cerca. Malgrat el cost computacional, NAS ha demostrat un comportament d'última generació. En aquest projecte pretenem estendre mètodes NAS diferenciables i ràpids per definir noves xarxes eficients basades en MLP.
Multi Layer Perceptron (MLP)-based networks have demonstrated to be as effective as some state-of-the-art networks such as Convolutional Neural Networks (CNN) or Transformers and yet be made of conceptually simple modules which are the MLPs. Simultaneously, a new paradigm of searching automatically for new architectures in neural networks has emerged. The idea in neural architecture search (NAS) is to select a search space and then optimize not only over the weights, but also over candidate architectures from the search space. Despite the computational cost, NAS has demonstrated state-of-the-art behavior. In this project we aim to extend fast differentiable NAS methods for defining new efficient MLP-based networks.Model optimization for chess pieces classification
http://hdl.handle.net/2117/402342
Model optimization for chess pieces classification
Vilà Sánchez, Diwa
Aquest treball de fi de grau investiga l'ús d'arquitectures d'aprenentatge profund per a la tasca de digitalització automàtica de partides d'escacs. El treball previ és escàs i, tot i que ha mostrat resultats prometedors, les tècniques encara necessiten millores addicionals per permetre'n un ús pràctic en producció. La nostra primera contribució es va fer comparant el rendiment de ResNet50, NASNet Mobile, Mobilenet i VGG16 en la classificació de les peces d'escacs a partir d'una imatge de la peça. L'estudi va trobar que totes les arquitectures van ser capaces d'assolir una precisió satisfactòria, arribant al 98\% d'exactitud amb ResNet50. Aquestes arquitectures es van entrenar per desenvolupar un sistema capaç de recuperar les posicions en un tauler d'escacs a partir d'una imatge. En les millors condicions, el sistema pot digitalitzar una imatge d'un tauler d'escacs en 4 segons amb una exactitud del 75\%. Els resultats de les proves de producció destaquen la importància de l'ús de coneixement del domini que tinguem a la nostra disposició i una extracció cuidadosa de les dades, ja que creiem que la majoria de les imprecisions que el sistema cometeix es podrien resoldre amb la introducció d'informació del domini i una forma més òptima d'obtenir les caselles del tauler. L'estudi també proporciona informació sobre el consum d'energia durant l'entrenament de les Xarxes Neuronals Convolucionals.; This bachelor's thesis investigates the use of deep learning architectures for the task of automatic digitization of chess games. Previous work is scarce and, although it has shown promising results, the techniques still need further enhancements to allow a practical use in production. Our first contribution was done by comparing the performance of ResNet50, NASNet Mobile, Mobilenet, and VGG16 when classifying chess pieces given a piece image. The study found that all the architectures were able to retrieve a high satisfactory accuracy, reaching a 98\% accuracy with ResNet50. Those architectures were trained in order to develop a system able to retrieve the positions in a chess board given just an image. In the best conditions, the system is able to digitise a chess board image in 4 seconds with a 75\% accuracy. The results from the production testing highlight the importance of the use of domain knowledge and a careful extraction of the data, as we believe that the majority of imprecisions the system makes could be solved with the introduction of domain information and a more optimal way to get the squares from the board. The study also gives some insight about the energy consumption of the Convolutional Neural Networks training.
2024-02-21T08:10:08ZVilà Sánchez, DiwaAquest treball de fi de grau investiga l'ús d'arquitectures d'aprenentatge profund per a la tasca de digitalització automàtica de partides d'escacs. El treball previ és escàs i, tot i que ha mostrat resultats prometedors, les tècniques encara necessiten millores addicionals per permetre'n un ús pràctic en producció. La nostra primera contribució es va fer comparant el rendiment de ResNet50, NASNet Mobile, Mobilenet i VGG16 en la classificació de les peces d'escacs a partir d'una imatge de la peça. L'estudi va trobar que totes les arquitectures van ser capaces d'assolir una precisió satisfactòria, arribant al 98\% d'exactitud amb ResNet50. Aquestes arquitectures es van entrenar per desenvolupar un sistema capaç de recuperar les posicions en un tauler d'escacs a partir d'una imatge. En les millors condicions, el sistema pot digitalitzar una imatge d'un tauler d'escacs en 4 segons amb una exactitud del 75\%. Els resultats de les proves de producció destaquen la importància de l'ús de coneixement del domini que tinguem a la nostra disposició i una extracció cuidadosa de les dades, ja que creiem que la majoria de les imprecisions que el sistema cometeix es podrien resoldre amb la introducció d'informació del domini i una forma més òptima d'obtenir les caselles del tauler. L'estudi també proporciona informació sobre el consum d'energia durant l'entrenament de les Xarxes Neuronals Convolucionals.
This bachelor's thesis investigates the use of deep learning architectures for the task of automatic digitization of chess games. Previous work is scarce and, although it has shown promising results, the techniques still need further enhancements to allow a practical use in production. Our first contribution was done by comparing the performance of ResNet50, NASNet Mobile, Mobilenet, and VGG16 when classifying chess pieces given a piece image. The study found that all the architectures were able to retrieve a high satisfactory accuracy, reaching a 98\% accuracy with ResNet50. Those architectures were trained in order to develop a system able to retrieve the positions in a chess board given just an image. In the best conditions, the system is able to digitise a chess board image in 4 seconds with a 75\% accuracy. The results from the production testing highlight the importance of the use of domain knowledge and a careful extraction of the data, as we believe that the majority of imprecisions the system makes could be solved with the introduction of domain information and a more optimal way to get the squares from the board. The study also gives some insight about the energy consumption of the Convolutional Neural Networks training.Energy-aware training of neural network architectures: Trade-off between correctness and energy consumption
http://hdl.handle.net/2117/402257
Energy-aware training of neural network architectures: Trade-off between correctness and energy consumption
Domingo Reguero, Álvaro
Als darrers anys, l'Aprenentatge Profund ha assolit moltes fites en una àmplia varietat de camps. Aquestes fites generalment s'aconsegueixen mitjançant l'escalatge de la computació, sense tenir en compte la petjada de carboni que això podria causar. Presentem un marc de treball per reduir el consum d'energia en l'entrenament de models d'Aprenentatge Profund mentre sense deixar de valorar la precisió, basat en un sistema de 4 passos: monitorització, predicció, entrada de l'usuari, acció. Aquest sistema permet prendre decisions interactives durant l'entrenament basades en les dades recopilades fins a aquest punt. Per desenvolupar el sistema de predicció, creem un nou conjunt de dades entrenant una xarxa neuronal convolucional en 12 conjunts de dades múltiples vegades, aplicant els mètodes triats en diferents moments de l'entrenament. El sistema desenvolupat pot predir la precisió de validació amb un 8.4\% d'error, el consum d'energia amb un 14.3\% d'error i l'equilibri entre ambdós amb un 8.9\% d'error. La eina implementada es va mostrar a un grup de voluntaris que la van valorar amb una mitjana de 4.3 sobre 5 en utilitat percebuda i 3.8 sobre 5 en facilitat d'ús percebuda.; In the last years, Deep Learning has achieved loads of milestones in a wide variety of ambits. Those milestones are generally reached by scaling up computation, disregarding the carbon footprint that this could cause. We present a framework to reduce the energy consumption of training DL models while still assessing the accuracy, based on a 4-step system: monitoring, prediction, user input, action. This system allows for interactive decisions during training based on the collected data up to that point. To develop the prediction system, we create a novel dataset on training a convolutional neural network on 12 datasets multiple times, each one applying the chosen methods at different moments of the training. The system developed can predict the validation accuracy with a 8.4\% of error, the energy consumed with a 14.3\% of error and the trade-off between both with a 8.9\% of error. The tool implemented was shown to a group of volunteers that rated it with an average of 4.3 out of 5 on perceived usefulness and a 3.8 out of 5 on perceived ease of use.
2024-02-19T17:35:00ZDomingo Reguero, ÁlvaroAls darrers anys, l'Aprenentatge Profund ha assolit moltes fites en una àmplia varietat de camps. Aquestes fites generalment s'aconsegueixen mitjançant l'escalatge de la computació, sense tenir en compte la petjada de carboni que això podria causar. Presentem un marc de treball per reduir el consum d'energia en l'entrenament de models d'Aprenentatge Profund mentre sense deixar de valorar la precisió, basat en un sistema de 4 passos: monitorització, predicció, entrada de l'usuari, acció. Aquest sistema permet prendre decisions interactives durant l'entrenament basades en les dades recopilades fins a aquest punt. Per desenvolupar el sistema de predicció, creem un nou conjunt de dades entrenant una xarxa neuronal convolucional en 12 conjunts de dades múltiples vegades, aplicant els mètodes triats en diferents moments de l'entrenament. El sistema desenvolupat pot predir la precisió de validació amb un 8.4\% d'error, el consum d'energia amb un 14.3\% d'error i l'equilibri entre ambdós amb un 8.9\% d'error. La eina implementada es va mostrar a un grup de voluntaris que la van valorar amb una mitjana de 4.3 sobre 5 en utilitat percebuda i 3.8 sobre 5 en facilitat d'ús percebuda.
In the last years, Deep Learning has achieved loads of milestones in a wide variety of ambits. Those milestones are generally reached by scaling up computation, disregarding the carbon footprint that this could cause. We present a framework to reduce the energy consumption of training DL models while still assessing the accuracy, based on a 4-step system: monitoring, prediction, user input, action. This system allows for interactive decisions during training based on the collected data up to that point. To develop the prediction system, we create a novel dataset on training a convolutional neural network on 12 datasets multiple times, each one applying the chosen methods at different moments of the training. The system developed can predict the validation accuracy with a 8.4\% of error, the energy consumed with a 14.3\% of error and the trade-off between both with a 8.9\% of error. The tool implemented was shown to a group of volunteers that rated it with an average of 4.3 out of 5 on perceived usefulness and a 3.8 out of 5 on perceived ease of use.Early detection of diseases using nanorobots in the bloodstream
http://hdl.handle.net/2117/402031
Early detection of diseases using nanorobots in the bloodstream
Calvo Bartra, Gerard
Els avenços en nanotecnologia i materials avançats anuncien una nova era per als dispositius a nano escala en medicina de precisió. Aquests dispositius, equipats amb capacitats integrades de detecció, computació, comunicació, emmagatzematge d'energia i de dades, estan dissenyats per travessar el sistema cardiovascular humà. A mesura que flueixen passivament i senten contínuament, detecten esdeveniments d'importància diagnòstica. La localització guiada per flux pot amplificar el potencial d'aquestes deteccions enllaçant cada esdeveniment amb la seva ubicació física. Abordant els reptes intrínsecs i recordant els dilemes tradicionals d'estandardització de la localització en interiors, introduïm un marc d'avaluació resistent per a aquesta tècnica de localització embrionària. El nostre enfocament gira al voltant d'un simulador de codi obert, que hem adaptat i posat en funcionament per facilitar una avaluació realista i sistemàtica de les solucions actuals de localització guiada per flux d'última generació. Aquest simulador no només serveix com a eina de generació de dades: proporciona una plataforma estandarditzada per entrenar models d'aprenentatge automàtic (ML), establint una base sòlida per a solucions de localització guiades per flux diverses i estandarditzades. El nostre treball aprofundeix en una avaluació exploratòria de dues tècniques de localització guiades per flux basades en ML, mostrant el seu rendiment a través de mètriques variades i revelant limitacions importants, especialment pel que fa a la precisió de la localització a tot el sistema cardiovascular. En resposta a aquests reptes identificats, oferim una nova solució de localització guiada per flux basada en xarxes neuronals de grafs (GNN), que demostra una millora del 50% en la precisió, i amb cobertura a tot el sistema cardiovascular. En resum, el nostre treball estableix les bases per a punts de referència estandarditzats en la localització a nano escala guiada per flux. Ofereix coneixements fonamentals per optimitzar les solucions de localització impulsades per GNN, aportant així una doble contribució d'avaluació de solucions existents i proposant alternatives avançades.; Advancements in nanotechnology and advanced materials herald a new era for nanoscale devices in precision medicine. These devices, equipped with integrated sensing, computing, communication, data, and energy storage capabilities, are designed to traverse the human cardiovascular system. As they passively flow and continuously sense, they detect events of diagnostic significance. Flow-guided localization can amplify the potential of these detections by linking each event to its physical location. Addressing intrinsic challenges and recalling traditional indoor localization standardization dilemmas, we introduce a resilient evaluation framework for this embryonic localization technique. Our approach pivots around an open-source simulator, which we have adapted and operationalized to facilitate a realistic and systematic evaluation of the current state-of-the-art flow-guided localization solutions. This simulator does not merely serve as a data generation tool: it provides a standardized platform for training Machine Learning (ML) models, laying a solid foundation for diverse, standardized flow-guided localization solutions. Our work dives deep into an exploratory assessment of two ML-based flow-guided localization techniques, showcasing their performance across varied metrics and revealing significant limitations, especially regarding localization accuracy across the cardiovascular system. In response to these identified challenges, we proffer a novel flow-guided localization solution based on Graph Neural Networks (GNN), demonstrating a 50% improvement in accuracy and coverage across the cardiovascular system. In summation, our work lays the groundwork for standardized benchmarks in flow-guided nanoscale localization. It offers pivotal insights into optimizing GNN-driven localization solutions, thereby providing a dual contribution of evaluating existing solutions and proposing advanced alternatives.
2024-02-15T14:42:57ZCalvo Bartra, GerardEls avenços en nanotecnologia i materials avançats anuncien una nova era per als dispositius a nano escala en medicina de precisió. Aquests dispositius, equipats amb capacitats integrades de detecció, computació, comunicació, emmagatzematge d'energia i de dades, estan dissenyats per travessar el sistema cardiovascular humà. A mesura que flueixen passivament i senten contínuament, detecten esdeveniments d'importància diagnòstica. La localització guiada per flux pot amplificar el potencial d'aquestes deteccions enllaçant cada esdeveniment amb la seva ubicació física. Abordant els reptes intrínsecs i recordant els dilemes tradicionals d'estandardització de la localització en interiors, introduïm un marc d'avaluació resistent per a aquesta tècnica de localització embrionària. El nostre enfocament gira al voltant d'un simulador de codi obert, que hem adaptat i posat en funcionament per facilitar una avaluació realista i sistemàtica de les solucions actuals de localització guiada per flux d'última generació. Aquest simulador no només serveix com a eina de generació de dades: proporciona una plataforma estandarditzada per entrenar models d'aprenentatge automàtic (ML), establint una base sòlida per a solucions de localització guiades per flux diverses i estandarditzades. El nostre treball aprofundeix en una avaluació exploratòria de dues tècniques de localització guiades per flux basades en ML, mostrant el seu rendiment a través de mètriques variades i revelant limitacions importants, especialment pel que fa a la precisió de la localització a tot el sistema cardiovascular. En resposta a aquests reptes identificats, oferim una nova solució de localització guiada per flux basada en xarxes neuronals de grafs (GNN), que demostra una millora del 50% en la precisió, i amb cobertura a tot el sistema cardiovascular. En resum, el nostre treball estableix les bases per a punts de referència estandarditzats en la localització a nano escala guiada per flux. Ofereix coneixements fonamentals per optimitzar les solucions de localització impulsades per GNN, aportant així una doble contribució d'avaluació de solucions existents i proposant alternatives avançades.
Advancements in nanotechnology and advanced materials herald a new era for nanoscale devices in precision medicine. These devices, equipped with integrated sensing, computing, communication, data, and energy storage capabilities, are designed to traverse the human cardiovascular system. As they passively flow and continuously sense, they detect events of diagnostic significance. Flow-guided localization can amplify the potential of these detections by linking each event to its physical location. Addressing intrinsic challenges and recalling traditional indoor localization standardization dilemmas, we introduce a resilient evaluation framework for this embryonic localization technique. Our approach pivots around an open-source simulator, which we have adapted and operationalized to facilitate a realistic and systematic evaluation of the current state-of-the-art flow-guided localization solutions. This simulator does not merely serve as a data generation tool: it provides a standardized platform for training Machine Learning (ML) models, laying a solid foundation for diverse, standardized flow-guided localization solutions. Our work dives deep into an exploratory assessment of two ML-based flow-guided localization techniques, showcasing their performance across varied metrics and revealing significant limitations, especially regarding localization accuracy across the cardiovascular system. In response to these identified challenges, we proffer a novel flow-guided localization solution based on Graph Neural Networks (GNN), demonstrating a 50% improvement in accuracy and coverage across the cardiovascular system. In summation, our work lays the groundwork for standardized benchmarks in flow-guided nanoscale localization. It offers pivotal insights into optimizing GNN-driven localization solutions, thereby providing a dual contribution of evaluating existing solutions and proposing advanced alternatives.Anàlisi de dades pediàtriques
http://hdl.handle.net/2117/401348
Anàlisi de dades pediàtriques
De Gracia Alor, Marc
Este estudio aborda la prevalencia, factores de riesgo y consecuencias de enfermedades infecciosas pediátricas en el África subsahariana, con un enfoque particular en la malaria, la tuberculosis y el VIH/SIDA. El África subsahariana, una región con desafíos únicos en salud pública, enfrenta una alta incidencia de estas enfermedades, siendo los niños una población especialmente vulnerable. A través de una revisión sistemática y exhaustiva de literatura científica, informes de salud y datos recopilados, se busca proporcionar una visión integral de la situación actual. Los objetivos del estudio son múltiples: determinar la prevalencia actual de estas enfermedades en niños de la región, identificar factores de riesgo asociados, analizar las consecuencias físicas, psicológicas y socioeconómicas, y evaluar las estrategias de prevención y tratamiento existentes. La metodología empleada combina la revisión de literatura con el análisis de datos epidemiológicos y estudios de campo, proporcionando una perspectiva holística. Los resultados preliminares indican una prevalencia alarmante de estas enfermedades en la región, con factores de riesgo que incluyen condiciones socioeconómicas, acceso limitado a servicios de salud y factores ambientales. Las consecuencias de estas enfermedades en niños van más allá de la salud física, afectando su desarrollo cognitivo, educación y calidad de vida en general. Además, se observa una necesidad de mejorar las estrategias de prevención y tratamiento, adaptándolas a las realidades locales. En conclusión, este trabajo resalta la urgencia de abordar las enfermedades infecciosas pediátricas en el África subsahariana, proponiendo recomendaciones basadas en evidencia para políticas de salud y programas de intervención. La información presentada busca ser una herramienta valiosa para profesionales de la salud, investigadores y tomadores de decisiones, con el objetivo final de mejorar la salud y el bienestar de los niños en la región.
2024-02-07T15:03:10ZDe Gracia Alor, MarcEste estudio aborda la prevalencia, factores de riesgo y consecuencias de enfermedades infecciosas pediátricas en el África subsahariana, con un enfoque particular en la malaria, la tuberculosis y el VIH/SIDA. El África subsahariana, una región con desafíos únicos en salud pública, enfrenta una alta incidencia de estas enfermedades, siendo los niños una población especialmente vulnerable. A través de una revisión sistemática y exhaustiva de literatura científica, informes de salud y datos recopilados, se busca proporcionar una visión integral de la situación actual. Los objetivos del estudio son múltiples: determinar la prevalencia actual de estas enfermedades en niños de la región, identificar factores de riesgo asociados, analizar las consecuencias físicas, psicológicas y socioeconómicas, y evaluar las estrategias de prevención y tratamiento existentes. La metodología empleada combina la revisión de literatura con el análisis de datos epidemiológicos y estudios de campo, proporcionando una perspectiva holística. Los resultados preliminares indican una prevalencia alarmante de estas enfermedades en la región, con factores de riesgo que incluyen condiciones socioeconómicas, acceso limitado a servicios de salud y factores ambientales. Las consecuencias de estas enfermedades en niños van más allá de la salud física, afectando su desarrollo cognitivo, educación y calidad de vida en general. Además, se observa una necesidad de mejorar las estrategias de prevención y tratamiento, adaptándolas a las realidades locales. En conclusión, este trabajo resalta la urgencia de abordar las enfermedades infecciosas pediátricas en el África subsahariana, proponiendo recomendaciones basadas en evidencia para políticas de salud y programas de intervención. La información presentada busca ser una herramienta valiosa para profesionales de la salud, investigadores y tomadores de decisiones, con el objetivo final de mejorar la salud y el bienestar de los niños en la región.AI propensity models in fashion: understanding each client needs at any point in time
http://hdl.handle.net/2117/401343
AI propensity models in fashion: understanding each client needs at any point in time
Millet Salvador, Sandra
La intel·ligència artificial (IA) té un paper crucial en la millora de les tècniques estadístiques tradicionals, concretament, l'enfocament se centra en maximitzar el potencial dels models de propensió per millorar la comprensió del minorista sobre el comportament dels clients. La motivació d'aquesta tesi prové de traduir el repte i la inversió de la ciència de dades de Mango en valor empresarial entenent l'interès de cada client en cada moment respecte a les diferents línies de roba disponibles, predir el comportament futur i personalitzar les campanyes de màrqueting. Es proposa com a solució un sistema d'aprenentatge automàtic (ML) end-to-end i s'ha inclòs la metodologia per al seu desenvolupament corresponent. S'ha implementat un algorisme LightGBM per estimar la probabilitat de compres dels clients inclosa una línia específica. La precisió i la variabilitat de les probabilitats s'han escollit mitjançant un procés iteratiu d'optimització d'hiperparàmetres. L'anàlisi del model desenvolupat, juntament amb la seva mesura de l'impacte empresarial, destaca les implicacions pràctiques i els beneficis de la solució.; Artificial Intelligence (AI) plays a crucial role in enhancing traditional statistical techniques, specifically, the focus is set on maximizing propensity models potential to upgrade retailer's understanding of customers' behaviour. The motivation for this thesis stems from translating Mango's challenge and inversion in data science into business value by understanding each customer's interest at any point in time with respect to the different clothing lines available, predicting future behaviour and personalizing marketing campaigns. An end-to-end Machine Learning (ML) system is proposed as a solution and the methodol- ogy for its corresponding development has been included. A LightGBM algorithm has been implemented to estimate the likelihood of customers' purchases including a specific line. The accuracy and variability of the likelihoods have been chosen by an iterative hyperparameter optimization process. The analysis of the developed model, along with its business impact measurement, highlights the practical implications and benefits of the solution.
2024-02-07T14:44:24ZMillet Salvador, SandraLa intel·ligència artificial (IA) té un paper crucial en la millora de les tècniques estadístiques tradicionals, concretament, l'enfocament se centra en maximitzar el potencial dels models de propensió per millorar la comprensió del minorista sobre el comportament dels clients. La motivació d'aquesta tesi prové de traduir el repte i la inversió de la ciència de dades de Mango en valor empresarial entenent l'interès de cada client en cada moment respecte a les diferents línies de roba disponibles, predir el comportament futur i personalitzar les campanyes de màrqueting. Es proposa com a solució un sistema d'aprenentatge automàtic (ML) end-to-end i s'ha inclòs la metodologia per al seu desenvolupament corresponent. S'ha implementat un algorisme LightGBM per estimar la probabilitat de compres dels clients inclosa una línia específica. La precisió i la variabilitat de les probabilitats s'han escollit mitjançant un procés iteratiu d'optimització d'hiperparàmetres. L'anàlisi del model desenvolupat, juntament amb la seva mesura de l'impacte empresarial, destaca les implicacions pràctiques i els beneficis de la solució.
Artificial Intelligence (AI) plays a crucial role in enhancing traditional statistical techniques, specifically, the focus is set on maximizing propensity models potential to upgrade retailer's understanding of customers' behaviour. The motivation for this thesis stems from translating Mango's challenge and inversion in data science into business value by understanding each customer's interest at any point in time with respect to the different clothing lines available, predicting future behaviour and personalizing marketing campaigns. An end-to-end Machine Learning (ML) system is proposed as a solution and the methodol- ogy for its corresponding development has been included. A LightGBM algorithm has been implemented to estimate the likelihood of customers' purchases including a specific line. The accuracy and variability of the likelihoods have been chosen by an iterative hyperparameter optimization process. The analysis of the developed model, along with its business impact measurement, highlights the practical implications and benefits of the solution.Enhancing long-term human motion forecasting using quantization-based modelling : Integrating Attention and Correlation for 3D Motion Prediction
http://hdl.handle.net/2117/399627
Enhancing long-term human motion forecasting using quantization-based modelling : Integrating Attention and Correlation for 3D Motion Prediction
González Gudiño, Luis
This thesis focuses on addressing the limitations of existing human motion prediction models by extending the prediction horizon to very long-term forecasts. The objective is to develop a model that achieves one of the best stable prediction horizons in the field, providing accurate predictions without significant error increase over time. Through the utilization of quantization based models our research successfully achieves the desired objective with the proposed aligned version of Mean Per Joint Position Error. The first of the two proposed models, an attention-based Vector Quantized Variational AutoEncoder, demonstrates good performance in predicting beyond conventional time boundaries, maintaining low error rates as the prediction horizon extends. While slight discrepancies in joint positions are observed, the model effectively captures the underlying patterns and dynamics of human motion, which remains highly applicable in real-world scenarios. Furthermore, our investigation into a correlation-based Vector Quantized Variational AutoEncoder, as an alternative to attention-based one, highlights the challenges in capturing complex relationships and meaningful patterns within the data. The correlation-based VQ-VAE's tendency to predict flat outputs emphasizes the need for further exploration and innovative approaches to improve its performance. Overall, this thesis contributes to the field of human motion prediction by extending the prediction horizon and providing insights into model performance and limitations. The developed model introduces a novel option to consider when contemplating long-term prediction applications across various domains and sets the foundation for future research to enhance performance in long-term scenarios.
2024-01-17T08:10:02ZGonzález Gudiño, LuisThis thesis focuses on addressing the limitations of existing human motion prediction models by extending the prediction horizon to very long-term forecasts. The objective is to develop a model that achieves one of the best stable prediction horizons in the field, providing accurate predictions without significant error increase over time. Through the utilization of quantization based models our research successfully achieves the desired objective with the proposed aligned version of Mean Per Joint Position Error. The first of the two proposed models, an attention-based Vector Quantized Variational AutoEncoder, demonstrates good performance in predicting beyond conventional time boundaries, maintaining low error rates as the prediction horizon extends. While slight discrepancies in joint positions are observed, the model effectively captures the underlying patterns and dynamics of human motion, which remains highly applicable in real-world scenarios. Furthermore, our investigation into a correlation-based Vector Quantized Variational AutoEncoder, as an alternative to attention-based one, highlights the challenges in capturing complex relationships and meaningful patterns within the data. The correlation-based VQ-VAE's tendency to predict flat outputs emphasizes the need for further exploration and innovative approaches to improve its performance. Overall, this thesis contributes to the field of human motion prediction by extending the prediction horizon and providing insights into model performance and limitations. The developed model introduces a novel option to consider when contemplating long-term prediction applications across various domains and sets the foundation for future research to enhance performance in long-term scenarios.Learning substitution parameters on phylogenetic trees
http://hdl.handle.net/2117/399268
Learning substitution parameters on phylogenetic trees
Diéguez Moscardó, Adrià
The evolution of molecular sequences can be modeled by a Markov process on a phylogenetic tree, a common representation of the evolutionary relationships among biological entities. Under theoretical conditions, that is, using sequences of infinite length, the evolutionary parameters of nucleotidesubstitution can be exactly recovered, as J.T. Chang proved. In this project, we adapt Chang's results to real-world scenarios in order to estimate the parameters on a phylogenetic tree using finite sequences. To do so, we implement the FullRecon algorithm proposed by E. Mossel and S. Roch, which allows us to recover the transition matrices that model the sequences evolution. Moreover, we develop an alignment simulator that given a tree, generates its transition matrices with a pre-set number of substitutions and an alignment with the leaf sequences. The simulator allows us to study the performance of FullRecon and identify the factors that have most influence on it. Finally, we compare FullRecon estimations against the ones performed by another phylogenetic software, IQ-TREE.
2024-01-12T13:01:55ZDiéguez Moscardó, AdriàThe evolution of molecular sequences can be modeled by a Markov process on a phylogenetic tree, a common representation of the evolutionary relationships among biological entities. Under theoretical conditions, that is, using sequences of infinite length, the evolutionary parameters of nucleotidesubstitution can be exactly recovered, as J.T. Chang proved. In this project, we adapt Chang's results to real-world scenarios in order to estimate the parameters on a phylogenetic tree using finite sequences. To do so, we implement the FullRecon algorithm proposed by E. Mossel and S. Roch, which allows us to recover the transition matrices that model the sequences evolution. Moreover, we develop an alignment simulator that given a tree, generates its transition matrices with a pre-set number of substitutions and an alignment with the leaf sequences. The simulator allows us to study the performance of FullRecon and identify the factors that have most influence on it. Finally, we compare FullRecon estimations against the ones performed by another phylogenetic software, IQ-TREE.Multi-Speaker and Multi-Lingual Text-to-Speech
http://hdl.handle.net/2117/399166
Multi-Speaker and Multi-Lingual Text-to-Speech
Gonzálbez Biosca, Daniel
Los sistemas dedicados a la síntesis del habla, popularmente conocidos como sistemas Text-to-Speech (TTS) han experimentado notables mejoras durante los últimos años gracias al desarrollo y el crecimiento de la inteligencia artificial. Las aplicaciones de estos modelos son múltiples: desde el uso en asistentes de voz hasta el doblaje de producciones cinematográficas. Los objetivos a la hora de entrenar un modelo de este tipo son cada vez más sofisticados. Este proyecto repasa los diferentes retos que hay que resolver a la hora de diseñar un sistema de síntesis de voz así como las diferentes técnicas normalmente usadas en los últimos años para conseguirlo. Además tiene como objetivo principal desarrollar un modelo bilingüe que sea capaz de generar una voz natural a partir de textos tanto en español como en catalán. Por último, se presentan y se prueban distintas soluciones para tratar de conseguir generar una voz de cualquier locutor que no esté presente en las bases de datos utilizadas durante el entrenamiento del sistema. Se exponen todas las dificultades y problemas encontrados dadas las limitaciones de los datos disponibles para desarrollar el sistema.; Systems dedicated to speech synthesis, popularly known as Text-to-Speech (TTS) systems, have experienced notable improvements in recent years thanks to the development and growth of artificial intelligence. The applications of these models are multiple: from the use in voice assistants to the dubbing of film productions. The objectives when training a model of this type are increasingly sophisticated. This project reviews the different challenges that must be solved when designing a speech synthesis system as well as the different techniques normally used during the last years to achieve it. In addition, its main objective is to develop a bilingual model that is capable of generating a natural voice from texts in both Spanish and Catalan. Finally, different solutions are presented and tested in order to try to generate any voice that is not in the databases used to train the system. The difficulties and problems encountered due to the limitations of the available data to develop the system are exposed.
2024-01-11T13:17:06ZGonzálbez Biosca, DanielLos sistemas dedicados a la síntesis del habla, popularmente conocidos como sistemas Text-to-Speech (TTS) han experimentado notables mejoras durante los últimos años gracias al desarrollo y el crecimiento de la inteligencia artificial. Las aplicaciones de estos modelos son múltiples: desde el uso en asistentes de voz hasta el doblaje de producciones cinematográficas. Los objetivos a la hora de entrenar un modelo de este tipo son cada vez más sofisticados. Este proyecto repasa los diferentes retos que hay que resolver a la hora de diseñar un sistema de síntesis de voz así como las diferentes técnicas normalmente usadas en los últimos años para conseguirlo. Además tiene como objetivo principal desarrollar un modelo bilingüe que sea capaz de generar una voz natural a partir de textos tanto en español como en catalán. Por último, se presentan y se prueban distintas soluciones para tratar de conseguir generar una voz de cualquier locutor que no esté presente en las bases de datos utilizadas durante el entrenamiento del sistema. Se exponen todas las dificultades y problemas encontrados dadas las limitaciones de los datos disponibles para desarrollar el sistema.
Systems dedicated to speech synthesis, popularly known as Text-to-Speech (TTS) systems, have experienced notable improvements in recent years thanks to the development and growth of artificial intelligence. The applications of these models are multiple: from the use in voice assistants to the dubbing of film productions. The objectives when training a model of this type are increasingly sophisticated. This project reviews the different challenges that must be solved when designing a speech synthesis system as well as the different techniques normally used during the last years to achieve it. In addition, its main objective is to develop a bilingual model that is capable of generating a natural voice from texts in both Spanish and Catalan. Finally, different solutions are presented and tested in order to try to generate any voice that is not in the databases used to train the system. The difficulties and problems encountered due to the limitations of the available data to develop the system are exposed.