Ir al contenido (pulsa Retorno)

Universitat Politècnica de Catalunya

    • Català
    • Castellano
    • English
    • LoginRegisterLog in (no UPC users)
  • mailContact Us
  • world English 
    • Català
    • Castellano
    • English
  • userLogin   
      LoginRegisterLog in (no UPC users)

UPCommons. Global access to UPC knowledge

Banner header
64.014 UPC academic works
You are here:
View Item 
  •   DSpace Home
  • Treballs acadèmics
  • Escola Tècnica Superior d'Enginyeria de Telecomunicació de Barcelona
  • Grau en Enginyeria de Tecnologies i Serveis de Telecomunicació (Pla 2015)
  • View Item
  •   DSpace Home
  • Treballs acadèmics
  • Escola Tècnica Superior d'Enginyeria de Telecomunicació de Barcelona
  • Grau en Enginyeria de Tecnologies i Serveis de Telecomunicació (Pla 2015)
  • View Item
JavaScript is disabled for your browser. Some features of this site may not work without it.

Interpretability of deep learning models

Thumbnail
View/Open
TFGMain.pdf (22,72Mb)
Share:
 
  View Usage Statistics
Cita com:
hdl:2117/168559

Show full item record
Domingo Gregorio, Pablo
Tutor / directorVilaplana Besler, VerónicaMés informacióMés informacióMés informació
Document typeBachelor thesis
Date2019-07
Rights accessOpen Access
Attribution-NonCommercial-NoDerivs 3.0 Spain
Except where otherwise noted, content on this work is licensed under a Creative Commons license : Attribution-NonCommercial-NoDerivs 3.0 Spain
Abstract
In recent years we have seen growth on interest for Deep Learning (DL) algorithms on a variety of problems, due to their outstanding performance. This is more palpable on a multitude of fields, where self-learning algorithms are becoming indispensable tools to help professionals solve complex problems. However as these models are getting better, they also tend to be more complex and are sometimes referred to as "Black Boxes". The lack of explanations for the resulting predictions and the inability of humans to understand those decisions seems problematic. In this project, different methods to increase the interpretability of Deep Neural Networks (DNN) such as Convolutional Neural Network (CNN) are studied. Additionally, how these interpretability methods or techniques can be implemented, evaluated and applied to real-world problems, by creating a python ToolBox.
 
En los últimos años, hemos visto un crecimiento de interés por los algoritmos de aprendizaje profundo (DL) en una variedad de problemas, debido a su excelente rendimiento. Esto es más palpable en una multitud de campos, donde los algoritmos de autoaprendizaje se están convirtiendo en una herramienta indispensable para ayudar a profesionales resolver problemas complejos. Sin embargo, a medida que estos modelos mejoran, también aumenta su complejidad, y en ocasiones se los denomina "Cajas Negras". La falta de explicaciones para las predicciones resultantes y la incapacidad de los humanos para entender esas decisiones parece problemática. En este trabajo, se estudian diferentes métodos para aumentar la interpretabilidad de Redes Neuronales Profundas (DNN) como las Redes Neuronales Convolucionales (CNN). Además, evaluamos cómo estos métodos o técnicas de interpretabilidad pueden implementarse y aplicarse a problemas reales, mediante la creación de una ToolBox de python.
 
En els darrers anys hem vist un creixement en l'interès pels algoritmes d'aprenentatge profund (DL) a una varietat de problemes, a causa del seu excel·lent rendiment. Això és més palpable en una multitud de camps, on els algoritmes d'autoaprenentatge s'estan convertint en eines per ajudar als professionals resoldre problemes complexes. Tanmateix, a mesura que aquests models milloren, també augmenta la seva complexitat, i a vegades es denominen "Caixes Negres". La manca d'explicacions per a les prediccions resultants i la incapacitat dels humans per entendre aquestes decisions sembla problemàtica. En aquest projecte, s'estudien diferents mètodes per augmentar la interpretabilitat de Xarxes Neuronals Profundes (DNN) com ara les Xarxes Neuronals Convolucionals (CNN). A més, avaluem com es poden implementar i aplicar aquests mètodes o tècniques d'interpretació a problemes reals, creant una Toolbox de python.
SubjectsMachine learning, Image processing, Artificial intelligence, Robot vision, Aprenentatge automàtic, Imatges -- Processament, Intel·ligència artificial, Visió artificial (Robòtica)
DegreeGRAU EN ENGINYERIA DE TECNOLOGIES I SERVEIS DE TELECOMUNICACIÓ (Pla 2015)
URIhttp://hdl.handle.net/2117/168559
Collections
  • Escola Tècnica Superior d'Enginyeria de Telecomunicació de Barcelona - Grau en Enginyeria de Tecnologies i Serveis de Telecomunicació (Pla 2015) [718]
Share:
 
  View Usage Statistics

Show full item record

FilesDescriptionSizeFormatView
TFGMain.pdf22,72MbPDFView/Open

Browse

This CollectionBy Issue DateAuthorsOther contributionsTitlesSubjectsThis repositoryCommunities & CollectionsBy Issue DateAuthorsOther contributionsTitlesSubjects

© UPC Obrir en finestra nova . Servei de Biblioteques, Publicacions i Arxius

info.biblioteques@upc.edu

  • About This Repository
  • Contact Us
  • Send Feedback
  • Privacy Settings
  • Inici de la pàgina