How concepts emerge in neural networks
Visualitza/Obre
TFM Didac Suris.pdf (20,42Mb) (Accés restringit)
supplemental_website.zip (47,76Mb) (Accés restringit)
Estadístiques de LA Referencia / Recolecta
Inclou dades d'ús des de 2022
Cita com:
hdl:2117/127077
Realitzat a/ambMassachusetts Institute of Technology
Tipus de documentProjecte Final de Màster Oficial
Data2018-10-17
Condicions d'accésAccés restringit per decisió de l'autor
Tots els drets reservats. Aquesta obra està protegida pels drets de propietat intel·lectual i
industrial corresponents. Sense perjudici de les exempcions legals existents, queda prohibida la seva
reproducció, distribució, comunicació pública o transformació sense l'autorització del titular dels drets
Abstract
Deep learning models, and more specifically computer vision systems, have achieved great results in recent years. However, the interpretability and understanding of these models is still in its early stages. Interpretability can be approached from a low-level or filter level perspective, but the representations learned by neural networks encompass a much higher-level knowledge that has to be approached from a semantic point of view, with concepts in mind. The goal of this project is to investigate the concepts neural networks learn implicitly when they are trained in an unsupervised scenario, with a special focus on the multimodal matching of words to visual objects and attributes. We study how we can detect these concepts, as well as how we can force the networks to learn more meaningful ones, both providing analytical insights and getting practical results.
Descripció
To be defined at MIT.
MatèriesNeural networks (Computer science), Computer vision, Xarxes neuronals (Informàtica), Visió per ordinador
TitulacióMÀSTER UNIVERSITARI EN ENGINYERIA DE TELECOMUNICACIÓ (Pla 2013)
Col·leccions
Fitxers | Descripció | Mida | Format | Visualitza |
---|---|---|---|---|
TFM Didac Suris.pdf | 20,42Mb | Accés restringit | ||
supplemental_website.zip | 47,76Mb | application/zip | Accés restringit |