dc.contributor | Moran Pomes, David |
dc.contributor | Béjar Alonso, Javier |
dc.contributor.author | Pavia Pardo, Andreu |
dc.contributor.other | Facultat d'Informàtica de Barcelona |
dc.date.accessioned | 2022-02-15T19:34:26Z |
dc.date.available | 2022-02-15T19:34:26Z |
dc.date.issued | 2022-01-26 |
dc.identifier.uri | http://hdl.handle.net/2117/362451 |
dc.description.abstract | Els models de Deep Learning (DL) s'estan convertint en un dels camps del Machine Learning (ML) més extesos en el seu ús. Tot i això, la gran quantitat de paràmetres i operacions que realitzen les xarxes neuronals les fan massa complexes per a que un humà pugui entendre les accions i decisions que prenen. L'opacitat del funcionament d'aquests models requereix d'algun sistema que expliqui i justifiqui les prediccions que se n'obtenen. Aquesta justificació és necessària en molts casos del món real, des del camp de la medicina al legislatiu, on es tracta informació sensible que requereix una confiança en que les decisions del model siguin correctes. En el cas d'aquest projecte, la motivació de les explicacions ve donada per l'aplicacació del DL al camp de les companyies asseguradores, entre les quals hi ha el Grup Catalana Occident (GCO) que és on s'ha desenvolupat aquest projecte. L'explicabilitat en models d'aprenentatge automàtic, i concretament de DL ha evolucionat molt al llarg dels darrers anys, i en l'actualitat hi ha una gran quantitat de mètodes per a obtenir explicacions. L'objectiu d'aquest projecte és la recopilació i homogeneització de diversos algoritmes d'explicabilitat enfocats al Deep Learning, principalment agrupats en mètodes Globals (explicacions generals del model) i mètodes Locals (explicacions de prediccions concretes). Amb les definicions i la unificació de notació d'aquests mètodes s'ha fet una implementació bàsica de tots ells sobre el conjunt de dades públic ''Adult Data Set'', i una posterior adaptació per un dataset privat de l'empresa, que serveixi com a guia per a la futura implementació d'una llibreria que permeti aplicar out-of-the-box aquests algoritmes en nous projectes que utilitzin models de DL. |
dc.description.abstract | Deep Learning (DL) models are becoming one of the most widespread fields of Machine Learning (ML) in use. However, due to the large number of parameters and operations performed by neural networks, they make them too complex for a human to understand the actions and decisions they make. The opacity of the networks decision making requires some system that explains and justifies the predictions obtained. This justification is necessary in many cases in the real world, from the field of medicine to legislature, where sensitive information is involved that requires user trust in the model's decision making. In the case of this project, the motivation for the explanations is given by the application of DL in the field of insurance companies, among which is the Grup Catalana Occidente (GCO) which is where this project has been developed. The explainability in machine learning models, and specifically in DL, has evolved a lot over the last few years, and today there are a lot of methods to get explanations. The aim of this project is to compile and unify various explainability algorithms focused on deep learning, mainly grouped into Global methods (general explanations of the model) and Local methods (explanations of specific predictions). Given the definitions and unification of these methods, a basic implementation of all of them has been made on a public data set ''Adult Data Set'', and a subsequent adaptation on a private dataset that belongs to the company, which will serve as a guide for future implementation of explainable DL algorithms for projects that are built with neural networks. |
dc.language.iso | cat |
dc.publisher | Universitat Politècnica de Catalunya |
dc.subject | Àrees temàtiques de la UPC::Informàtica::Intel·ligència artificial |
dc.subject.lcsh | Artificial intelligence |
dc.subject.lcsh | Deep learning |
dc.subject.lcsh | Neural networks (Computer science) |
dc.subject.other | aprenentatge |
dc.subject.other | profund |
dc.subject.other | automàtic |
dc.subject.other | supervisat |
dc.subject.other | explicabilitat |
dc.subject.other | interpretabilitat |
dc.subject.other | importància |
dc.subject.other | ia |
dc.subject.other | xarxes |
dc.subject.other | neuronals |
dc.subject.other | artificials |
dc.subject.other | deep |
dc.subject.other | learning |
dc.subject.other | machine |
dc.subject.other | supervised |
dc.subject.other | explainable |
dc.subject.other | ai |
dc.subject.other | interpretable |
dc.subject.other | interpretability |
dc.subject.other | explainability |
dc.subject.other | neural |
dc.subject.other | networks |
dc.subject.other | artificial |
dc.title | Explicabilitat en models de deep learning |
dc.type | Bachelor thesis |
dc.subject.lemac | Intel·ligència artificial |
dc.subject.lemac | Aprenentatge profund |
dc.subject.lemac | Xarxes neuronals (Informàtica) |
dc.identifier.slug | 165183 |
dc.rights.access | Restricted access - confidentiality agreement |
dc.date.updated | 2022-02-02T05:00:30Z |
dc.audience.educationlevel | Grau |
dc.audience.mediator | Facultat d'Informàtica de Barcelona |
dc.audience.degree | GRAU EN ENGINYERIA INFORMÀTICA (Pla 2010) |