Show simple item record

dc.contributorMoran Pomes, David
dc.contributorBéjar Alonso, Javier
dc.contributor.authorPavia Pardo, Andreu
dc.contributor.otherFacultat d'Informàtica de Barcelona
dc.date.accessioned2022-02-15T19:34:26Z
dc.date.available2022-02-15T19:34:26Z
dc.date.issued2022-01-26
dc.identifier.urihttp://hdl.handle.net/2117/362451
dc.description.abstractEls models de Deep Learning (DL) s'estan convertint en un dels camps del Machine Learning (ML) més extesos en el seu ús. Tot i això, la gran quantitat de paràmetres i operacions que realitzen les xarxes neuronals les fan massa complexes per a que un humà pugui entendre les accions i decisions que prenen. L'opacitat del funcionament d'aquests models requereix d'algun sistema que expliqui i justifiqui les prediccions que se n'obtenen. Aquesta justificació és necessària en molts casos del món real, des del camp de la medicina al legislatiu, on es tracta informació sensible que requereix una confiança en que les decisions del model siguin correctes. En el cas d'aquest projecte, la motivació de les explicacions ve donada per l'aplicacació del DL al camp de les companyies asseguradores, entre les quals hi ha el Grup Catalana Occident (GCO) que és on s'ha desenvolupat aquest projecte. L'explicabilitat en models d'aprenentatge automàtic, i concretament de DL ha evolucionat molt al llarg dels darrers anys, i en l'actualitat hi ha una gran quantitat de mètodes per a obtenir explicacions. L'objectiu d'aquest projecte és la recopilació i homogeneització de diversos algoritmes d'explicabilitat enfocats al Deep Learning, principalment agrupats en mètodes Globals (explicacions generals del model) i mètodes Locals (explicacions de prediccions concretes). Amb les definicions i la unificació de notació d'aquests mètodes s'ha fet una implementació bàsica de tots ells sobre el conjunt de dades públic ''Adult Data Set'', i una posterior adaptació per un dataset privat de l'empresa, que serveixi com a guia per a la futura implementació d'una llibreria que permeti aplicar out-of-the-box aquests algoritmes en nous projectes que utilitzin models de DL.
dc.description.abstractDeep Learning (DL) models are becoming one of the most widespread fields of Machine Learning (ML) in use. However, due to the large number of parameters and operations performed by neural networks, they make them too complex for a human to understand the actions and decisions they make. The opacity of the networks decision making requires some system that explains and justifies the predictions obtained. This justification is necessary in many cases in the real world, from the field of medicine to legislature, where sensitive information is involved that requires user trust in the model's decision making. In the case of this project, the motivation for the explanations is given by the application of DL in the field of insurance companies, among which is the Grup Catalana Occidente (GCO) which is where this project has been developed. The explainability in machine learning models, and specifically in DL, has evolved a lot over the last few years, and today there are a lot of methods to get explanations. The aim of this project is to compile and unify various explainability algorithms focused on deep learning, mainly grouped into Global methods (general explanations of the model) and Local methods (explanations of specific predictions). Given the definitions and unification of these methods, a basic implementation of all of them has been made on a public data set ''Adult Data Set'', and a subsequent adaptation on a private dataset that belongs to the company, which will serve as a guide for future implementation of explainable DL algorithms for projects that are built with neural networks.
dc.language.isocat
dc.publisherUniversitat Politècnica de Catalunya
dc.subjectÀrees temàtiques de la UPC::Informàtica::Intel·ligència artificial
dc.subject.lcshArtificial intelligence
dc.subject.lcshDeep learning
dc.subject.lcshNeural networks (Computer science)
dc.subject.otheraprenentatge
dc.subject.otherprofund
dc.subject.otherautomàtic
dc.subject.othersupervisat
dc.subject.otherexplicabilitat
dc.subject.otherinterpretabilitat
dc.subject.otherimportància
dc.subject.otheria
dc.subject.otherxarxes
dc.subject.otherneuronals
dc.subject.otherartificials
dc.subject.otherdeep
dc.subject.otherlearning
dc.subject.othermachine
dc.subject.othersupervised
dc.subject.otherexplainable
dc.subject.otherai
dc.subject.otherinterpretable
dc.subject.otherinterpretability
dc.subject.otherexplainability
dc.subject.otherneural
dc.subject.othernetworks
dc.subject.otherartificial
dc.titleExplicabilitat en models de deep learning
dc.typeBachelor thesis
dc.subject.lemacIntel·ligència artificial
dc.subject.lemacAprenentatge profund
dc.subject.lemacXarxes neuronals (Informàtica)
dc.identifier.slug165183
dc.rights.accessRestricted access - confidentiality agreement
dc.date.updated2022-02-02T05:00:30Z
dc.audience.educationlevelGrau
dc.audience.mediatorFacultat d'Informàtica de Barcelona
dc.audience.degreeGRAU EN ENGINYERIA INFORMÀTICA (Pla 2010)


Files in this item

Thumbnail

This item appears in the following Collection(s)

Show simple item record