Leveraging explainable machine learning to raise awareness among preadolescents about gender bias in supervised learning
Visualitza/Obre
Estadístiques de LA Referencia / Recolecta
Inclou dades d'ús des de 2022
Cita com:
hdl:2117/329448
Tipus de documentProjecte Final de Màster Oficial
Data2020-07-01
Condicions d'accésAccés obert
Tots els drets reservats. Aquesta obra està protegida pels drets de propietat intel·lectual i
industrial corresponents. Sense perjudici de les exempcions legals existents, queda prohibida la seva
reproducció, distribució, comunicació pública o transformació sense l'autorització del titular dels drets
Abstract
The rapid integration of machine learning into our society has emerged the concerns about its potential discrimination in terms of gender and race caused by the unconscious bias introduced in it, which has led to the necessity to incorporate new sustainable practices to reduce its societal implications. Whilst the issue of bias has been proposed as an essential subject to be included in the new AI curricula for schools, research has shown that it is a difficult topic to grasp by children. This study aims to develop an educational platform tailored to raise the awareness of the societal impacts of gender bias in supervised learning. Building on existing work on interpretable machine learning, this thesis is focused on the specific research question assessing whether using an interpretable model in an educational platform has an effect in preadolescents from 10 to 13 years old understanding the concept of bias in these systems and its ethical implications. In this context, an interpretable model is conceived as that able to provide an explanation to its own predictions. A study was carried out in a school in Stockholm employing an online platform developed to include an interpretable model using the Grad-CAM explanation technique to run the experiment. The students were divided into two conditions, differentiated by the use of the explainable model or not, and their understanding of bias was evaluated on an interactive activity where they had to select the most relevant parts of an image used by the model after observing its prediction, along with other multiple choice questions before and after the main activity. Analysis of the answers demonstrated a significant effect when using the interpretable model, improving the ability of preadolescents to recognize the impact of bias in terms of gender discrimination, and identify training data as an essential part in this issue. These results indicate that our proposal of using explainability techniques has an impact on the understanding of bias in machine learning and its ethical implications, providing evidence of its effectiveness to be used in future educational platforms, and potential to be introduced into the new AI curricula guidelines, specifically aimed to raise the awareness of the societal implications of bias in machine learning. La ràpida integració de l'aprenentatge automàtic en la societat ha fet créixer la preocupació en vers a la discriminació de gènere i raça causada per la inconscient introducció de biaix en aquests sistemes, que ha portat a la necessitat d'incorporar noves pràctiques sostenibles per a reduir les implicacions socials que això implica. Si bé es considera essencial incloure la problemàtica del biaix en els nous plans d'estudi que incorporen temàtiques d'intel·ligència artificial per a escoles, diferents estudis de recerca han demostrat que els nens mostren dificultats per entendre aquest concepte. Aquest estudi té per objectiu desenvolupar una plataforma educativa dissenyada per augmentar la conscienciació quant a la implicació social que té el biaix de gènere en tecnologies d'aprenentatge automàtic supervisat. Basant-se en el treball existent sobre \emph{interpretable machine learning}, aquest treball se centra en la qüestió d'investigació específica que avalua si l'ús d'un model interpretable en una plataforma educativa, mostra un efecte en la comprensió per part de preadolescents de 10 a 13 anys del concepte de biaix en aquests sistemes i la seva implicació ètica. En aquest context, un model interpretable s'entén com aquell capaç de proveir d'una explicació a les seves pròpies prediccions. S'ha dut a terme un estudi a una escola d'Estocolm fent servir una plataforma en línia desenvolupada per incloure un model interpretable que utilitza la tècnica d'explicació Grad-CAM per efectuar l'experiment. Els participants han estat dividits en dues condicions, segons la utilització del model explicatiu o no, i la seva comprensió del biaix ha estat avaluada en una activitat interactiva en què havien de seleccionar la part més rellevant que el model hagi utilitzat després de veure la seva predicció, juntament amb altres preguntes d'opció múltiple abans i després de l'activitat principal. L'anàlisi de les respostes ha demostrat un efecte significatiu en utilitzar el model interpretable, millorant l'habilitat dels alumnes en reconèixer l'impacte d'un model esbiaixat quant a discriminació de gènere, i en identificar les dades utilitzades per l'entrenament del sistema com a part essencial en aquesta problemàtica. Aquests resultats indiquen que la nostra proposta d'utilitzar tècniques d'interpretació té un cert impacte en l'enteniment de l'efecte del biaix en l'aprenentatge automàtic i les implicacions en la societat d'aquest, mostrant evidència de l'efectivitat de cara a la seva utilització en plataformes educatives, i potencial per incloure's en nous plans d'estudi sobre intel·ligència artificial, dirigides específicament a incrementar la consciència de les conseqüències a escala social del biaix en l'aprenentatge automàtic.
MatèriesMachine learning, Artificial intelligence, Human-computer interaction, Aprenentatge automàtic, Intel·ligència artificial, Interacció persona-ordinador
TitulacióMÀSTER UNIVERSITARI EN ENGINYERIA DE TELECOMUNICACIÓ (Pla 2013)
Col·leccions
Fitxers | Descripció | Mida | Format | Visualitza |
---|---|---|---|---|
Memoria_GasparMelsion.pdf | 26,29Mb | Visualitza/Obre |