Descripción del proyecto
UN GRAN RETO QUE AFRONTA LA DIGITALIZACION EN MATERIA DE DERECHOS CIVILES DE LA CIUDADANIA ES LA DEFENSA DE LA IGUALDAD EN EL MUNDO DIGITAL. SOCIALMENTE, DEFENDER LA IGUALDAD SIGNIFICA TRABAJAR PARA AUMENTAR OPORTUNIDADES DE MINORIAS Y PERSONAS CON MENOS RECURSOS ECONOMICOS Y CULTURALES. LA INVESTIGACION EN CIENCIAS SOCIALES MOSTRO DESDE SUS INICIOS QUE LOS ESTEREOTIPOS Y PREJUICIOS SOBRE GRUPOS ETNICOS MINORITARIOS Y MUJERES SON UNA GRAN DIFICULTAD QUE ESTOS GRUPOS DEBEN SUPERAR PARA DESARROLLAR SU POTENCIAL COMO HUMANOS. ESTOS ESTEREOTIPOS Y PREJUICIOS DISCRIMINATORIOS ESTAN ARRAIGADOS EN EL LENGUAJE COTIDIANO. ESTO SIGNIFICA QUE SON APRENDIDOS Y, A VECES POTENCIADOS, POR NUESTROS SISTEMAS DE IA QUE USAN TECNICAS DE PLN. MUCHAS INVESTIGACIONES SOBRE SESGO SOCIAL HAN DEMOSTRADO QUE AUTOMATIZAR DECISIONES PUEDE REPRODUCIR PREJUICIOS Y ESTEREOTIPOS QUE LLEVAN A MAYOR DISCRIMINACION Y DESIGUALDAD. PARA LUCHAR CONTRA ESTE PROBLEMA, FAIRTRANSNLP-STEREOTYPES DESARROLLARA UNA ESTRATEGIA PARA MITIGAR LA INCLUSION DE PREJUICIOS Y ESTEREOTIPOS EN LOS MODELOS DE APRENDIZAJE AUTOMATICO. PRIMERO, PROPONDREMOS UN NUEVO ENFOQUE PARA IDENTIFICAR ESTEREOTIPOS Y PREJUICIOS EN REDES SOCIALES. ESTUDIAREMOS VARIOS GRUPOS SOCIALES QUE SON BLANCO DEL PREJUICIO (P.EJ., INMIGRANTES Y MUJERES) EN TEXTOS Y MEMES, TENIENDO EN CUENTA LAS ESTRATEGIAS RETORICAS IMPLICITAS Y EXPLICITAS PARA DISCRIMINAR A MINORIAS EN INFORMACION TEXTUAL Y VISUAL. DESPUES, UN ESTUDIO EXHAUSTIVO DEL PROBLEMA PERMITIRA DESARROLLAR SISTEMAS EQUITATIVOS QUE MUESTREN VARIOS PUNTOS DE VISTA, NO SOLO EL MAYORITARIO. ESTOS SISTEMAS OPERARAN SOBRE DATOS CON ETIQUETAS "CONFLICTIVAS", PARA NO MARGINAR LOS PUNTOS DE VISTA MINORITARIOS. USAREMOS EL PARADIGMA DEL APRENDIZAJE CON DESACUERDOS (AD) Y, EN LUGAR DE APRENDER SOLO DEL GOLD STANDARD (CONJUNTO DE ETIQUETAS VALIDADO POR LA MAYORIA), LOS SISTEMAS APRENDERAN TANTO DE ETIQUETAS QUE HAN CONSEGUIDO APOYO MAYORITARIO COMO DE LA DISTRIBUCION DE ETIQUETAS ENTRE MULTIPLES ANOTADORES QUE NO HAN MOSTRADO ACUERDO, QUE TRATAREMOS COMO SOFT LABEL DISTRIBUTIONS, ES DECIR, DISTRIBUCIONES DE PROBABILIDAD SOBRE LAS ETIQUETAS DE LOS ANOTADORES. LOS MODELOS ENTRENADOS CON LAS DISTRIBUCIONES DE PROBABILIDAD SOBRE LAS ETIQUETAS DE LOS ANOTADORES REDUCIRAN LA CONFIANZA CUANDO SEAN CASOS POCO CLAROS, SIN AFECTAR LA PREDICCION DE LOS CASOS CLAROS. FINALMENTE, HAREMOS QUE LOS SISTEMAS SEAN EXPLICABLES PARA HUMANOS, DESARROLLANDO SISTEMAS JUSTOS Y TRANSPARENTES PARA IDENTIFICACION DE ESTEREOTIPOS Y PREJUICIOS EN TEXTOS Y MEMES. ESTO ES CRUCIAL EN APLICACIONES DE IA EN LA VIDA COTIDIANA, TANTO PARA QUE LOS DESARROLLADORES ENTIENDAN MEJOR EL COMPORTAMIENTO DE SU SISTEMA COMO PARA QUE LOS USUARIOS GANEN CONFIANZA EN EL. INCORPORAREMOS TECNICAS COMO LIME, TECNICA DE ENMASCARAMIENTO Y MECANISMOS DE ATENCION PARA ASEGURAR QUE LOS SISTEMAS OFREZCAN EXPLICACIONES TRANSPARENTES Y COMPRENSIBLES DE SUS DECISIONES. ORGANIZAREMOS, JUNTO CON LA UB Y LA UNED, DOS TAREAS SOBRE IDENTIFICACION DE ESTEREOTIPOS RACIALES Y SEXISMO EN MEMES. ESTOS ESCENARIOS DE REFERENCIA PERMITIRAN PROBAR LOS SISTEMAS BAJO EL PARADIGMA DEL AD. APROVECHANDO METRICAS ESTANDAR PARA LOS GOLD LABELS, COMPARAREMOS EL EFECTO DE DIFERENTES FUNCIONES DE PERDIDA PARA SOFT LABELS. EVALUAREMOS EL RENDIMIENTO DE LOS SISTEMAS UTILIZANDO METRICAS COMO ENTROPIA CRUZADA Y DIVERGENCIA DE KULLBACK-LEIBLER. EVALUAREMOS SU EQUIDAD Y TRANSPARENCIA USANDO LA METODOLOGIA DE DIAGNOSTICO QUE PROPONDREMOS EN FAIRTRANSNLP. QUIDAD\SEXISMO\ESTEREOTIPOS RACISTAS\APRENDIZAJE CON DESACUERDOS\INTELIGENCIA ARTIFICIAL EXPLICABLE\TRANSPARECIA