Descripción del proyecto
EL OBJETIVO FINAL DEL MACHINE LEARNING (ML) ES APOYAR LA TOMA DE DECISIONES. LA INTELIGENCIA ARTIFICIAL EXPLICABLE (XAI) COMPRENDE EL DISEÑO DE SISTEMAS DE ML MAS INTERPRETABLES, LO QUE EXTIENDE SU APLICABILIDAD: FACILITANDO SU DISEÑO, AUMENTANDO LA ROBUSTEZ, MEJORANDO LA IMPARCIALIDAD Y HACIENDO QUE LA AUDIENCIA ENTIENDA Y CONFIE EN ELLOS (TOMA DE DECISIONES CENTRADA EN EL SER HUMANO). EL ML EXPLICABLE (XML) PERMITE SATISFACER LAS EXIGENCIAS DE LOS SISTEMAS INTELIGENTES MODERNOS EN AREAS COMO MEDICINA, DERECHO, FINANZAS O SEGURIDAD: ECUANIMIDAD, RENDICION DE CUENTAS, PRIVACIDAD, ROBUSTEZ, CONFIANZA, ETC. (FATE IN AI), POSIBILITANDO UNA APLICACION EFECTIVA DE LA INTELIGENCIA ARTIFICIAL RESPONSABLE (RAI).CONFIA ES UN PROYECTO FUERTEMENTE MULTIDISCIPLINAR CENTRADO EN AVANZAR EN EL DESARROLLO DE LA XAI/RAI MEDIANTE: 1) EL DISEÑO DE MODELOS INTERPRETABLES PARA NUEVOS PROBLEMAS DE DIVERSOS DOMINIOS EN LOS QUE EL EQUIPO TIENE UNA GRAN EXPERIENCIA: ANTROPOLOGIA FORENSE E IDENTIFICACION HUMANA Y SISTEMAS SOCIALES DE COMPORTAMIENTO HUMANO (MARKETING, POLITICA, TEORIA EVOLUTIVA DE JUEGOS, DINAMICA DE OPINIONES, ETC.), QUE CUMPLAN LAS EXIGENCIAS DE PRECISION Y CONFIANZA DE LA AUDIENCIA, Y 2) LA EXTENSION DE ESAS SOLUCIONES A OTRAS AREAS, DEFINIENDO METODOLOGIAS GENERALES, CARACTERIZANDO LAS TIPOLOGIAS DE PROBLEMAS DE XML EN LAS QUE SE PUEDEN APLICAR Y RELACIONANDOLAS CON LAS EXIGENCIAS DE INTERPRETABILIDAD REQUERIDAS POR DISTINTOS TIPOS DE AUDIENCIA.PARA ELLO, USAREMOS UN RANGO AMPLIO DE TECNOLOGIAS DE XML/XAI, DESDE MODELOS INTERPRETABLES PER SE HASTA TECNICAS POST HOC DE INTERPRETACION DE MODELOS DE CAJA NEGRA CUANDO LA PRECISION NECESITE TECNICAS COMO DEEP LEARNING, PASANDO POR MODELOS HIBRIDOS COMO LOS NEURO-SIMBOLICOS. PARA ELEGIRLOS, ANALIZAREMOS EL TIPO DE INTERPRETABILIDAD ESPERADA POR LA AUDIENCIA Y SEGUIREMOS EL PARADIGMA DE LA CIENCIA DE DATOS GUIADA POR TEORIAS, QUE INCORPORA EL CONOCIMIENTO DISPONIBLE EN EL AREA. EMPLEAREMOS TAMBIEN PROCEDIMIENTOS EXPLICABLES DE FUSION DE DATOS PARA COMBINAR LOS MODELOS Y LAS FUENTES DE INFORMACION DISPONIBLES. FINALMENTE, VALIDAREMOS LA PRECISION, LA EXPLICABILIDAD Y LA CONFIANZA DE LAS SOLUCIONES OBTENIDAS CON LOS EXPERTOS, ASI COMO LA VALIDEZ DEL NUEVO CONOCIMIENTO APORTADO.CONFIA SUPONE UN DESAFIO IMPORTANTE, PERO LA EXPERIENCIA Y CAPACIDAD DE LOS IPS (RECONOCIDOS INTERNACIONALMENTE EN EL AREA) Y DEL AMPLIO EQUIPO MULTIDISCIPLINAR CON MUCHOS AÑOS DE TRABAJO CONJUNTO (INCLUYENDO EXPERTOS REPUTADOS INTERNACIONALMENTE EN LOS DOMINIOS DE APLICACION) JUNTO CON LOS DESARROLLOS PREVIOS REALIZADOS EN PROYECTOS NACIONALES E INTERNACIONALES ASEGURA EL EXITO. AUNQUE LA PROPUESTA ES MUY NOVEDOSA, NOS BASAREMOS EN ALGUNOS RESULTADOS DE 3 PROYECTOS CONSECUTIVOS DEL PLAN NACIONAL (SOCOVIFI2 TIN2012-38525-C02, NEWSOCO TIN2015-67661-P Y EXASOCO PGC2018-101216-B-I00). LA TRANSFERENCIA DE CONOCIMIENTO AL SECTOR PRODUCTIVO Y EL ALTO IMPACTO SOCIO-ECONOMICO ESTAN GARANTIZADOS AL DISPONER DE 3 PATENTES EN EXPLOTACION (Y OTRAS 3 SOLICITADAS) Y HABERSE COMERCIALIZADO 2 SISTEMAS DE AYUDA A LA DECISION EN IDENTIFICACION FORENSE (SKELETON-ID, POR UNA SPIN-OFF DEL GRUPO) Y MARKETING (ZIO ANALYTICS, POR R0D BRAND CONSULTANTS), USADOS EN VARIOS PROYECTOS CON LABORATORIOS FORENSES Y CUERPOS DE SEGURIDAD DEL ESTADO, Y GRANDES EMPRESAS, RESPECTIVAMENTE. LA DIFUSION CIENTIFICA EN REVISTAS JCR Y CONGRESOS TOP TAMBIEN ESTA ASEGURADA AL HABERSE PUBLICADO MAS DE 20 ARTICULOS JCR DE PRIMER NIVEL EN CADA PROYECTO ANTERIOR. NTELIGENCIA ARTIFICIAL EXPLICABLE\COMPUTACION SOCIAL\ANTROPOLOGIA FORENSE E IDENTIFICACION HU\MODELOS BASADOS EN AGENTES\DEEP LEARNING\SISTEMAS BASADOS EN REGLAS Y REGRESION S\FUSION DE DATOS INTERPRETABLE\CIENCIA DE DATOS GUIADA POR TEORIAS\TOMA DE DECISIONES CENTRADA EN EL SER HU\INTELIGENCIA ARTIFICIAL RESPONSABLE