Descripción del proyecto
LA CAPACIDAD DE ENTENDER POR QUE, CUANDO, DONDE, COMO Y PARA QUIEN SE ACTIVO UN COMPORTAMIENTO DETERMINADO EN UN ROBOT, ES LA PIEDRA ANGULAR PARA CONSEGUIR ROBOTS SOCIALMENTE ACEPTABLES POR LAS PERSONAS. CADA ACCION DE UN ROBOT DEBERIA PODER SER EXPLICADA Y AUDITADA.ADEMAS, LOS COMPORTAMIENTOS DE LOS ROBOTS, TANTO LOS ESPERADOS COMO LOS INESPERADOS, DEBERIAN TENER ASOCIADA UNA FIRMA QUE PERMITIESE SABER QUE COMPONENTES Y EVENTOS DIERON LUGAR A SU EJECUCION. TODO UN CAMPO DE INVESTIGACION, LA INTELIGENCIA ARTIFICIAL EXPLICABLE (XAI) SE CENTRA EN ESTE PROBLEMA DE ENTENDER LOS MECANISMOS SUBYACENTES EN LOS SISTEMAS AUTONOMOS Y ENCONTRAR SOLUCIONES A SU EXPLICABILIDAD.EN ESE SENTIDO, EL PROYECTO PROPUESTO PARTE DEL CONCEPTO DE RESPONSABILIDAD (ACCOUNTABILITY), QUE IMPLICA QUE UN AGENTE DEBE RENDIR CUENTAS DE SUS ACTIVIDADES APORTANDO EVIDENCIAS VERIFICABLES. EN ESE MISMO SENTIDO, TODAS LAS ACCIONES DESARROLLADAS POR UN ROBOT DEBEN SER RASTREABLES Y DEBE SER POSIBLE IDENTIFICAR LOS SUCESOS QUE HAN DISPARADO LA EJECUCION DE ESAS ACCIONES. EL PROYECTO PROPONE UNA APROXIMACION BASADA EN EL CICLO DE VIDA COMPLETO, IDENTIFICANDO Y MODELANDO LAS CARACTERISTICAS PRINCIPALES DE UN SISTEMA EXPLICABLE, PROPORCIONANDO ESTOS MODELOS A LA COMUNIDAD ROBOTICA, UTILIZANDO LAS COMPETICIONES ROBOTICAS PARA ANALIZAR EL COMPORTAMIENTO REAL DE LOS ROBOTS, Y FINALMENTE OFRECIENDO LA INFORMACION GENERADA A LOS MIEMBROS DE LA COMUNIDAD ROBOTICA EN FORMA DEPILDORAS DE FORMACION. ASI, SE PLANTEAN VISITAS A CENTROS DE INVESTIGACION ROBOTICOS ESPECIALIZADOS EN SEGURIDAD Y CIBERSEGURIDAD, COMO METODO DE VALIDACION DEL MODELO. EL OBJETIVO ES PROMOCIONAR EL FRAMEWORK QUE SE DESARROLLARA EN EL PROYECTO Y PROPORCIONAR LA MISMA FORMACION QUE SE ESTABLEZCA EN EL PROYECTO POR TODA EUROPA.EL OBJETIVO DEL PROYECTO PROPUESTO ES DESARROLLAR UN FRAMEWORK PARA GENERAR LA EXPLICABILIDAD EN UN ROBOT AUTONOMO. EL PROYECTO PROPONE LA IDEA DE UN SISTEMA DE AUDITORIA BASADO EN LOS LOGS, QUE ES UN MECANISMO PRESENTE POR DEFECTO EN LOS ROBOTS. TAMBIEN SE PROPONE UN MECANISMO QUE TRADUZCA LA INFORMACION OBTENIDA POR EL SISTEMA A UN LENGUAJE COMPRENSIBLE POR LOS USUARIOS NO TECNICOS.ESTE FRAMEWORK SE CONSTRUIRA COMO UN SISTEMA DE DOS NIVELES. EL PRIMER NIVEL SE ENCARGARA DE PROCESAR LA INFORMACION CRUDA PROVENIENTE DE LOS LOGS, QUE ES UTIL PARA DESARROLLADORES E INTEGRADORES. EL SEGUNDO NIVEL PRODUCIRA LAS EXPLICACIONES AL NIVEL DE LOS COMPORTAMIENTOS ROBOTICOS, COMPRENSIBLES POR EL PUBLICO GENERAL.EL PROYECTO TAMBIEN ABORDARA EL PROBLEMA DE LA ESTANDARIZACION DE LOS MECANISMOS PARA LA REALIZACION DE AUDITORIAS. LA MAYORIA DE LOS ROBOTS AUTONOMOS DESPLEGADOS ACTUALMENTE EN ENTORNOS REALES NO DISPONEN DE SISTEMAS ESTANDARIZADOS PARA REALIZAR AUDITORIAS MIENTRAS EL ROBOT ESTA GENERANDO COMPORTAMIENTO AUTONOMO, Y CUANDO DISPONE DE EL, ESE MECANISMO CREA PROBLEMAS DE RENDIMIENTO QUE ADULTERAN LA AUDITORIA. TAMBIEN DEBE TENERSE EN CUENTA, QUE CUANDO LA AUDITORIA SEA FORENSE, ESTO ES, PARA DETERMINAR A POSTERIORI QUIEN ES LEGALMENTE RESPONSABLE DE LAS ACCIONES DESARROLLADAS POR UN ROBOT, ES NECESARIO QUE SE HAYAN ESTABLECIDO MECANISMOS SEGUROS, NO MODIFICABLES DE REGISTRO, GRABACION DE DATOS, ETC. PROBLEMAS QUE SERAN ABORDADOS EN EL SEGUNDO SUBPROYECTO, ESTRECHAMENTE LIGADO A ESTE. OBOTICA\SISTEMAS AUTONOMOS\INTELIGENCIA ARTIFICIAL\CIBERSEGURIDAD