ARGUMENTATION-DRIVEN EXPLAINABLE ARTIFICIAL INTELLIGENCE FOR DIGITAL MEDICINE
PROPORCIONAR EXPLICACIONES DE ALTA CALIDAD PARA LAS PREDICCIONES DE SISTEMAS DE INTELIGENCIA ARTIFICIAL BASADAS EN EL APRENDIZAJE AUTOMATICO ES UNA TAREA AMBICIOSA Y COMPLEJA. PARA QUE FUNCIONE BIEN SE REQUIERE, ENTRE OTROS FACTOR...
ver más
Financiación
concedida
El organismo AGENCIA ESTATAL DE INVESTIGACIÓN notifico la concesión del proyecto
el día 2020-01-01
No tenemos la información de la convocatoria
0%
100%
Información adicional privada
No hay información privada compartida para este proyecto. Habla con el coordinador.
¿Tienes un proyecto y buscas un partner? Gracias a nuestro motor inteligente podemos recomendarte los mejores socios y ponerte en contacto con ellos. Te lo explicamos en este video
Proyectos interesantes
ChatMED
Bridging Research Institutions to Catalyze Generative AI Ado...
1M€
Cerrado
EchoLux
Intelligent Optoacoustic Radiomics via Synergistic Integrati...
1M€
Cerrado
Descripción del proyecto
PROPORCIONAR EXPLICACIONES DE ALTA CALIDAD PARA LAS PREDICCIONES DE SISTEMAS DE INTELIGENCIA ARTIFICIAL BASADAS EN EL APRENDIZAJE AUTOMATICO ES UNA TAREA AMBICIOSA Y COMPLEJA. PARA QUE FUNCIONE BIEN SE REQUIERE, ENTRE OTROS FACTORES: SELECCIONAR UN NIVEL ADECUADO DE GENERALIDAD / ESPECIFICIDAD DE LA EXPLICACION; CONSIDERAR LOS SUPUESTOS SOBRE LA FAMILIARIDAD DEL BENEFICIARIO DE LA EXPLICACION CON LA TAREA DE INTELIGENCIA ARTIFICIAL EN CONSIDERACION; REFERIRSE A ELEMENTOS ESPECIFICOS QUE HAN CONTRIBUIDO A LA DECISION; HACER USO DE CONOCIMIENTOS ADICIONALES (POR EJEMPLO, METADATOS) QUE PODRIAN NO SER PARTE DEL PROCESO DE PREDICCION; SELECCIONAR EJEMPLOS APROPIADOS; PROPORCIONAR EVIDENCIA QUE RESPALDE LA HIPOTESIS NEGATIVA. FINALMENTE, EL SISTEMA NECESITA FORMULAR LA EXPLICACION DE UNA MANERA CLARAMENTE INTERPRETABLE Y POSIBLEMENTE CONVINCENTE.ANTE ESTAS CONSIDERACIONES, EL PROYECTO ANTIDOTE FOMENTA UNA VISION INTEGRADA DE LA INTELIGENCIA ARTIFICIAL EXPLICABLE, DONDE SE COMBINAN CARACTERISTICAS DE BAJO NIVEL DEL PROCESO DE APRENDIZAJE PROFUNDO CON ESQUEMAS DE NIVEL SUPERIOR PROPIOS DE LA CAPACIDAD DE ARGUMENTACION HUMANA. LA VISION INTEGRADA ANTIDOTE ESTA RESPALDADA POR TRES CONSIDERACIONES: (I) EN ARQUITECTURAS NEURONALES, LA CORRELACION ENTRE LOS ESTADOS INTERNOS DE LA RED (POR EJEMPLO, PESOS ASUMIDOS POR NODOS INDIVIDUALES) Y LA JUSTIFICACION DEL RESULTADO DE LA CLASIFICACION DE LA RED NO ESTA BIEN ESTUDIADA; (II) LAS EXPLICACIONES DE ALTA CALIDAD SE BASAN FUNDAMENTALMENTE EN MECANISMOS DE ARGUMENTACION (POR EJEMPLO, PROPORCIONAR EJEMPLOS DE APOYO Y ALTERNATIVAS RECHAZADAS), QUE SON, EN GRAN MEDIDA, INDEPENDIENTES DE LA TAREA; (III) EN ESCENARIOS REALES, PROPORCIONAR EXPLICACIONES ES INHERENTEMENTE UN PROCESO INTERACTIVO, DONDE TIENE LUGAR UN DIALOGO EXPLICATIVO ENTRE EL SISTEMA Y EL USUARIO. EN CONSECUENCIA, ANTIDOTE EXPLOTARA LAS COMPETENCIAS INTERDISCIPLINARIAS EN TRES AREAS, A SABER, APRENDIZAJE PROFUNDO, ARGUMENTACION E INTERACTIVIDAD, PARA RESPALDAR UNA VISION MAS AMPLIA E INNOVADORA DE LA INTELIGENCIA ARTIFICIAL EXPLICABLE. AUNQUE VISUALIZAMOS UN ENFOQUE GENERAL INTEGRADO PARA LA INTELIGENCIA ARTIFICIAL EXPLICABLE, NOS CENTRAREMOS EN UNA SERIE DE TAREAS DE APRENDIZAJE PROFUNDO EN EL DOMINIO MEDICO, DONDE LA NECESIDAD DE EXPLICACIONES DE ALTA CALIDAD PARA LA DELIBERACION DE CASOS CLINICOS ES FUNDAMENTAL. RGUMENTACION\EXPLAINABLE AI\PROCESAMIENTO DE TEXTOS MEDICOS\PROCESAMIENTO DEL LENGUAJE NATURAL\DEEP LEARNING