ARGUMENTATION-DRIVEN EXPLAINABLE ARTIFICIAL INTELLIGENCE FOR DIGITAL MEDICINE
PROPORCIONAR EXPLICACIONES DE ALTA CALIDAD PARA LAS PREDICCIONES DE SISTEMAS DE INTELIGENCIA ARTIFICIAL BASADAS EN EL APRENDIZAJE AUTOMATICO ES UNA TAREA AMBICIOSA Y COMPLEJA. PARA QUE FUNCIONE BIEN SE REQUIERE, ENTRE OTROS FACTOR...
ver más
Descripción del proyecto
PROPORCIONAR EXPLICACIONES DE ALTA CALIDAD PARA LAS PREDICCIONES DE SISTEMAS DE INTELIGENCIA ARTIFICIAL BASADAS EN EL APRENDIZAJE AUTOMATICO ES UNA TAREA AMBICIOSA Y COMPLEJA. PARA QUE FUNCIONE BIEN SE REQUIERE, ENTRE OTROS FACTORES: SELECCIONAR UN NIVEL ADECUADO DE GENERALIDAD / ESPECIFICIDAD DE LA EXPLICACION; CONSIDERAR LOS SUPUESTOS SOBRE LA FAMILIARIDAD DEL BENEFICIARIO DE LA EXPLICACION CON LA TAREA DE INTELIGENCIA ARTIFICIAL EN CONSIDERACION; REFERIRSE A ELEMENTOS ESPECIFICOS QUE HAN CONTRIBUIDO A LA DECISION; HACER USO DE CONOCIMIENTOS ADICIONALES (POR EJEMPLO, METADATOS) QUE PODRIAN NO SER PARTE DEL PROCESO DE PREDICCION; SELECCIONAR EJEMPLOS APROPIADOS; PROPORCIONAR EVIDENCIA QUE RESPALDE LA HIPOTESIS NEGATIVA. FINALMENTE, EL SISTEMA NECESITA FORMULAR LA EXPLICACION DE UNA MANERA CLARAMENTE INTERPRETABLE Y POSIBLEMENTE CONVINCENTE.ANTE ESTAS CONSIDERACIONES, EL PROYECTO ANTIDOTE FOMENTA UNA VISION INTEGRADA DE LA INTELIGENCIA ARTIFICIAL EXPLICABLE, DONDE SE COMBINAN CARACTERISTICAS DE BAJO NIVEL DEL PROCESO DE APRENDIZAJE PROFUNDO CON ESQUEMAS DE NIVEL SUPERIOR PROPIOS DE LA CAPACIDAD DE ARGUMENTACION HUMANA. LA VISION INTEGRADA ANTIDOTE ESTA RESPALDADA POR TRES CONSIDERACIONES: (I) EN ARQUITECTURAS NEURONALES, LA CORRELACION ENTRE LOS ESTADOS INTERNOS DE LA RED (POR EJEMPLO, PESOS ASUMIDOS POR NODOS INDIVIDUALES) Y LA JUSTIFICACION DEL RESULTADO DE LA CLASIFICACION DE LA RED NO ESTA BIEN ESTUDIADA; (II) LAS EXPLICACIONES DE ALTA CALIDAD SE BASAN FUNDAMENTALMENTE EN MECANISMOS DE ARGUMENTACION (POR EJEMPLO, PROPORCIONAR EJEMPLOS DE APOYO Y ALTERNATIVAS RECHAZADAS), QUE SON, EN GRAN MEDIDA, INDEPENDIENTES DE LA TAREA; (III) EN ESCENARIOS REALES, PROPORCIONAR EXPLICACIONES ES INHERENTEMENTE UN PROCESO INTERACTIVO, DONDE TIENE LUGAR UN DIALOGO EXPLICATIVO ENTRE EL SISTEMA Y EL USUARIO. EN CONSECUENCIA, ANTIDOTE EXPLOTARA LAS COMPETENCIAS INTERDISCIPLINARIAS EN TRES AREAS, A SABER, APRENDIZAJE PROFUNDO, ARGUMENTACION E INTERACTIVIDAD, PARA RESPALDAR UNA VISION MAS AMPLIA E INNOVADORA DE LA INTELIGENCIA ARTIFICIAL EXPLICABLE. AUNQUE VISUALIZAMOS UN ENFOQUE GENERAL INTEGRADO PARA LA INTELIGENCIA ARTIFICIAL EXPLICABLE, NOS CENTRAREMOS EN UNA SERIE DE TAREAS DE APRENDIZAJE PROFUNDO EN EL DOMINIO MEDICO, DONDE LA NECESIDAD DE EXPLICACIONES DE ALTA CALIDAD PARA LA DELIBERACION DE CASOS CLINICOS ES FUNDAMENTAL. RGUMENTACION\EXPLAINABLE AI\PROCESAMIENTO DE TEXTOS MEDICOS\PROCESAMIENTO DEL LENGUAJE NATURAL\DEEP LEARNING
Seleccionando "Aceptar todas las cookies" acepta el uso de cookies para ayudarnos a brindarle una mejor experiencia de usuario y para analizar el uso del sitio web. Al hacer clic en "Ajustar tus preferencias" puede elegir qué cookies permitir. Solo las cookies esenciales son necesarias para el correcto funcionamiento de nuestro sitio web y no se pueden rechazar.
Cookie settings
Nuestro sitio web almacena cuatro tipos de cookies. En cualquier momento puede elegir qué cookies acepta y cuáles rechaza. Puede obtener más información sobre qué son las cookies y qué tipos de cookies almacenamos en nuestra Política de cookies.
Son necesarias por razones técnicas. Sin ellas, este sitio web podría no funcionar correctamente.
Son necesarias para una funcionalidad específica en el sitio web. Sin ellos, algunas características pueden estar deshabilitadas.
Nos permite analizar el uso del sitio web y mejorar la experiencia del visitante.
Nos permite personalizar su experiencia y enviarle contenido y ofertas relevantes, en este sitio web y en otros sitios web.