Título: Explicaciones dialécticas
Autores: Rotsztein, Ricardo Ariel
García, Alejandro Javier
Simari, Guillermo Ricardo
Fecha: 2012-08-31
2007-05
2007
Publicador: Unversidad Nacional de La Plata
Fuente:


Tipo: Objeto de conferencia
Objeto de conferencia
Tema: Explicaciones
Dialéctica
Intelligent agents
Ciencias Informáticas
Descripción: Este artículo reporta el estudio realizado hasta el momento en la línea de investigación de explicaciones dialécticas [4] y propone direcciones para el trabajo a futuro. Dentro de varias áreas de la Inteligencia Artificial se ha puesto atención al rol de las explicaciones, en particular en sistemas expertos [7, 10, 6]. El objetivo de brindar explicaciones en sistemas expertos es brindar mayor confianza al usuario con respecto a las respuestas dadas por el sistema. No obstante, pocos han analizado el uso de explicaciones dentro de sistemas argumentativos [8]. En general, se habla de ‘argumento’ como una explicación para un literal dado; es decir, el punto siendo explicado es puesto en discusión, y a partir de ahí puede ser aceptado o no. Por ejemplo, el argumento “hoy está lloviendo, por lo cual me voy a quedar a dormir” puede ser una explicación para el literal “hoy no voy a trabajar”. Sin embargo, la razón provista para no ir a trabajar puede ser puesta en tela de juicio. Por otro lado, en revisión de creencias también se ha estudiado el rol de las explicaciones [3]. Estas son utilizadas para resolver inconsistencias entre las creencias y las nuevas percepciones; aquel literal soportado por la explicación más fuerte es el que finalmente prevalecerá. Si bien reconocemos que un argumento en sí puede ser tomado como una explicación para un literal, en esta línea de trabajo estamos enfocados en otro tipo de explicaciones: aquellas que justifican las garantías brindadas por un sistema argumentativo. Nuestro trabajo puede analizarse desde un punto de vista abstracto, y los resultados se implementarán en un formalismo en particular: Defeasible Logic Programming (DeLP) [5]. Este formalismo utiliza programas lógicos rebatibles (de aquí en adelante, DeLP-programs) para representar el conocimiento, y argumentación rebatible para el razonamiento. El procedimiento de prueba utilizado es dialéctico, por lo cual estudiaremos un concepto al que denominaremos explicaciones dialécticas (de aquí en adelante, ±-Explanations). El procedimiento de prueba, ante una consulta (query), responde si puede o no creerse en dicho literal, es decir, si este puede considerarse garantizado. El mecanismo para lograrlo es construir árboles de dialéctica enraizados en un argumento para el literal consultado o para su complemento. Para más detalles referirse a [5]. El conjunto completo de árboles de dialéctica relacionados con la consulta realizada será considerado la ±-Explanation de la respuesta para esa consulta. A lo largo del artículo mostraremos cómo las ±-Explanations son una herramienta poderosa para comprender y analizar las interacciones entre argumentos dentro de un árbol de dialéctica, y para asistir la codificación y el depurado de bases de conocimiento. Actualmente, hay un prototipo implementado en nuestro laboratorio que permite visualizar el conjunto de árboles de dialéctica que justifican la respuesta dada para una consulta. Los ejemplos mostrados en este artículo están generados a partir de este prototipo. En esta línea de investigación se propone el estudio de un área poco explorada: la de explicaciones en sistemas argumentativos. Las explicaciones que proveemos apuntan a revelar el contexto completo de una consulta. Los ejemplos dados en este artículo enfatizan este punto. En la sección que sigue describimos y ejemplificamos las explicaciones dialécticas tanto para consultas fijas como con variables, en la sección 3 discutimos y hacemos una comparación con un acercamiento que se relaciona al nuestro, y en la sección 4 delineamos el trabajo futuro sobre esta línea.
Eje: Agentes y Sistemas Inteligentes
Idioma: Español