Show simple item record

dc.contributor.advisorMinker, Wolfgang
dc.contributor.advisorCallejas Carrión, Zoraida 
dc.contributor.authorKraus, Matthias Peter
dc.contributor.otherUniversidad de Granada. Programa de Doctorado en Tecnologías de la Información y la Comunicaciónes_ES
dc.date.accessioned2022-11-02T08:57:31Z
dc.date.available2022-11-02T08:57:31Z
dc.date.issued2022
dc.date.submitted2022-10-21
dc.identifier.citationKraus, Matthias Peter. User-centred Proactive Dialogue Modelling for Trustworthy Conversational Assistants. Granada: Universidad de Granada, 2022. [https://hdl.handle.net/10481/77693]es_ES
dc.identifier.isbn9788411175739
dc.identifier.urihttps://hdl.handle.net/10481/77693
dc.description.abstractThe current wave of artificial intelligence and technological advancements has brought intelligent assistants into our daily lives. Such personal assistants help us with simple tasks, like providing news or weather information, smart home control, or entertainment using natural language. Despite their appraisal as intelligent entities, personal or conversational assistants are in general still stuck in the role of butlers and reactive bystanders that act upon commands. For enhancing the cooperation capability of these systems and unfolding their technical competencies to the fullest, the integration of proactivity has become an emerging research topic in this area. Proactivity implies that technical systems, such as conversational assistants, possess the ability to detect a user’s need for assistance and to initiate appropriate actions accordingly. Even though related work shows the potential benefits of proactive behaviour with regard to human-machine cooperation, the acceptance of proactive technology is still low due to an expectation gap between system behaviour and user requirements. For closing this gap, we propose to equip proactive systems with proactive dialogue management in order to include the user in the system’s decision processes and negotiate appropriate actions. However, how to computationally model timely and relevant proactive dialogue without giving the user the perception of being controlled or invading their privacy is an open question. Inappropriate proactive behaviour may have devastating effects on the cooperation and lead to diminished trust in the system which may compromise the acceptance of this technology. Therefore, this work aims at providing accepted and trustworthy proactive assistance by developing socially and task-effective dialogue models with the overall goal of improving the cooperation between humans and machines. For this, three major contributions are provided. As the first contribution, we present a proactive dialogue model for human-machine cooperation. This concept builds upon two exploratory pilot studies observing the user perception of state-of-the-art approaches for inferring user and system requirements of proactive dialogue for application in cooperative contexts. Based on the outcome of the initial studies we conduct an requirement analysis and provide a taxonomy of proactive dialogue for cooperation. Here, we introduce proactive dialogue act types which represent different autonomy levels of proactive dialogue behaviour. Proactive dialogue in general is considered as the initiation of supporting dialogues for facilitating task execution. Besides, we propose a cognitive system architecture with the goal of implementing proactive dialogue in a technical system using methods of artificial intelligence and human-computer interaction. As a second contribution, we present the design and evaluation of four user-centred proactive dialogue strategies based on the developed proactive dialogue model. Here, the goal is to provide an understanding of the effects of proactive dialogue design on the cooperation not only from a usability point of view but also from a social, user-centred perspective including a system’s trustworthiness. For this, we develop and implement several conversational assistance prototypes, both low- and high-fidelity, that are capable of proactive dialogue. In laboratory and more realistic user studies, we shed light on the effects of proactive dialogue on a system’s usability as well as human-computer trust dependent on task context, user characteristics, and state. These experiments allow to synthesise guidelines for the implementation of user-centered proactive dialogue management into cooperative conversational assistants. As a third and last contribution, we fuse the gained understanding of the social impact of proactive dialogue for implementing user-centred proactive dialogue models with the goal of achieving trusted and task-effective conversational assistants for improving cooperation. In this regard, we provide findings considering the user expectations of useradaptive proactive dialogue and the feasibility of utilising a trust measure for dialogue adaptation. For enabling statistically-driven adaptation methods, a proactive dialogue data corpus is collected and annotated with several features including trust. Based on the provided data, we advance the state-of-the-art for computationally modelling trust during conversational cooperation and present approaches for real-time prediction of trust during dialogue. Evaluation of the trust predictors shows the utility of our approach by achieving reasonable recall and accuracy. Trust prediction is then included in a conversational assistant for realising trust-adaptive proactive dialogue management. For dialogue management, we develop and implement a rule-based and reinforcement learning approach. The high trustworthiness and usability of trust-adaptive proactive dialogue management are proven in a user simulator study, for which a new socially aware user simulator has been developed. In summary, we provide the first user-centred approach for integrating the concept of proactivity in human-computer dialogue. Here, we enhance the social awareness of artificially intelligent systems by equipping them with the ability to reason about their own trustworthiness during cooperation and adapt their proactive dialogue behaviour accordingly. Finally, this enables machines to provide more human-like and natural decisionmaking for appropriately assisting humans in complex task environments. This forms an important step on the way from mere conversational assistants to personal advisors.es_ES
dc.description.abstractEl auge actual de la inteligencia artificial y los avances tecnológicos ha propiciado que los asistentes inteligentes sean cada vez más frecuentes en nuestra vida cotidiana. Estos asistentes personales nos ayudan en tareas sencillas, como informarnos de las ´ultimas noticias, escuchar el parte meteorológico, controlar elementos en un hogar inteligente o acceder a entretenimiento, todo mediante comandos en lenguaje natural. A pesar de ser considerados en muchas ocasiones entidades inteligentes, los asistentes conversacionales personales siguen en general estancados en el rol de mayordomos o espectadores reactivos que actúan en función de las ´ordenes que reciben por parte del usuario. Para mejorar la capacidad de cooperación de estos sistemas y desarrollar su potencial al máximo, la proactividad se ha convertido en un tema de investigación emergente. El que los sistemas conversacionales estén dotados de proactividad implica que tengan la capacidad de detectar las necesidades de sus usuarios y actuar en consecuencia. Aunque los trabajos relacionados con este tema han subrayado los beneficios que la proactividad ofrece para mejorar la cooperación hombre-máquina, la aceptación de la tecnología proactiva sigue siendo escasa debido a la diferencia entre el comportamiento del sistema y las expectativas de los usuarios. Para abordar esta problemática, proponemos dotar a los sistemas de una gestión proactiva del diálogo para incluir al usuario en los procesos de decisión del sistema y poder discernir de forma más adecuada cuáles son las acciones que se esperan. No se trata de una tarea obvia, pues surge el reto de modelar computacionalmente un diálogo proactivo oportuno en el contexto en el que se produce y relevante para el usuario, sin que ´este tenga la percepción de ser controlado o de que se está invadiendo su privacidad. Un comportamiento proactivo inadecuado puede tener efectos devastadores en la cooperación y conducir a una disminución de la confianza en el sistema, lo que puede comprometer la aceptación de esta tecnología. Por lo tanto, este trabajo tiene como objetivo proporcionar asistencia proactiva aceptada y fiable mediante el desarrollo de modelos de diálogo que mejoren la cooperación entre humanos y máquinas. Con tal fin, se ofrecen tres contribuciones principales. Como primera contribución, presentamos un modelo de diálogo proactivo para la cooperación hombre-máquina. El concepto presentado se basa en dos estudios piloto exploratorios en contextos de cooperación hombre-máquina, en los que se observa la percepción que tienen los usuarios de los enfoques más avanzados para inferir sus expectativas y necesidades y gestionar en consecuencia el diálogo de forma proactiva. A partir de los resultados de estos estudios, realizamos un análisis de estos requisitos y proporcionamos una taxonomía de diálogo proactivo cooperativo. A continuación, introducimos tipos de actos de diálogo proactivo que representan los diferentes niveles de autonomía del comportamiento de diálogo proactivo, entendiendo ´este como la iniciación de diálogos de apoyo para facilitar la ejecución de tareas. Además, proponemos una arquitectura de sistema cognitivo con el objetivo de implementar el diálogo proactivo utilizando métodos de inteligencia artificial y de interacción persona-ordenador. Como segunda contribución, presentamos el diseño y la evaluación de cuatro estrategias de diálogo proactivo centradas en el usuario y basadas en el modelo de diálogo proactivo desarrollado. En este caso, el objetivo es comprender los efectos del diseño del diálogo proactivo en la cooperación, no sólo desde el punto de vista de la usabilidad, sino también desde una perspectiva social centrada en el usuario, incluyendo entre otros aspectos la confianza que ´este deposita en el sistema. Para ello, desarrollamos e implementamos varios prototipos de asistencia conversacional con capacidad proactiva que hemos evaluado en entornos de laboratorio con distintos tipos de tareas cooperativas, tipos de usuario y estados de los mismos. Estos experimentos han permitido identificar directrices para la implementación de la gestión proactiva del diálogo centrada en el usuario para asistentes conversacionales cooperativos. Como tercera y ´ultima contribución, tenemos en cuenta la comprensión obtenida del impacto social del diálogo proactivo para implementar modelos de diálogo proactivo centrados en el usuario que permitan desarrollar asistentes conversacionales fiables y eficaces. En este sentido, aportamos conclusiones que tienen en cuenta las expectativas de los usuarios sobre el diálogo proactivo adaptado y la viabilidad de utilizar medidas de confianza para adaptar el diálogo. Para la utilización de métodos de adaptación estadísticos, se ha recolectado un corpus de diálogos proactivos que ha sido anotado con diversas características incluyendo la confianza. Basándonos en estos datos, avanzamos el estado del arte del modelado computacional de la confianza durante la cooperación a través de diálogos, y presentamos diversos enfoques para la predicción dinámica de la confianza durante el transcurso de la conversación. La evaluación de los predictores de confianza muestra la utilidad de nuestro enfoque alcanzando tasas de acierto apreciables. La predicción de la confianza se imbuye en el sistema conversacional durante la gestión proactiva del diálogo, que hemos implementado utilizando enfoques basados en reglas así como basados en aprendizaje automático. La pertinencia y usabilidad del gestor proactivo del diálogo adaptable a la confianza se ha demostrado mediante un estudio con simuladores de usuario, para el cual se ha desarrollado un simulador de usuario que considera diversos parámetros del diálogo social. En resumen, aportamos un enfoque novedoso centrado en el usuario para integrar el concepto de proactividad en el dialogo hombre-máquina. En este caso, mejoramos los sistemas conversacionales dotándolos de la capacidad de razonar sobre la confianza que inspiran en el usuario durante la cooperación y de adaptar su diálogo proactivo en consecuencia. Esto permite a las máquinas proporcionar una toma de decisiones más natural y parecida a la humana, asistiendo adecuadamente a los usuarios en la resolución de tareas complejas que requieren cooperación y asistencia. Esto constituye un paso importante en el camino para transformar los sistemas conversacionales de meros transmisores reactivos de información en verdaderos asesores personales.es_ES
dc.description.sponsorshipTesis Univ. Granada.es_ES
dc.format.mimetypeapplication/pdfen_US
dc.language.isoenges_ES
dc.publisherUniversidad de Granadaes_ES
dc.rightsAttribution-NonCommercial-NoDerivatives 4.0 Internacional*
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0/*
dc.subjectProactive dialoguees_ES
dc.subjectTrustworthy Conversational Assistantses_ES
dc.titleUser-centred Proactive Dialogue Modelling for Trustworthy Conversational Assistantses_ES
dc.typeinfo:eu-repo/semantics/doctoralThesises_ES
europeana.typeTEXTen_US
europeana.dataProviderUniversidad de Granada. España.es_ES
europeana.rightshttp://creativecommons.org/licenses/by-nc-nd/3.0/en_US
dc.rights.accessRightsinfo:eu-repo/semantics/openAccesses_ES
dc.type.hasVersioninfo:eu-repo/semantics/publishedVersiones_ES


Files in this item

[PDF]

This item appears in the following Collection(s)

  • Tesis
    Tesis leídas en la Universidad de Granada

Show simple item record

Attribution-NonCommercial-NoDerivatives 4.0 Internacional
Except where otherwise noted, this item's license is described as Attribution-NonCommercial-NoDerivatives 4.0 Internacional