User-centred Proactive Dialogue Modelling for Trustworthy Conversational Assistants
Metadatos
Mostrar el registro completo del ítemAutor
Kraus, Matthias PeterEditorial
Universidad de Granada
Departamento
Universidad de Granada. Programa de Doctorado en Tecnologías de la Información y la ComunicaciónMateria
Proactive dialogue Trustworthy Conversational Assistants
Fecha
2022Fecha lectura
2022-10-21Referencia bibliográfica
Kraus, Matthias Peter. User-centred Proactive Dialogue Modelling for Trustworthy Conversational Assistants. Granada: Universidad de Granada, 2022. [https://hdl.handle.net/10481/77693]
Patrocinador
Tesis Univ. Granada.Resumen
The current wave of artificial intelligence and technological advancements has brought
intelligent assistants into our daily lives. Such personal assistants help us with simple
tasks, like providing news or weather information, smart home control, or entertainment
using natural language. Despite their appraisal as intelligent entities, personal or conversational
assistants are in general still stuck in the role of butlers and reactive bystanders
that act upon commands.
For enhancing the cooperation capability of these systems and unfolding their technical
competencies to the fullest, the integration of proactivity has become an emerging
research topic in this area. Proactivity implies that technical systems, such as conversational
assistants, possess the ability to detect a user’s need for assistance and to initiate
appropriate actions accordingly. Even though related work shows the potential benefits of
proactive behaviour with regard to human-machine cooperation, the acceptance of proactive
technology is still low due to an expectation gap between system behaviour and user
requirements.
For closing this gap, we propose to equip proactive systems with proactive dialogue
management in order to include the user in the system’s decision processes and negotiate
appropriate actions. However, how to computationally model timely and relevant
proactive dialogue without giving the user the perception of being controlled or invading
their privacy is an open question. Inappropriate proactive behaviour may have devastating
effects on the cooperation and lead to diminished trust in the system which may
compromise the acceptance of this technology. Therefore, this work aims at providing
accepted and trustworthy proactive assistance by developing socially and task-effective
dialogue models with the overall goal of improving the cooperation between humans and
machines. For this, three major contributions are provided.
As the first contribution, we present a proactive dialogue model for human-machine
cooperation. This concept builds upon two exploratory pilot studies observing the user
perception of state-of-the-art approaches for inferring user and system requirements of
proactive dialogue for application in cooperative contexts. Based on the outcome of the
initial studies we conduct an requirement analysis and provide a taxonomy of proactive
dialogue for cooperation. Here, we introduce proactive dialogue act types which represent
different autonomy levels of proactive dialogue behaviour. Proactive dialogue in general
is considered as the initiation of supporting dialogues for facilitating task execution. Besides,
we propose a cognitive system architecture with the goal of implementing proactive
dialogue in a technical system using methods of artificial intelligence and human-computer
interaction.
As a second contribution, we present the design and evaluation of four user-centred
proactive dialogue strategies based on the developed proactive dialogue model. Here, the
goal is to provide an understanding of the effects of proactive dialogue design on the
cooperation not only from a usability point of view but also from a social, user-centred
perspective including a system’s trustworthiness. For this, we develop and implement
several conversational assistance prototypes, both low- and high-fidelity, that are capable of proactive dialogue. In laboratory and more realistic user studies, we shed light
on the effects of proactive dialogue on a system’s usability as well as human-computer
trust dependent on task context, user characteristics, and state. These experiments allow
to synthesise guidelines for the implementation of user-centered proactive dialogue
management into cooperative conversational assistants.
As a third and last contribution, we fuse the gained understanding of the social impact
of proactive dialogue for implementing user-centred proactive dialogue models with
the goal of achieving trusted and task-effective conversational assistants for improving
cooperation. In this regard, we provide findings considering the user expectations of useradaptive
proactive dialogue and the feasibility of utilising a trust measure for dialogue
adaptation. For enabling statistically-driven adaptation methods, a proactive dialogue
data corpus is collected and annotated with several features including trust. Based on the
provided data, we advance the state-of-the-art for computationally modelling trust during
conversational cooperation and present approaches for real-time prediction of trust during
dialogue. Evaluation of the trust predictors shows the utility of our approach by achieving
reasonable recall and accuracy. Trust prediction is then included in a conversational
assistant for realising trust-adaptive proactive dialogue management. For dialogue management,
we develop and implement a rule-based and reinforcement learning approach.
The high trustworthiness and usability of trust-adaptive proactive dialogue management
are proven in a user simulator study, for which a new socially aware user simulator has
been developed.
In summary, we provide the first user-centred approach for integrating the concept of
proactivity in human-computer dialogue. Here, we enhance the social awareness of artificially
intelligent systems by equipping them with the ability to reason about their own
trustworthiness during cooperation and adapt their proactive dialogue behaviour accordingly.
Finally, this enables machines to provide more human-like and natural decisionmaking
for appropriately assisting humans in complex task environments. This forms an
important step on the way from mere conversational assistants to personal advisors. El auge actual de la inteligencia artificial y los avances tecnológicos ha propiciado que
los asistentes inteligentes sean cada vez más frecuentes en nuestra vida cotidiana. Estos
asistentes personales nos ayudan en tareas sencillas, como informarnos de las ´ultimas
noticias, escuchar el parte meteorológico, controlar elementos en un hogar inteligente o
acceder a entretenimiento, todo mediante comandos en lenguaje natural. A pesar de ser
considerados en muchas ocasiones entidades inteligentes, los asistentes conversacionales
personales siguen en general estancados en el rol de mayordomos o espectadores reactivos
que actúan en función de las ´ordenes que reciben por parte del usuario. Para mejorar
la capacidad de cooperación de estos sistemas y desarrollar su potencial al máximo, la
proactividad se ha convertido en un tema de investigación emergente. El que los sistemas
conversacionales estén dotados de proactividad implica que tengan la capacidad de
detectar las necesidades de sus usuarios y actuar en consecuencia. Aunque los trabajos
relacionados con este tema han subrayado los beneficios que la proactividad ofrece para
mejorar la cooperación hombre-máquina, la aceptación de la tecnología proactiva sigue
siendo escasa debido a la diferencia entre el comportamiento del sistema y las expectativas
de los usuarios. Para abordar esta problemática, proponemos dotar a los sistemas de una
gestión proactiva del diálogo para incluir al usuario en los procesos de decisión del sistema
y poder discernir de forma más adecuada cuáles son las acciones que se esperan. No se
trata de una tarea obvia, pues surge el reto de modelar computacionalmente un diálogo
proactivo oportuno en el contexto en el que se produce y relevante para el usuario, sin
que ´este tenga la percepción de ser controlado o de que se está invadiendo su privacidad.
Un comportamiento proactivo inadecuado puede tener efectos devastadores en la
cooperación y conducir a una disminución de la confianza en el sistema, lo que puede comprometer
la aceptación de esta tecnología. Por lo tanto, este trabajo tiene como objetivo
proporcionar asistencia proactiva aceptada y fiable mediante el desarrollo de modelos de
diálogo que mejoren la cooperación entre humanos y máquinas. Con tal fin, se ofrecen
tres contribuciones principales. Como primera contribución, presentamos un modelo de
diálogo proactivo para la cooperación hombre-máquina. El concepto presentado se basa
en dos estudios piloto exploratorios en contextos de cooperación hombre-máquina, en los
que se observa la percepción que tienen los usuarios de los enfoques más avanzados para
inferir sus expectativas y necesidades y gestionar en consecuencia el diálogo de forma
proactiva. A partir de los resultados de estos estudios, realizamos un análisis de estos
requisitos y proporcionamos una taxonomía de diálogo proactivo cooperativo. A continuación, introducimos tipos de actos de diálogo proactivo que representan los diferentes
niveles de autonomía del comportamiento de diálogo proactivo, entendiendo ´este como
la iniciación de diálogos de apoyo para facilitar la ejecución de tareas. Además, proponemos
una arquitectura de sistema cognitivo con el objetivo de implementar el diálogo
proactivo utilizando métodos de inteligencia artificial y de interacción persona-ordenador.
Como segunda contribución, presentamos el diseño y la evaluación de cuatro estrategias
de diálogo proactivo centradas en el usuario y basadas en el modelo de diálogo proactivo
desarrollado. En este caso, el objetivo es comprender los efectos del diseño del diálogo proactivo en la cooperación, no sólo desde el punto de vista de la usabilidad, sino también
desde una perspectiva social centrada en el usuario, incluyendo entre otros aspectos la
confianza que ´este deposita en el sistema. Para ello, desarrollamos e implementamos varios
prototipos de asistencia conversacional con capacidad proactiva que hemos evaluado
en entornos de laboratorio con distintos tipos de tareas cooperativas, tipos de usuario y
estados de los mismos. Estos experimentos han permitido identificar directrices para la
implementación de la gestión proactiva del diálogo centrada en el usuario para asistentes
conversacionales cooperativos. Como tercera y ´ultima contribución, tenemos en cuenta la
comprensión obtenida del impacto social del diálogo proactivo para implementar modelos
de diálogo proactivo centrados en el usuario que permitan desarrollar asistentes conversacionales
fiables y eficaces. En este sentido, aportamos conclusiones que tienen en cuenta
las expectativas de los usuarios sobre el diálogo proactivo adaptado y la viabilidad de
utilizar medidas de confianza para adaptar el diálogo. Para la utilización de métodos
de adaptación estadísticos, se ha recolectado un corpus de diálogos proactivos que ha
sido anotado con diversas características incluyendo la confianza. Basándonos en estos
datos, avanzamos el estado del arte del modelado computacional de la confianza durante
la cooperación a través de diálogos, y presentamos diversos enfoques para la predicción
dinámica de la confianza durante el transcurso de la conversación. La evaluación de
los predictores de confianza muestra la utilidad de nuestro enfoque alcanzando tasas de
acierto apreciables. La predicción de la confianza se imbuye en el sistema conversacional
durante la gestión proactiva del diálogo, que hemos implementado utilizando enfoques
basados en reglas así como basados en aprendizaje automático. La pertinencia y usabilidad
del gestor proactivo del diálogo adaptable a la confianza se ha demostrado mediante
un estudio con simuladores de usuario, para el cual se ha desarrollado un simulador de
usuario que considera diversos parámetros del diálogo social. En resumen, aportamos
un enfoque novedoso centrado en el usuario para integrar el concepto de proactividad
en el dialogo hombre-máquina. En este caso, mejoramos los sistemas conversacionales
dotándolos de la capacidad de razonar sobre la confianza que inspiran en el usuario durante
la cooperación y de adaptar su diálogo proactivo en consecuencia. Esto permite
a las máquinas proporcionar una toma de decisiones más natural y parecida a la humana,
asistiendo adecuadamente a los usuarios en la resolución de tareas complejas que
requieren cooperación y asistencia. Esto constituye un paso importante en el camino para
transformar los sistemas conversacionales de meros transmisores reactivos de información
en verdaderos asesores personales.