Dissertação

{en_GB=Virtual Suspect: A Lying Virtual Agent} {} EVALUATED

{pt=Os seres humanos mentem todos os dias, das mentiras menos nocivos até às que têm maior impacto nas nossas vidas. É uma das estratégias usadas nas nossas interações diárias para lidar com situações com conflitos como negociações ou partilha de informação comprometedora. Desta forma, com o objectivo de desenhar agentes virtuais com melhores capacidades de tomada de decisões, os investigadores não se focam apenas em desenvolver agentes cooperativos e honestos mas também em dotá-los com métodos para ocultarem informação e mentirem sobre ela. Neste documento propomos um modelo que confere ao agente virtual que o implemente a capacidade de participar num diálogo não cooperativo com o objectivo de enganar o utilizador. Este modelo dá a um agente os mecanismos necessários para racicionar sobre o seu conhecimento e ajustar autonomamente a história que partilha com base no que o interlocutor sabe e no quão comprometedor é o tópico da conversa. Este modelo permite ao autor que escreve a história focar-se na narrativa principal, deixando para o modelo a tarefa de gerar as alternativas. Implementámos o modelo num agente chamado Virtual Suspect, usado num jogo chamado Interrogatório. Este usa o agente virtual como um suspeito de um crime tentando enganar um polícia ao esconder informação sobre o seu passado. Usando o Interrogatório, realizámos uma experiência preliminar para investigar as condições nas quais o agente produzia mais mentiras. Os resultados mostraram que os participantes que utilizaram técnicas de interrogatório semelhantes às usadas pela polícia fizeram o agente adaptar a sua história mais frequentemente., en=Humans lie every day, from the least harmful lies to the most impactful ones. It is part of the strategies we use in our interactions to deal with conflicting situations like negotiation or sharing compromising information. Therefore, in an attempt to design virtual agents endowed with advanced decision-making abilities, researchers not only focused their effort in designing cooperative and truthful agents but also deceptive and lying ones. In this document, we propose a model capable of engaging an agent in an uncooperative misleading dialogue with a user. This model gives to an agent the ability to reason about its knowledge and then autonomously adjust the story it tells depending on what its interlocutor might know and on how sensitive it considers the conversation topic to be. Such a model allows a story's author to focus on the main narrative, letting the model handle the generation of alternatives. We implemented the model in an agent called the Virtual Suspect, used in an Interrogation Game, The game portrays an agent acting as a criminal suspect trying to mislead the police by concealing information about its past events. Using the Interrogation Game, a preliminary experiment was conducted to investigate the conditions in which the agent produces more lies. The results showed that participants who used interrogation skills similar to the one the police use, that is, asking open questions first and closed questions after, made the agent adapt its story more often, leading the interrogators to identify the deceptive behavior of the agent.}
{pt=Ajustamento de Histórias, Geração de Mentiras, Interação Humano-Agente, Agentes Autónomos, en=Adaptive Storytelling, Human-Agent Interaction, Deceptive Communication, Autonomous Agents}

novembro 14, 2016, 9:0

Publicação

Obra sujeita a Direitos de Autor

Orientação

ORIENTADOR

Ana Maria Severino de Almeida e Paiva

Departamento de Engenharia Informática (DEI)

Professor Catedrático

ORIENTADOR

Rui Filipe Fernandes Prada

Departamento de Engenharia Informática (DEI)

Professor Auxiliar