The Impact of Expertise Dynamics on Human-Agent Collaboration

DSpace Repositorium (Manakin basiert)


Dateien:

Zitierfähiger Link (URI): http://hdl.handle.net/10900/170707
http://nbn-resolving.org/urn:nbn:de:bsz:21-dspace-1707079
Dokumentart: Dissertation
Erscheinungsdatum: 2025-10-02
Sprache: Englisch
Fakultät: 7 Mathematisch-Naturwissenschaftliche Fakultät
Fachbereich: Psychologie
Gutachter: Huff, Markus (Prof. Dr.)
Tag der mündl. Prüfung: 2025-07-14
DDC-Klassifikation: 150 - Psychologie
Schlagworte: Psychologie , Medienpsychologie , Kognitionswissenschaft
Lizenz: http://tobias-lib.uni-tuebingen.de/doku/lic_ohne_pod.php?la=de http://tobias-lib.uni-tuebingen.de/doku/lic_ohne_pod.php?la=en
Zur Langanzeige

Inhaltszusammenfassung:

Um sich in sozialen Umgebungen zurechtzufinden, muss man die mentalen Zustände anderer Agenten verstehen. Das Verständnis des Entscheidungsprozesses eines Agenten hilft einem einzelnen Menschen, vorherzusehen, wie sich die Handlungen des Agenten auf die gemeinsame Umgebung auswirken, wie gut der Agent die Umgebung an seine Zwecke anpassen kann und wie die Absichten des Agenten mit denen der beobachtenden Person übereinstimmen. Aufgrund der Verbreitung autonomer Systeme und der wachsenden menschlichen Bevölkerung wird es immer wichtiger, die Entscheidungen anderer Agenten zu antizipieren. Menschen können die mentalen Prozesse anderer Agenten jedoch nicht direkt wahrnehmen. Sie müssen den Prozess entweder durch Beobachtung des Verhaltens eines Agenten ableiten, sich auf Erfahrungen mit ähnlichen Agenten oder auf die Aussagen anderer verlassen. Die Beurteilung eines Agenten anhand von Erfahrungen mit oberflächlich ähnlichen Agenten kann zu Vorurteilen und einer Fehlanpassung des Vertrauens führen. Die Anwendung von Erfahrungen mit ähnlichen Agenten oder das Einbeziehen des Rufs des Agenten kann einzelnen Menschen jedoch dabei helfen, sich in sozialen Umgebungen mit einem Gefühl der Sicherheit zurechtzufinden. Es ist schwieriger, solche Informationen auf neuere Sorten von Agenten wie Chatbots, autonome Autos oder Empfehlungssysteme anzuwenden, da viele menschliche Beurteilende wenig Erfahrung aus erster oder zweiter Hand mit ihnen haben. In dieser Dissertation untersuche ich, wie Menschen eine mentale Repräsentation des Entscheidungsprozesses eines künstlichen Agenten aufbauen, um dessen Aufgabenwissen und Vertrauenswürdigkeit zu beurteilen. In der ersten Studie zeige ich, wie Menschen die Handlungen eines Agenten vorhersehen können, indem sie ihr eigenes Aufgabenwissen als Informationsquelle über die Entscheidungen eines rational handelnden Agenten nutzen. In der zweiten Studie untersuche ich die Rolle des Aufgabenwissens einer beurteilenden Person bei der Einschätzung des Aufgabenwissens eines Agenten. Da menschliche Bewertende nur Informationen über die Entscheidungen des Agenten und keine Informationen über den Agenten selbst haben, können sie das Aufgabenwissen des Agenten nicht genau beurteilen, wenn sie weniger über die Aufgabe wissen als der Agent. In der letzten Studie werden das angebliche und tatsächliche Aufgabenwissen des Agenten manipuliert und ich untersuche, wie sich das Vertrauen in den Agenten während einer Interaktion entwickelt. Vor der Interaktion mit dem Agenten hängt das Vertrauen des Menschen in den Agenten vom Ruf des Agenten ab, aber seine Erfahrungen aus erster Hand mit dem Agenten überschreiben diese Erwartung im Laufe der Interaktion. Ein zentraler Diskussionspunkt ist die Anwendbarkeit der Forschung über Interaktionen zwischen Menschen auf Interaktionen von Menschen mit künstlichen Agenten und umgekehrt die Generalisierbarkeit der Forschung zu menschlicher Interaktionen mit künstlichen Agenten auf menschliche Interaktionen mit beliebigen Agenten (z. B. Menschen, Tieren oder Technologie). Darüber hinaus diskutiere ich die Relevanz von Informationen über die Agenten, die über ihre reinen Handlungen hinausgehen, für die Fähigkeit einer beobachtenden Person, die Expertise des Agenten richtig wahrzunehmen. Mehr und variierende Informationen über den Agenten werden wahrscheinlich die Auswirkungen der Expertise des Beobachters abmildern; die Untersuchung dieser Hypothese könnte eine interessante Forschungsfrage sein, die auf den Ergebnissen dieser Dissertation aufbaut.

Abstract:

Navigating social environments demands an understanding of other agents' mental states. Understanding an agent’s decision-making process helps an individual human to anticipate how its actions impact the shared environment, its proficiency at adapting the environment to its purposes, and the alignment of its intentions with their own. Arguably, anticipating agents’ decisions is becoming more important due to the proliferation of autonomous systems and the growing human population. However, humans cannot perceive other agents' mental processes directly. They must either infer the process by observing the agent’s behavior or relying on their experience with similar agents or relying on the testimony of others. Judging an agent by experience with superficially similar agents might lead to prejudice and the miscalibration of trust. However, applying knowledge from experience or the agent’s reputation can help individual humans navigate social environments with a sense of security. It is more challenging to apply such information to newer types of agents such as chatbots, autonomous cars, or recommender systems as many human judges have little first- or second-hand experience with them. In this dissertation, I investigate how humans build a mental representation of an artificial agent’s decision process to judge its expertise and trustworthiness. In the first study, I explain how humans can anticipate the actions of an agent by using their own task expertise as a source of information about the decisions a rationally acting agent makes. In the second study, I explore the role of an observer’s expertise in judging an agent’s expertise. Given only information about the agent’s decisions and lacking information about the agent, human judges are unable to accurately assess the agent‘s expertise if they know less about the task than the agent does. In the final study, the alleged and factual expertise of the agent is manipulated, and I examine how trust in the agent develops during an interaction. Before interacting with the agent, the human‘s trust in it depends on the agent’s reputation, but their first-hand experience of the agent overwrites that expectation during the interaction. A central point of discussion is the applicability of research on interactions between humans to interactions between humans with artificial agents and the other way around, the generalizability of the research on human interactions with artificial agents to human interactions with any agent (e.g., humans, animals, or technology). Additionally, I discuss the relevance of information about the agents that goes beyond their pure actions on an observer’s ability to accurately perceive the agent’s expertise. More and varying information on the agent will likely moderate the effects of observer expertise; exploring this hypothesis could be an interesting research question that builds on the results of this dissertation.

Das Dokument erscheint in: