Perceptions of AI in Science Communication

DSpace Repositorium (Manakin basiert)


Dateien:

Zitierfähiger Link (URI): http://hdl.handle.net/10900/168338
http://nbn-resolving.org/urn:nbn:de:bsz:21-dspace-1683384
http://dx.doi.org/10.15496/publikation-109665
Dokumentart: Dissertation
Erscheinungsdatum: 2025-07-23
Sprache: Englisch
Fakultät: 7 Mathematisch-Naturwissenschaftliche Fakultät
Fachbereich: Psychologie
Gutachter: Kimmerle, Joachim (Apl. Prof. Dr.)
Tag der mündl. Prüfung: 2025-07-09
DDC-Klassifikation: 150 - Psychologie
Schlagworte: Künstliche Intelligenz <Motiv> , Wissenschaftskommunikation , Glaubwürdigkeit , Journalismus <Motiv> , Trust
Lizenz: http://tobias-lib.uni-tuebingen.de/doku/lic_ohne_pod.php?la=de http://tobias-lib.uni-tuebingen.de/doku/lic_ohne_pod.php?la=en
Zur Langanzeige

Inhaltszusammenfassung:

In der heutigen Informationsgesellschaft hat theoretisch jede und jeder mit Internetanschluss Zugang zu einer Fülle von Informationen. Wissbegierige können dort auf eine Vielzahl von Informationen aus zahlreichen Quellen zugreifen. Mit der Fülle steigt jedoch auch der Bedarf an vertrauenswürdigen und geprüften Inhalten. Dies gilt insbesondere für die Vermittlung von wissenschaftlichen Erkenntnissen, die für die Bewältigung der vielfältigen Krisen unserer Zeit unerlässlich sind. Zu den möglichen Informationsquellen ist nun Generative Künstliche Intelligenz (GenAI) hinzugekommen, die sowohl Chancen als auch Risiken für die Wissenschaftskommunikation birgt. Einerseits verfügt sie über das Potenzial, den Dialog zwischen Wissenschaft und Gesellschaft zu revolutionieren, andererseits stellt die zugrunde liegende Technologie eine Herausforderung für die etablierten Grundsätze wissenschaftlicher Validierung und Verifizierung dar. Sicher ist, dass Künstliche Intelligenz (KI) eingesetzt wird, um Wissenschaft zu vermitteln, wissenschaftliche Informationen abzurufen und wissenschaftliche Erkenntnisse zu gewinnen. Da sich frühere Ansätze zur Kommunikation von Inhalten durch KI grundlegend von heutigen Large Language Models (LLMs) unterscheiden, ist wenig darüber bekannt, wie Menschen KI-Autorenschaft bei komplexeren Themen und Texten wahrnehmen. Diese Dissertation trägt zur Schließung dieser Forschungslücke bei, indem sie anhand von experimentellen und Umfragestudien untersucht, wie Menschen KI-Autorenschaft wahrnehmen, welche Einstellungen und Konzepte sie dazu haben und ob Informationen über KI diese Wahrnehmungen beeinflussen. Die Ergebnisse zeigen kaum Unterschiede in der Glaubwürdigkeit und Vertrauenswürdigkeit zwischen KI und menschlichen Autoren. Gleichzeitig sind die Einstellungen gegenüber KI tendenziell positiv, aber das Wissen über diese neue Technologie ist gering, und die Vorstellungen sind vage. Darüber hinaus beeinflussen Vorabinformationen, beispielsweise über die Stärken oder Schwächen der KI, die Bewertung von KI-generierten Texten und die Wahrnehmung der KI-Autorenschaft kaum. Insgesamt deuten diese Ergebnisse darauf hin, dass Leserinnen und Leser von Informationen aus dem Bereich der Wissenschaftskommunikation der Autorenschaft des Inhalts gegenüber gleichgültig sein könnten. Durch die Aufdeckung dieses Agnostizismus trägt diese Arbeit zur wachsenden Zahl von Forschungsarbeiten über die Wahrnehmung KI-generierter Inhalte und den Faktoren, die diese Wahrnehmung beeinflussen, bei. Die Ergebnisse unterstreichen den Bedarf an Maßnahmen zur Förderung des sicheren Einsatzes von KI in der Wissenschaftskommunikation und die Verantwortung von politischen Entscheidungsträgerinnen und Anbietern, Rahmenbedingungen zu schaffen, die den Fähigkeiten und Risiken von GenAI gerecht werden.

Abstract:

In today’s information society, anyone with Internet access theoretically has a gateway to a wealth of information. There, individuals seeking knowledge can access a diverse array of information from numerous sources. However, this abundance increases the need for reliable and verified content. This is especially true for communicating scientific knowledge, which is indispensable for overcoming the multiple crises of our time. Generative artificial intelligence (GenAI) has recently been added to possible sources of information, holding both opportunities and risks for science communication. On the one hand, it has the potential to revolutionize the dialogue between science and society; on the other hand, the underlying technology poses a challenge to the established principles of scientific validation and verification. What is certain is that artificial intelligence (AI) is and will be used to communicate science, retrieve scientific information, and generate scientific knowledge. As earlier approaches to communicating content via AI fundamentally differ from today’s Large Language Models (LLMs), little is known about how humans perceive AI authorship of more complex topics and texts. This dissertation contribute to filling this research gap by using experimental and survey studies to investigate how people perceive AI authorship, what attitudes and concepts they hold about it, and whether information about AI influences these perceptions. The results show little difference in the credibility and trustworthiness between AI and human authors. At the same time, attitudes toward AI tend to be positive, but knowledge is scarce, and concepts about this new technology are vague. Moreover, providing information on the strengths or limitations of AI, for example, hardly influences the evaluation of AI-generated texts and the perception of AI authorship. In sum, these findings indicate that readers of science communication information may exhibit indifference toward the authorship of the content. By revealing this agnosticism, this work contributes to the growing body of research on the perception of AI-generated output and the factors influencing this perception. The results emphasize the need for interventions to promote the safe use of AI in science communication and the responsibility of policy makers and providers to design frameworks that take into account the capabilities and risks of GenAI.

Das Dokument erscheint in: