Inhaltszusammenfassung:
In der heutigen Informationsgesellschaft hat theoretisch jede und jeder mit Internetanschluss Zugang zu einer Fülle von Informationen. Wissbegierige können dort auf eine Vielzahl von Informationen aus zahlreichen Quellen zugreifen. Mit der Fülle steigt jedoch auch der Bedarf an vertrauenswürdigen und geprüften Inhalten. Dies gilt insbesondere für die Vermittlung von wissenschaftlichen Erkenntnissen, die für die Bewältigung der vielfältigen Krisen unserer Zeit unerlässlich sind. Zu den möglichen Informationsquellen ist nun Generative Künstliche Intelligenz (GenAI) hinzugekommen, die sowohl Chancen als auch Risiken für die Wissenschaftskommunikation birgt. Einerseits verfügt sie über das Potenzial, den Dialog zwischen Wissenschaft und Gesellschaft zu revolutionieren, andererseits stellt die zugrunde liegende Technologie eine Herausforderung für die etablierten Grundsätze wissenschaftlicher Validierung und Verifizierung dar. Sicher ist, dass Künstliche Intelligenz (KI) eingesetzt wird, um Wissenschaft zu vermitteln, wissenschaftliche Informationen abzurufen und wissenschaftliche Erkenntnisse zu gewinnen. Da sich frühere Ansätze zur Kommunikation von Inhalten durch KI grundlegend von heutigen Large Language Models (LLMs) unterscheiden, ist wenig darüber bekannt, wie Menschen KI-Autorenschaft bei komplexeren Themen und Texten wahrnehmen. Diese Dissertation trägt zur Schließung dieser Forschungslücke bei, indem sie anhand von experimentellen und Umfragestudien untersucht, wie Menschen KI-Autorenschaft wahrnehmen, welche Einstellungen und Konzepte sie dazu haben und ob Informationen über KI diese Wahrnehmungen beeinflussen. Die Ergebnisse zeigen kaum Unterschiede in der Glaubwürdigkeit und Vertrauenswürdigkeit zwischen KI und menschlichen Autoren. Gleichzeitig sind die Einstellungen gegenüber KI tendenziell positiv, aber das Wissen über diese neue Technologie ist gering, und die Vorstellungen sind vage. Darüber hinaus beeinflussen Vorabinformationen, beispielsweise über die Stärken oder Schwächen der KI, die Bewertung von KI-generierten Texten und die Wahrnehmung der KI-Autorenschaft kaum. Insgesamt deuten diese Ergebnisse darauf hin, dass Leserinnen und Leser von Informationen aus dem Bereich der Wissenschaftskommunikation der Autorenschaft des Inhalts gegenüber gleichgültig sein könnten. Durch die Aufdeckung dieses Agnostizismus trägt diese Arbeit zur wachsenden Zahl von Forschungsarbeiten über die Wahrnehmung KI-generierter Inhalte und den Faktoren, die diese Wahrnehmung beeinflussen, bei. Die Ergebnisse unterstreichen den Bedarf an Maßnahmen zur Förderung des sicheren Einsatzes von KI in der Wissenschaftskommunikation und die Verantwortung von politischen Entscheidungsträgerinnen und Anbietern, Rahmenbedingungen zu schaffen, die den Fähigkeiten und Risiken von GenAI gerecht werden.
Abstract:
In today’s information society, anyone with Internet access theoretically has a gateway to
a wealth of information. There, individuals seeking knowledge can access a diverse array
of information from numerous sources. However, this abundance increases the need for
reliable and verified content. This is especially true for communicating scientific knowledge,
which is indispensable for overcoming the multiple crises of our time. Generative
artificial intelligence (GenAI) has recently been added to possible sources of information,
holding both opportunities and risks for science communication. On the one hand, it
has the potential to revolutionize the dialogue between science and society; on the other
hand, the underlying technology poses a challenge to the established principles of scientific
validation and verification. What is certain is that artificial intelligence (AI) is and will
be used to communicate science, retrieve scientific information, and generate scientific
knowledge. As earlier approaches to communicating content via AI fundamentally differ
from today’s Large Language Models (LLMs), little is known about how humans perceive
AI authorship of more complex topics and texts.
This dissertation contribute to filling this research gap by using experimental and survey
studies to investigate how people perceive AI authorship, what attitudes and concepts
they hold about it, and whether information about AI influences these perceptions. The
results show little difference in the credibility and trustworthiness between AI and human
authors. At the same time, attitudes toward AI tend to be positive, but knowledge is
scarce, and concepts about this new technology are vague. Moreover, providing information
on the strengths or limitations of AI, for example, hardly influences the evaluation
of AI-generated texts and the perception of AI authorship. In sum, these findings indicate
that readers of science communication information may exhibit indifference toward
the authorship of the content. By revealing this agnosticism, this work contributes to
the growing body of research on the perception of AI-generated output and the factors
influencing this perception. The results emphasize the need for interventions to promote
the safe use of AI in science communication and the responsibility of policy makers and
providers to design frameworks that take into account the capabilities and risks of GenAI.