用户偏爱LLM生成内容——直到发现是AI所为.pdf

用户偏爱LLM生成内容——直到发现是AI所为.pdf
这份文档探讨了用户对由大型语言模型 (LLM) 生成的内容的感知,以及用户在知道内容来源是 AI 还是人类时,对内容的偏好如何变化。以下是文档的核心内容总结: **研究背景与目的:** 随着 LLM 技术的快速发展,其在文本生成和人机交互中的应用日益广泛。本研究旨在考察用户在未知或已知内容来源(人类或 AI)的情况下,对不同来源的回答的偏好。研究关注点在于,随着 LLM 生成的内容越来越接近人类写作风格,区分两者变得更具挑战性。 **研究方法:** 研究采用受控实验设计,参与者被随机分组,接受不同情境下的问题回答。问题来源于 Quora 和 Stack Overflow 等平台,涵盖了物理科学、生命科学、健康科学、社会科学和人文科学等领域。每个问题都配有两个答案,一个由 LLM 生成,另一个由人类生成。参与者需要从两个答案中选择一个,同时,一部分参与者会被告知答案的来源,另一部分则未知。研究还收集了参与者的基本人口统计学信息,如年龄、性别、教育背景等。 **研究结果:** * **整体偏好:** 总体而言,参与者倾向于选择 AI 生成的回答。 * **来源知情的影响:** 当参与者被告知答案的来源时,这种偏好发生了显著变化。与未知来源的情况相比,参与者更倾向于选择人类生成的回答。 * **个体差异:** 这种偏好受多种因素影响,包括性别、编程技能和问题所属领域。例如,女性更倾向于选择人类的回答;具备编程技能的人在知道来源后,也更倾向于选择人类的回答。 * **领域影响:** 在人文科学和生命科学领域的问题中,当参与者了解来源时,会更倾向于选择人类回答,但在物理科学和工程学以及社会科学领域,这种差异并不显著。 **结论与意义:** 研究表明,用户在评估内容时,对 AI 生成的内容存在一定的偏好,但这种偏好会受到内容来源信息的影响。当用户得知答案是由 AI 生成时,其对 AI 生成内容的偏好会降低。这突出了提高 AI 生成内容在需要信任和可靠性的场景中的感知,以及提升 AI 工作质量的重要性。研究结果也表明,在公众认知中,公开内容的来源对于塑造用户对内容质量的判断至关重要。 **研究的局限性:** 研究仅限于文本内容,未涵盖图形、音频或视频等多种媒体形式。数据收集依赖于在线平台,可能存在选择性偏差。研究结果基于自我报告和实验框架内的选择,存在一定的主观性和社会期望效应的风险。 **未来的研究方向:** 未来的研究可以探索增强人类或 AI 生成内容的感知,以及在协同创作场景中,人类和 AI 的互动关系。
在线阅读 下载完整报告 | 313.54 KB | 13页
阅读和下载会消耗积分;登录、注册、邀请好友、上传报告可获取积分。
成为VIP会员可免费阅读和下载报告