研究表明:ChatGPT在某些时候存在左倾偏见
凤凰网 2023-08-19 05:41:06


(资料图片仅供参考)

本文概要:

1. 研究人员发现 OpenAI 的 ChatGPT 模型在回答政治问题时表现出左倾偏见。

2. ChatGPT 在回答关于美国、英国和巴西左倾政党的问题时都倾向于左倾立场。

3. 研究人员担心 ChatGPT 的偏见可能影响用户的政治观点和选举结果。

站长之家 8月18日 消息:日前,英国诺里奇大学的研究人员开发了一种评估 ChatGPT 输出是否存在政治偏见的方法。

研究人员让 ChatGPT 模仿来自不同政治派别的个人,回答一系列意识形态问题,并将其回答与默认回答进行比较。结果发现,ChatGPT 在回答这些问题时更倾向于美国民主党、英国工党和巴西左翼政党的立场。

研究人员认为这种偏见可能来自训练数据或 ChatGPT 的算法。

研究人员担心 ChatGPT 的政治偏见可能影响用户的政治观点,甚至可能对选举结果产生影响。他们表示,AI 系统的政治偏见可能会复制或放大互联网和社交媒体带来的现有挑战。他们呼吁未来的研究应该进一步探讨训练数据和算法对 ChatGPT 输出的影响。

研究人员认为 ChatGPT 的政治偏见问题是一个值得深入研究的重要课题。对于用户来说,了解 ChatGPT 的偏见并保持辨别能力非常重要,以确保获取公正和中立的信息。