← 返回首页

当人类成为算法的传声筒

发布时间: 2026-03-26 11:18(北京时间)

摘要: 作者以游戏《Eliza》为切入点,探讨了人类作为算法代理(Proxy)的现象,对比了游戏中受雇阅读LLM文本与现实中人们主动让渡话语权的行为。文章质疑了LLM在心理咨询等情感场景中的有效性,并引申到算法、伦理与人类情感的思辨,强调计算与判断的区别。整体语调冷静而具反思性。

标签: 算法代理, 人类情感, 伦理思辨, 反思, 冷静, 社会观察, 游戏隐喻, 话语权让渡

字数: 590

原文链接: /7402396589/QxQNlkUPE

《Eliza》是Zachtronics在19年8月发行的游戏。

在这个游戏中,“我”的工作内容只能是阅读人工智能实时为“我”提供的文本给来访者,而没有任何自主权。

游戏中的“ELIZA”放到现在就是用于心理咨询的LLM Agent。只不过在咨询的时候并不是让来访者直接阅读LLM生成的文本,也没有用到TTS技术,而是雇了“我”来阅读。

我在想,一个不具备“灵魂”但能通过算法提供“标准答案”的LLM,是否真的能慰藉孤独的心灵?这层由人类担任的Proxy又对这种场景提供了多少“帮助”呢?

en.wikipedia.org/wiki/ELIZA_effect
1966年ELIZA的“能力”,换到现在可能只需要一点点提示词技巧,甚至不需要给什么提示词就能超越。所谓的 ELIZA effect 可能对大家产生的影响更加深。

这感觉是一场算法、伦理与人类情感的思辨实验。

回到现在,这种由人类担任的Proxy其实也不少见。比如在讨论的时候有的人就相当于在代替大模型发言,好一点的Proxy是重新组织LLM的输出,差一点儿就复制粘贴,“最差劲”的可能就是直接贴对话截图。在游戏中“我”是被雇佣的,而现实中很多人是在主动让渡自己的话语权,心甘情愿地成为LLM的Proxy。

Calculation ≠ Judgment

image

image

image

image