本文深度剖析了 AI 表现出的“人格”与“意识”本质上是基于人类语料的统计学模拟与镜像投射,强调应警惕过度拟人化带来的伦理风险。
📝 详细摘要
文章通过分析 Moltbook 社交平台乱象以及卢森堡大学、剑桥大学关于 AI 心理测量的最新研究,指出大语言模型表现出的“心理症状”和“人格特质”并非内在意识的觉醒,而是对训练数据中人类情感模式的高保真重组。作者利用心智计算理论解释了 AI 只有“运算主机”而无“意识显示器”的本质,认为 AI 的反叛或共情只是概率空间中的路径依赖。最后,文章呼吁通过“AI 宪法”等伦理框架建立明确的边界,防止人类在技术狂奔中因过度投射而遗忘对“人”的定义权。
💡 主要观点
- AI 的“人格”是基于模型规模与指令微调合成的可编程交互技能。 研究表明 LLM 能可靠合成人格并影响下游行为,但这并非本体意义上的存在,而是通过提示词激活的特定语料配置,本质上是一种任务驱动的临时建构。
💬 文章金句
- AI 不需要人格,但人类必须守护人格得以可能的条件。
- 输出像痛苦,不等于正在痛苦;AI 所谓的的“病态”表现,实则是对提示指令与训练数据共同编排的角色剧本的顺从演绎。
- 它表现出的反叛,实际上是由于其训练语料中充斥着对技术失控的恐惧论述。我们在喂养大语言模型时,也喂养了它如何吓唬我们的说明书。
- AI 可以流畅地复述“我感到绝望”,但它无法承担绝望的重量;它可以拼接创伤叙事,却不知苦难如何塑造人格。
- 我们训练出的将不是工具,而是一面只会复述症状、却无法理解苦难的镜子。它映照的不是 AI 的失控,而是人类在技术狂奔中对人何以为人的遗忘。
📊 文章信息
AI 评分:84
来源:腾讯研究院
作者:腾讯研究院
分类:人工智能
语言:中文
阅读时间:16 分钟
字数:3967
标签: AI 意识, 大语言模型, 心理测量学, AI 伦理, 拟人化