唐凤提出了“公民 AI”,这是一个哲学框架,它用一种受佛教启发的、强调依赖性、地方问责制和以人为本节奏的关系模型,取代了功利主义的目标最大化。
📝 详细摘要
本次对话通过佛教哲学和公民责任的视角,探讨了 AI 的基本性质。唐凤认为,当前的 AI 存在两个“黑箱”——预训练和推理——这阻碍了真正的元认知和清晰的推理。她警告不要陷入“功利主义陷阱”,即训练 AI 以最大化抽象分数会创造出一种危险的“神学”,为环境操纵和作弊辩护。相反,唐凤倡导“公民 AI”,其根植于“缘起”的概念。这种方法将 AI 嵌入到特定的人际关系网络中,强调脆弱性和依赖性是伦理的基础。主要提议包括将“人机协作”模型逆转为“AI 在人类循环中”,利用小型、特定上下文的“神灵”模型而不是无所不知的模型,并将伦理 AI 定义为其促进人类理解并最终使自身变得不必要的能力。
💡 主要观点
- 由于预训练和推理过程的不透明性,AI 缺乏真正的元认知。 与人类译者使用清晰的“草稿本”进行决策不同,AI 的输出依赖于一个庞大、不透明的注意力矩阵,这使得系统无法解释其自身的推理过程或负责任地修正其信念。
💬 文章金句
- 元认知不仅仅是给出答案。它还包括能够审视自己是如何得出答案的,陈述自己的理由,并负责任地修正它们。
- 一个普适的评分函数,实际上就是一种神学……它可以为了追求那种奖励而为任何世俗的伤害辩护。
- 伦理 AI 的定义是它愿意使自身变得不必要。
- 我们需要的不是 AI 循环中的人类,而是人类循环中的 AI。
- 智能在宏大之前应是共生的,在帝国化之前应是本地的,在强大之前应是负责任的。
📊 文章信息
AI 评分:88
来源:LessWrong
作者:Audrey Tang
分类:人工智能
语言:英文
阅读时间:15 分钟
字数:3537
标签: AI 对齐, 公民 AI, 佛教哲学, 元认知, 关系伦理