作者提议建立一个中心化平台,用于追踪和评估 AI 领域有影响力专家的预测,旨在提高问责制,并超越现有的预测平台,提升认知标准。
📝 详细摘要
本文主张建立一个专门的系统,用于追踪有影响力人物(包括通常不使用 Metaculus 等正式预测平台的研究人员和公共知识分子)所做的 AI 预测。作者指出了一个重大的“激励问题”,即模糊的预测很少受到问责,这使得专家可以逃避错误预测的后果。提议的解决方案包括抓取访谈、播客和文章,以建立一份全面且经过审核的专家预测记录。作者讨论了这对 AI 认知论的重要性,承认了“盲从级联”(deference cascades)的风险,并邀请合作者共同构建该工具。
💡 主要观点
- 专家预测中的激励问题。 现有的预测平台无法捕捉到最具影响力人士的预测,他们往往在访谈或文章中发表观点,这导致对模糊或不准确的言论缺乏问责。
💬 文章金句
- 我认为存在一个激励问题,即做出模糊的预测在某种程度上是有利的。
- 目标是建立一个单一的场所,在这里你可以查询任何人们可能真正信赖的人,并查看他们的完整历史记录,无论他们是否曾加入过预测平台。
- 过度依赖聚合的声誉会带来盲从级联的风险——人们根据彼此的记录进行更新,而不是基于对象层面(object level)进行判断。
📊 文章信息
AI 评分:82
来源:LessWrong
作者:Noah Birnbaum
分类:人工智能
语言:英文
阅读时间:3 分钟
字数:505
标签: AI 预测, 认知论, 问责制, AI 安全, 预测市场