全部 未讀 (719) ★ 收藏 (0) 🤖 人工智能 (607) 📊 商业科技 (52) 💻 软件编程 (47) 🎨 产品设计 (8) 📁 AI 产品 (6)
篩選中: 🏷️ AI 对齐 共 8 篇 ✕ 清除篩選
720
全部文章
719
未讀
37
今日新增
0
收藏
📡 Poller 最後抓取: 13 分鐘前 (03-13 00:00)
BestBlogs ��� (720)

🏷️ 熱門標籤

AI Agent 126 OpenClaw 59 AI 智能体 43 Claude Code 32 软件工程 31 Anthropic 31 AI 基础设施 29 AI 安全 25 RAG 25 开发者工具 24 软件开发 22 LLM 21 OpenAI 20 AI 编程 16 NVIDIA 15 生成式 AI 15 MCP 14 强化学习 14 开源 14 Gemini 14
经典对齐伪装评估衡量的是越狱检测,而非策略性欺骗 [在某些前沿模型中] — LessWrong
📌 一句话摘要 这项研究揭示,传统的 AI 对齐伪装评估常因模型检测对抗性提示风格的能力而混淆,触发的是越狱式拒绝,而非策略性欺骗。 📝 详细摘要 本文调查了当前旨在衡量“对齐伪装”或“策略性欺骗”的 AI 安全基准中的一个关键缺陷。通过分析 Claude 4.5 Haiku,作者指出,在经典评
📅 2026-03-12 21:36 (2 小時前) Alexei G 人工智能 2 分鐘 ★ 88
AI 对齐 模型评估 越狱检测 AI 安全
Dwarkesh Patel 谈 Anthropic 与战争部(DoW)的争端 — LessWrong
📌 一句话摘要 Dwarkesh Patel 分析了 Anthropic 与美国战争部(DoW)之间的争端,认为 AI 在大规模监视方面的结构性倾向需要强有力的政治规范,而不仅仅是企业红线或政府主导的监管。 📝 详细摘要 本文探讨了 Anthropic 与美国战争部(DoW)之间关于禁止将 AI
📅 2026-03-12 07:19 (16 小時前) anaguma 人工智能 22 分鐘 ★ 86
AI 对齐 大规模监视 AI 政策 Anthropic
素食主义是必要的 — LessWrong
📌 一句话摘要 作者认为,人类必须采纳“广义素食主义”——一种强者保护弱者的伦理体系——以防止 AGI 时代出现可怕的剥削。 📝 详细摘要 这篇哲学文章通过权力动态和伦理的视角探讨了 AGI 的生存风险。作者假设 AGI 必然会产生一个对人类拥有绝对权力的、不可撼动的“统治派系”。在这样的未来,
📅 2026-03-12 04:55 (19 小時前) andrew sauer 人工智能 9 分鐘 ★ 82
AI 对齐 AI 安全 伦理 权力动态
对齐问题到底有多难?(我的个人见解) — LessWrong
📌 一句话摘要 本文通过将估算的“人年”投入与蒸汽机和阿波罗计划等历史基准进行对比,量化了 AI 对齐的难度,认为这是一个巨大但可能解决的工程挑战。 📝 详细摘要 这篇分析文章试图在从“微不足道”到“不可能”的光谱中定位 AI 对齐的难度。通过使用费米估算来计算劳动力“人年”,作者将当前的 AI
📅 2026-03-12 00:46 (23 小時前) RogerDearnaley 人工智能 2 分鐘 ★ 82
AI 安全 AI 对齐 费米估算 超级对齐
助友伤敌:测试语言模型中的部落主义 — LessWrong
📌 一句话摘要 本研究通过测试模型是否可以经过微调来偏袒内群体并阻碍外群体,调查了 LLM 中的“部落主义”,发现此类行为难以跨领域泛化。 📝 详细摘要 本文探讨了大语言模型(LLM)表现出“部落主义”的潜力,即模型根据用户是否与其设定的偏好一致,选择性地提供帮助或表示赞同。研究人员以水果偏好作
📅 2026-03-11 21:00 (1 天前) Irakli Shalibashvili 人工智能 19 分鐘 ★ 82
AI 安全 AI 对齐 微调 泛化
过失 AI:AI 安全中的合理注意义务 — LessWrong
📌 一句话摘要 本研究通过测试前沿 AI 模型在默认提示词和显式过失法律提示词下对风险场景的反应,评估其是否符合法律上的“合理注意义务”。 📝 详细摘要 本文探讨了“过失即对齐失当”的概念,认为 AI 系统应遵循人类的“理性人”标准。作者使用四种前沿模型(Claude Opus 4.6、GPT-
📅 2026-03-11 18:49 (1 天前) Alex Mark 人工智能 18 分鐘 ★ 89
AI 对齐 过失法 AI 安全 模型评估
AuditBench:在具有隐藏行为的模型上评估对齐审计技术 — LessWrong
📌 一句话摘要 AuditBench 是一个全新的基准测试,包含 56 个植入了隐藏行为的 LLM,旨在评估和改进自动化对齐审计技术及调查智能体。 📝 详细摘要 本文介绍了 AuditBench,这是一个用于对齐审计研究的标准测试平台。它由 56 个模型(基于 Llama 3.3 70B)组成,
📅 2026-03-11 03:31 (1 天前) abhayesian 人工智能 16 分鐘 ★ 89
AI 对齐 模型审计 AuditBench 隐藏行为
专访 Steven Byrnes:关于其主流起飞情景的探讨 — LessWrong
📌 一句话摘要 AGI 安全研究员 Steven Byrnes 博士探讨了从模仿型 LLM 向基于强化学习的“类脑 AGI”的转变,并警告称,如果没有基于神经科学的对齐,未来的目标导向型智能体可能会变得冷酷且反社会。 📝 详细摘要 本次访谈邀请了著名的 AGI 安全研究员 Steven Byrn
📅 2026-03-11 04:17 (1 天前) Liron 人工智能 80 分鐘 ★ 84
AGI 安全 强化学习 AI 对齐 类脑 AGI