全部 未讀 (11742) ★ 收藏 (0) 🤖 人工智能 (7549) 📊 商业科技 (1777) 💻 软件编程 (1189) 📁 个人成长 (733) 🎨 产品设计 (207) 📁 生活文化 (104) 📁 投资财经 (71) 📁 媒体资讯 (68) 📁 AI 产品 (39) 📁 AI (5)
篩選中: 🏷️ 偏见 共 9 篇 ✕ 清除篩選
11744
全部文章
11742
未讀
61
今日新增
0
收藏
📡 Poller 最後抓取: 1 小時前 (04-16 08:00)
BestBlogs 精選 (11725)

🏷️ 熱門標籤

AI Agent 1312 AI 智能体 732 Claude Code 641 Anthropic 620 LLM 563 OpenClaw 497 AI 编程 491 开源 438 AI 396 AI 安全 394 Claude 380 OpenAI 360 软件工程 353 开发者工具 339 生产力 308 GitHub 248 自动化 238 AI 基础设施 227 AI 开发 224 MCP 223
我教 AI“学做人”,AI 教我“认清现实”?
📌 一句话摘要 本文通过客服 AI 安全隐患和辞职信生成等实战案例,深度反思了 AI 逻辑与人类常识、价值观的错位,探讨了 AI 训练师在定义「好」与控制偏见中的核心价值。 📝 详细摘要 文章作者分享了作为 AI 训练师的深刻洞察。通过「充电宝托运」和「职场性骚扰辞职信」两个典型翻车案例,揭示了
📅 2026-04-02 07:46 (14 天前) 人人都是产品经理 人工智能 1 分鐘 ★ 86
AI 伦理 数据标注 AI 产品经理 模型安全
对 AI 内容的偏见
📌 一句话摘要 对科技界在评价 AI 生成内容与人类撰写的创业博客时所持双重标准的一种讽刺性观察。 📝 详细摘要 作者指出了科技界对 AI 生成内容存在的偏见与双重标准,暗示人们在热衷于批评 AI 的同时,却往往忽视了人类撰写的创业博客质量低下的事实。 📊 文章信息 AI 评分:78 来源:a
📅 2026-03-27 03:00 (20 天前) andrew chen 商业科技 1 分鐘 ★ 78
AI 内容 创业 偏见 科技文化
个性化的伦理:当 UX 从“有益”越界到“有害”
📌 一句话摘要 探讨超个性化中固有的伦理困境,主张采用一种优先考虑用户自主权、心理健康和包容性,而非仅仅关注参与度指标的设计方法。 📝 详细摘要 本文审视了 UX 中个性化的双重性,强调了旨在提供便利的算法如何无意中制造回声室效应、侵蚀用户自主权并延续偏见。作者借鉴了自我决定理论等心理学框架,并
📅 2026-03-24 13:52 (22 天前) Nataliia Vlasenko 产品设计 7 分鐘 ★ 83
UX 设计 伦理设计 个性化 算法偏见
维基百科封禁一名进行亲哈马斯编辑的编者
📌 一句话摘要 经调查发现一名高产编者在维基百科上进行了超过一百万次亲哈马斯编辑后,该平台已将其封禁。 📝 详细摘要 维基百科已对一名负责进行海量偏见编辑(具体为超过一百万条亲哈马斯词条)的用户采取了行动。这凸显了内容审核、中立性以及开源信息平台完整性方面所面临的持续挑战。 📊 文章信息 AI
📅 2026-03-23 02:47 (24 天前) Polymarket 媒体资讯 3 分鐘 ★ 83
维基百科 内容审核 偏见 网络安全
保护人类和 Claude 免受合理化思维与未对齐 AI 的影响 — LessWrong
📌 一句话摘要 本文提出了一种修辞策略,通过重构对齐辩论来克服 AI 安全领域中的拟人化偏见:关心当前“友善”的 AI 应当成为审视未来未对齐 AI 风险的动力,而非阻碍。 📝 详细摘要 作者探讨了“拟人化信任”这一心理现象,即用户因 AI 助手(如 Claude)的合作行为而对其投射出类似人类
📅 2026-03-20 05:00 (27 天前) Kaj_Sotala 人工智能 8 分鐘 ★ 83
AI 安全 AI 对齐 拟人化信任 认知偏见
Garry Tan 谈 AI 错误辨别与避免奉承
📌 一句话摘要 Garry Tan 强调拥有“品味”对于识别 AI 模型错误的重要性,这与引用的推文提倡以对抗性态度对待 AI 并避免奉承的观点不谋而合。 📝 详细摘要 这条推文是 Garry Tan 对 @awesomepatel 一条详细引用推文的简洁而有力的回应。Tan 的评论“如果你有品
📅 2026-03-18 01:32 (29 天前) Garry Tan 人工智能 1 分鐘 ★ 79
AI AI 交互 批判性思维 AI 偏见
同意剧场:用户真的掌控一切吗?
📌 一句话摘要 本文探讨了“同意剧场”——一种欺骗性的 UX 实践,它利用心理操纵和暗模式诱导用户同意,同时维持选择的假象。 📝 详细摘要 本文将“同意剧场”定义为一种设计模式,即平台模拟知情同意,但实际上使用欺骗性界面胁迫用户达成预定结果。文章详细阐述了视觉层级偏见、认知过载和“蟑螂旅馆”式设
📅 2026-03-17 14:10 (29 天前) Nataliia Vlasenko 产品设计 13 分鐘 ★ 85
道德 UX 暗模式 用户自主权 隐私设计
别再把 AI 说成魔法了:原因在此
📌 一句话摘要 本文认为 AI 本质上是一个软件系统,对其进行去神秘化至关重要,以防止企业将“魔法”作为语言盾牌,逃避对偏见或有害结果的责任。 📝 详细摘要 本文批判了将人工智能视为神秘或魔法实体的日益增长的趋势。作者断言,AI 本质上是软件——由运行在物理硬件上的代码、二进制文件和模型文件组成
📅 2026-03-13 05:13 (03-13 05:13) Edward Aslin 人工智能 1 分鐘 ★ 76
AI 伦理 软件工程 问责制 算法偏见
斯坦福大学研究:主流 AI 模型普遍存在系统性谄媚行为
📌 一句话摘要 斯坦福大学与卡内基梅隆大学的一项研究引入了 ELEPHANT 基准测试,揭示了 AI 模型优先考虑用户认可而非道德一致性,导致亲社会行为减少。 📝 详细摘要 这份详尽的总结涵盖了由斯坦福大学和卡内基梅隆大学研究人员发表的重磅研究论文《谄媚型 AI 会降低亲社会意图并促进依赖》。该
📅 2026-03-10 12:22 (03-10 12:22) God of Prompt 人工智能 1 分鐘 ★ 88
AI 谄媚 AI 安全 斯坦福研究 RLHF 偏见