全部 未讀 (11821) ★ 收藏 (0) 🤖 人工智能 (7594) 📊 商业科技 (1791) 💻 软件编程 (1198) 📁 个人成长 (736) 🎨 产品设计 (209) 📁 生活文化 (109) 📁 投资财经 (71) 📁 媒体资讯 (69) 📁 AI 产品 (39) 📁 AI (5)
篩選中: 🏷️ MBA 共 10 篇 ✕ 清除篩選
11823
全部文章
11821
未讀
140
今日新增
0
收藏
📡 Poller 最後抓取: 3 分鐘前 (04-16 14:00)
BestBlogs 精選 (11804)

🏷️ 熱門標籤

AI Agent 1324 AI 智能体 734 Claude Code 645 Anthropic 622 LLM 563 AI 编程 501 OpenClaw 498 开源 439 AI 安全 396 AI 396 Claude 384 OpenAI 362 软件工程 354 开发者工具 343 生产力 308 GitHub 251 自动化 238 AI 基础设施 227 AI 开发 225 MCP 223
传统 MBA 战略的失效
📌 一句话摘要 传统的商业战略框架正在失效,因为它们基于“均衡”假设,而当今世界充满了快速的非线性变化。 📝 详细摘要 作者认为,标准的 MBA 商业框架基于均衡模型,已不再适用于当前动荡的环境。随着变革速度的加快,传统的战略规划、建立护城河和竞争分析正变得过时,导致长期规划失效。该推文呼吁领导
📅 2026-04-04 04:52 (12 天前) signüll 商业科技 1 分鐘 ★ 81
商业战略 管理 MBA 战略规划
LWiAI 播客 #238 - GPT-5.4 mini、OpenAI 战略转型、Mamba 3、注意力残差
📌 一句话摘要 一份全面的 AI 每周发展综述,涵盖 OpenAI 的 GPT-5.4 mini 发布、Mistral 的 Small 4 模型、日益激烈的 AI 智能体“操作系统”竞争,以及 Mamba-3 等重大研究进展。 📝 详细摘要 本期 Last Week in AI 播客总结了 AI
📅 2026-04-01 16:07 (14 天前) Last Week in AI 人工智能 2 分鐘 ★ 86
GPT-5.4 Mistral Small 4 AI 智能体 Nvidia GTC
[AI 新闻] MiniMax 2.7:以 1/3 的成本实现 GLM-5 级别的 SOTA 开源模型
📌 一句话摘要 MiniMax 2.7 作为一款具备“自我进化”能力的高效 SOTA 开源模型发布,同时在智能体(Agent)架构工程、混合 SSM 架构以及多模态文档 AI 领域带来了重大更新。 📝 详细摘要 本期 AI 新闻重点介绍了 MiniMax 2.7 的发布,该模型以 1/3 的成本
📅 2026-03-19 14:47 (27 天前) Latent.Space 人工智能 2 分鐘 ★ 82
MiniMax 2.7 LLM 效率 AI 智能体 Mamba-3
Mamba-3 发布,有望推动混合 AI 架构发展
📌 一句话摘要 Sebastian Raschka 强调了 Mamba-3 的发布,指出它在 Transformer 注意力混合架构(如 Qwen3.5 和 Kimi Linear)中的增强潜力,尤其是在引入 RoPE 之后。 📝 详细摘要 Sebastian Raschka 的这条推文宣布了
📅 2026-03-18 10:05 (29 天前) Sebastian Raschka 人工智能 3 分鐘 ★ 85
Mamba-3 SSM 混合架构 Transformer
[AINews] Claude Cowork 快讯:Anthropic 对 OpenClaw 的回应
📌 一句话摘要 本期 AINews 重点介绍了 Anthropic 的 Claude Cowork、OpenAI 发布的 GPT-5.4 mini/nano 模型,以及行业向安全智能体基础设施和推理优化架构的重大转变。 📝 详细摘要 本文全面概述了 2026 年 3 月中旬以来的主要 AI 发展
📅 2026-03-18 12:59 (29 天前) Latent.Space 人工智能 32 分鐘 ★ 75
AI 智能体 LLM OpenAI Anthropic
开源 Mamba 3 问世,语言建模能力提升近 4%,延迟降低,超越 Transformer 架构
📌 一句话摘要 Mamba 3 是一种新发布的开源状态空间模型(SSM)架构,通过“推理优先”设计,在语言建模方面比 Transformer 提升 4%,并显著降低了推理延迟。 📝 详细摘要 本文介绍了 Mamba 3,这是由研究人员 Albert Gu 和 Tri Dao 开发的状态空间模型(
📅 2026-03-18 07:06 (29 天前) Carl Franzen 人工智能 10 分鐘 ★ 88
Mamba 3 状态空间模型 Transformer 架构 推理优化
Nemotron 3 Nano 4B:用于高效本地 AI 的紧凑型混合模型
📌 一句话摘要 英伟达推出 Nemotron 3 Nano 4B,这是一款混合 Mamba-Transformer 模型,通过新颖的弹性剪枝和蒸馏框架针对边缘设备进行了优化。 📝 详细摘要 文章详细介绍了 Nemotron 3 Nano 4B 的发布,这是一款紧凑型语言模型,专为在英伟达 RTX
📅 2026-03-18 07:17 (29 天前) Vinay Raman, Ameya Sunil Mahabaleshwarkar, Hayley Ross, Bilal Kartal, Aditya Malte, Zijia Chen, Ali Taghibakhshi, Sharath Turuvekere Sreenivas, Saurav Muralidharan, Khalil Ben Khaled, Nima Tajbakhsh, Pavlo Molchanov, Oluwatobi Olabiyi, Yoshi Suhara 人工智能 10 分鐘 ★ 85
英伟达 SLM Mamba-Transformer 边缘 AI
老黄入局吃龙虾!英伟达发布最强开源 Agent 推理模型
📌 一句话摘要 英伟达发布 120B 参数开源 MoE 模型 Nemotron 3 Super,凭借 Mamba-Transformer 混合架构与 Blackwell 深度优化,在智能体推理与长文本任务中表现卓越。 📝 详细摘要 文章详细报道了英伟达最新发布的开源大模型 Nemotron 3
📅 2026-03-12 12:58 (03-12 12:58) 克雷西 人工智能 2 分鐘 ★ 89
英伟达 Nemotron 3 Super 开源模型 MoE
NVIDIA Nemotron 3 Super 120B MoE 模型在 Fireworks AI 首发上线
📌 一句话摘要 Fireworks AI 实现了对 NVIDIA Nemotron 3 Super 的首日(Day-0)支持,这是一款具有 100 万 Token 上下文长度的 120B 混合 MoE 模型。 📝 详细摘要 Fireworks AI 已启动对 NVIDIA Nemotron 3
📅 2026-03-12 03:09 (03-12 03:09) Fireworks AI 人工智能 1 分鐘 ★ 87
NVIDIA Nemotron 3 Super MoE Mamba 架构
NVIDIA Nemotron 3 Super 正式上线 OpenRouter
📌 一句话摘要 NVIDIA 的 Nemotron 3 Super 模型现已登陆 OpenRouter,该模型拥有 120B 参数、1M 上下文,并采用混合 Mamba-Transformer MoE 架构。 📝 详细摘要 OpenRouter 宣布支持 NVIDIA 的 Nemotron 3
📅 2026-03-12 00:16 (03-12 00:16) OpenRouter 人工智能 1 分鐘 ★ 88
NVIDIA Nemotron 3 Super MoE Mamba-Transformer