← 回總覽

AI x 大前端性能稳定性:快手亿级 DAU 下的智能诊断实践

📅 2026-03-20 18:27 快手技术 人工智能 20 分鐘 23901 字 評分: 92
AI Agent 大前端稳定性 自动化排障 性能优化 快手技术
📌 一句话摘要 快手通过自研“柯南 AI”平台,利用 Agent 架构深度集成底层排障工具,实现了亿级 DAU 规模下大前端性能稳定性的智能诊断与应急止血。 📝 详细摘要 本文详细介绍了快手在 AI 赋能大前端稳定性方面的实战经验。面对亿级 DAU 带来的复杂性能挑战,快手构建了以 Agent 为中心的“柯南 AI”平台,通过自研 Agent 框架和 MCP 协议连接内部工具链。核心实践包括:利用 Holmes 工具进行 UI 视图与运行时数据采集,并通过多 Agent 协作解决根因定位中的“推理链断裂”问题;针对性能瓶颈,通过数据预处理压缩火焰图,使 AI 能精准定位源码;在应急侧,通过
Skip to main content ![Image 16: LogoBestBlogs](https://www.bestblogs.dev/ "BestBlogs.dev")Toggle navigation menu Toggle navigation menuArticlesPodcastsVideosTweetsSourcesNewsletters

⌘K

Change language Switch ThemeSign In

Narrow Mode

AI x 大前端性能稳定性:快手亿级 DAU 下的智能诊断实践

!Image 17: 快手技术 快手技术 @快手技术

Featured Reason

Kuaishou details its Conan AI platform's role in automating front-end stability management. The practice focuses on using Holmes for UI-to-code mapping, AI-driven Flame Graph optimization, and the Ekko system for precise crash recovery. By encoding expert heuristics into an Agent-based workflow, Kuaishou significantly reduces troubleshooting latency and transforms complex debugging into a standardized, AI-assisted process, demonstrating how AI serves as a force multiplier in large-scale production environments.

One Sentence Summary

Kuaishou has developed the 'Conan AI' platform, which leverages an Agent architecture to deeply integrate low-level troubleshooting tools, enabling intelligent diagnosis and emergency mitigation for frontend performance and stability at a 100M+ DAU scale.

Summary

This article details Kuaishou's practical experience in using AI to empower frontend stability. Facing the complex performance challenges brought by a 100M+ DAU, Kuaishou built the Agent-centric 'Conan AI' platform, connecting internal toolchains via a self-developed Agent framework and the MCP protocol. Key practices include: using the Holmes tool for UI view and runtime data collection, and resolving 'reasoning chain breaks' in root cause analysis through multi-Agent collaboration; addressing performance bottlenecks by preprocessing and compressing flame graphs to enable AI to pinpoint source code; and on the emergency side, implementing post-incident error handling via the Ekko tool, with AI-assisted configuration generation to eliminate human error under high-pressure environments. The author emphasizes the importance of shifting from deterministic programming to probabilistic thinking, viewing AI as an extension of developer capabilities.

Main Points

* 1. The core positioning of AI is as a team output amplifier, aiming to transform expert experience into organizational capability.By using AI to handle preliminary diagnosis of difficult bugs and automated fixes for simple ones, expert manpower is freed up for higher-value work, breaking the vicious cycle where 'only senior experts can fix bugs'. * 2. Building a collaborative architecture based on single-responsibility Agents to solve LLM hallucinations in complex troubleshooting.Troubleshooting is broken down into stages such as problem summarization, hypothesis generation, and hypothesis verification. Through carefully crafted prompts and few-shot examples, different Agents are assigned to specific analytical domains, improving accuracy in industrial-grade scenarios. * 3. Achieving effective AI consumption of massive performance data through data preprocessing and context engineering.For raw data like flame graphs that can reach tens of MBs, preprocessing algorithms are used for compression and feature extraction, allowing the model to accurately correlate source code with trace events within limited context windows. * 4. Establishing an 'emergency fallback' system, utilizing AI to reduce operational risks in high-pressure environments.The self-developed Ekko tool restores the scene and skips errors the moment a crash occurs, while an AI Agent automatically analyzes the scene and generates fallback configurations, preventing human error during stressful situations. * 5. Troubleshooting is essentially a scientific reasoning experiment, requiring a shift from deterministic thinking to probabilistic thinking.Developers need to recognize the capability ceiling of AI, guide the model through deduction and induction via Agent strategies, and introduce human intervention at the right time to achieve a 'Human-on-the-loop' evolution.

Metadata

AI Score

92

Featured

Yes

Website mp.weixin.qq.com

Published At Today

Length 7521 words (about 31 min)

Sign in to use highlight and note-taking features for a better reading experience. Sign in now 导读

!Image 18

近年来,大前端技术领域呈现出迭代速度加快、功能复杂度和业务耦合度增加的特点,加之快手亿级DAU的用户规模和超长使用时长,面临着多种技术栈并存、高资源占用的挑战,性能稳定性风险持续增大。传统的性能稳定性排障工具使用门槛高,依赖领域专家多年积累的深度知识和隐性经验判断。那么,AI是否是破解有限的人力和无限的复杂问题之间矛盾的答案?

本文整理自快手移动端稳定性负责人李锐在2025年QCon全球软件开发大会(上海站)的主题演讲《AI x 大前端性能稳定性:快手亿级DAU下的智能诊断实践》,重点分享在大前端性能稳定性保障中,如何借助快手「柯南AI」赋能,实现性能稳定性问题排障经验普惠化,显著提升诊断效率。如下是演讲实录。 一、快手性能稳定性背景

!Image 19

快手的稳定性演进之路大致可以划分为四个阶段,且每一阶段都站在上一阶段的肩膀:从早期自研APM起步,到将零散工具沉淀成APM平台;再到基于平台做问题治理,最终形成体系化的稳定性故障防御。整体演进节奏与移动互联网技术浪潮同频——从红利期到存量用户竞争时代,性能与稳定性逐渐成为决定用户体验的关键因素,进一步转化为公司的关键竞争优势;直至当下,进入AI浪潮时代。

!Image 20

大前端的性能稳定性议题已伴随移动互联网十余年。硬件层面,iPhone的算力较初代已提升百倍;软件层面,QCon、GMTC等行业会议年年设置专场。可问题真的被完全扫清了吗?并没有。2025年上半年,QCon主题是“越挫越勇的大前端”,下 半年变成了“AI与跨端的高效融合”——主题本身就在暗示:复杂度并未消解,我们仍在受挫,效率依旧不足。若用算法复杂度打比方,过去十年,我们面对的场景和其解决算法本身并未升级;且复杂度还因鸿蒙等新变量持续膨胀,输入规模也增加了。因此,我们确实面临不小的挑战。

!Image 21 二、AI x 性能稳定性介绍

!Image 22

那么AI能否破局?先从“人”的角度分享下我的思考。在团队中,大家是否发现存在一个现象:团队里总 有些bug只有特定“老专家”能解,新人插不上手,得不到锻炼;专家又持续被这些bug缠身,没法释放出人力做更有价值的事情,进而导致恶性循环。从这个角度出发,在性能稳定性领域,我最初的思考是,AI的定位首先不是取代谁,而是成为团队产出放大器,把“专家经验”转化为组织能力。

!Image 23

要让放大器不失真,得先搭好稳定的“电路”。我们稳定性体系本就分阶段演进,每一阶段都是下一阶段的底座;AI也必须长在这套体系之上,再去改造这套体系,否则就是无源之水、无本之木。 但是,稳定性横跨技术、流程、运营几十个小域,AI应该从哪切入?

!Image 24

内部多轮推演后,我们锁定“问题处置”——它最吃研发时间,也最影响用户体验,且能弥补人在排障时、处置时的盲区(研究表明,人脑同时做多处理四个变量)。具体拆成两条线:根因处置与应急止血。根因里又分疑难与简单两类,恰好与大模型的推理、检索、生成能力相呼应。

!Image 25

我们自上向下设计了一套可扩展的Agent架构,搭建了「柯南AI」平台。业务目标是把根因定位与应急响应做得更快、更准。

* 产品形态:先以内部IM机器人落地,支持问题根因排查建议和MR自动修复;再逐步演进为嵌入IDE、Coding Agent、内部排障平台多轮会话。

* 技术选型:Agent框架阶段,我们的发展经历了两个阶段——从AutoGen到基于 OpenAI Agent SDK原语自研Agent框架,支持图编排、多种模式策略,也能接入和各CLI Agent结合。

* 基建层:分两头,AI侧按照场景选模型——简单任务用轻量模型,推理密集型上强模型,多模态场景再叠加视觉能力;同时把推进内部平台MCP化演进,让工具随调随用。

* 服务端:系统必须可观测、可调试、可压测,还要提前算清成本,避免规模上去后失控。

!Image 26 三、AI 辅助根因排障

!Image 27

前面谈了“为什么”与“怎么做”,接下来我想用一次真实案例分享“我们到底做了什么”。案例是一枚被内部戏称为“五星NPE”的异常。乍看只是空指针,加个判空似乎就能解决;可它偏偏只在大型活动爆发,且堆栈里只剩系统帧,连崩溃触发源头都无处寻觅。把日志丢给ChatGPT、Claude或DeepSeek,它们同样抓瞎,因为上下文太少,推理链断裂。那么,通过我们的工具链能定位出问题根因吗?

!Image 28

在动手之前,我们先对研发同学做了一次摸底:96%的人承认线上排障痛苦,却又在不出事时抱怨日志太多,出事后嫌日志太少。刚刚前面友商的演讲可以看到,工程师60% 的时间花在修bug上;我查到的ACMQueue报道数据也落在30%–50%区间。如此可见,“写代码易,排障难”并非个例。

!Image 29

近来,行业里Linus那句“Talk is cheap, show me the code”被广为流传,在AI时代,变为了 “Code is cheap, show me the talk” ,但我想说的是:“Code is cheap, debug is expensive—show me the fix。”写出能跑的代码只需几分钟,但要交付工业级、零缺陷的版本,仍然需要一套能把“昂贵排障”降本增效的体系,这正是我们接下来要展开的内容。

!Image 30

为什么修一个bug会如此耗时?我把这些年的踩坑经历抽象成一句话:以Loop思维来做排障,本质上是一场科学推理实验——它是演绎推理、归纳推理、溯因推理与类比推理等多种方法论的协同运用。我发现MIT有一门课也持同样观点——先观察现象、收集数据,再提出假设,用排除法迭代,直到去伪存真。AI能否胜任这场实验?基于此思路,我把它拆成“摸高”与“短板”两条线。

我们再来思考,目前AI的推理能力有多大程度能解决排障的问题。AI的长板显而易见:总结日志快、联想模式多、见过的异常广。只要通过Agent策略或提示词稍加引导,它就能把碎片化信息迅速拼成一张“线索图”。然而,一旦触及天花板,它就会碰壁:私域代码、内部工具链、超长推理链都是它的盲区。最棘手的是“深度bug”,触发条件多、路径长,需要连续十几步推理,模型往往在中途失焦。

我们给AI建了一套四级胜任度评估体系:最底层是“问题总结”,几乎百发百中;往上是“提出假设”,准确率开始下降;再往上是“验证假设”,需要人工补位多论会话;顶层是“给出可落地方案”,直接把问题进行修复,目前只能当辅助解决简单问题。先把标尺立起来,再持续往里填数据、调策略,才能看清AI到底站在哪一级台阶,下一步该往哪迈,并据此评估体系,伴随着模型能力的提升,持续观测迭代AI x 稳定性的能力。

!Image 31

这些年我最直观的感受是,排障过程与破案极为相似,都要在零散线索里还原动机,再锁定真凶。想做出一个实践中切实有效的稳定性Agent,开发者自己得先是一名老侦探——见过千奇百怪的案发现场,才能把经验沉淀成规则。最难的bug就像“完美犯罪”,现场干净得连指纹都没有;前面提到的“五星NPE”便是如此,只剩一条光秃秃的系统堆栈,几乎没有任何可供推理的痕迹,缺少上下文AI也会巧妇难为无米之炊。

为了在这种“零线索”场景里也能破案,我们内部做了一套Holmes工具。它把传统手段拆成“静态”与“动态”两条线:静态侧是日志、Coredump、内存转储这些“尸体报告”;动态侧则是调试器、Profiler这类“让程序再死一次”的利器。老程序员偏爱调试器,正是因为它能一步步重演死亡过程,把瞬间定格成连续画面。

!Image 32

Holmes的思路是在两条线上同时做延伸:静态侧,我们将日志与转储映射为可视化 UI;动态侧,则通过远程热插桩实时采集运行时数据。

我想重点分享下UI视图在排障中的实际价值。移动端程序以GUI交互为主,bug中天然有很大占比来源于UI视图相关的问题,复杂应用遇到的UI视图难题通常是组合式问题,需要跨越应用层直达系统框架层。

我们曾遇到一类极难定位的崩溃:只有一张截图、一份ViewTree和一串点击事件。把这三样拼在一起,就能还原用户到底点了哪个按钮、触发了哪段逻辑,从而把“毫无关联”的系统堆栈翻译成“按钮A崩溃”。别小看这一步,它让研发立刻联想到最近的MR和需求,排障时间从小时级缩到分钟级。具体落地时,Holmes的UI视图采集必须“刚刚好”:信息不能多也不能少,多了干扰判断,少了缺关键线索;同时要对系统UI框架足够熟悉,才能在不显著损耗性能的前提下,把View层级、布局参数、事件链路一次性抓全。

第一次看采集结果的人,常被密密麻麻的参数吓到。确实,只有写工具的同学才记得住每个字段含义。这又回到老问题:工具越复杂,会用的人越少,资源再次错配。

!Image 33

AI时代给了我们打破循环的机会。我们沿用了前面提到的Agent框架,先让大模型把版本、系统、堆栈等基础信息做一轮预处理;再用专家沉淀的经验规则让大模型把问题分桶,每个桶对应相应的问题分析Agent(作者注:AI发展很快,2026最新架构已在 Skill方向发展,但思想一致),例如UI视图Agent会读取Holmes采集的数据并结合源码,用ReAct策略不断自问“是否需要进一步工具”“是否已定位根因”,在限定轮次内给出结论;若超时仍未解决,则标记失败并交由人工兜底。如此,复杂参数被Agent自动消化,研发只需关注“哪个按钮崩了”,工具终于从“个人绝技”变成“团队标配”。

!Image 34

看起来似乎顺理成章:先粗判问题,再分类,最后给出源码。但真正动手做过Agent的人都知道,大模型的幻觉问题远比想象中更严重,且每一步都伴随概率衰减——一步80%,两步就只剩64%。工业级场景要求接近100%,于是工程细节被放大成决定性因素(作者注:26年模型能力提升有很大缓解,但问题本身仍然存在)

在上下文工程上,我们踩的坑可以归为两类。第一类是信息不足,目标过于宏大,直接让模型“分析一下这次崩溃”,效果往往稀碎。第二类是信息过载,职责边界模糊,模型反而迷失。用数学语言讲,前者是“欠定”,后者是“超定”,我们要的是“适定”:不多不少,刚好足够。

为此,我们把问题拆成若干单一职责的Agent,每个Agent的提示词都经过精心裁剪,并通过few-shot示例教会它如何调用私域工具。最终呈现的效果是:系统先给出根因推测,再列出排查方向。若问题简单,可直接生成MR,一键采纳;若问题复杂,研发可沿线索继续深挖。

!Image 35

前面谈的多是崩溃类场景。在“动”的另一侧,Profiler负责性能问题。最广为人知的便是火焰图。细究名字,它源于十多年前Netflix工程师Brendan Gregg用Perf工具生成的可视化:调用栈越高,火焰越旺,瓶颈一目了然。如今,火焰图已“名不副实”——Android的Perfetto不再仅仅画火焰,而是把CPU、内存、调度、应用事件(atrace)与内核追踪(ftrace)全部塞进一张图。十几秒的采集即可产出60MB数据:采样太短,信号不足;采样稍长,数据便膨胀到难以处理。复杂问题需要复杂工具,复杂工具又带来复杂用法,而场景本身还在持续膨胀。

过去我们面对性能问题时,通常的做法是先花时间去学习火焰图工具的使用,再在图中来回拖拽、放大缩小,逐层定位瓶颈。这一步对工程师的底层知识要求极高,完成后才能正式进入分析阶段:查看历史案例、比对相似问题,整个链路长、门槛高、效率低,还容易遗漏关键线索,这些正是 AI 可以发力的痛点。

!Image 36

我们给出的火焰图方案依旧沿用“专家经验前置”的思路,做AI火焰图排障的人,首先得是一位能熟练解读火焰图的性能专家。方案的核心在于数据预处理算法,如何把60MB 的原始火焰图压缩成可供模型高效消费的上下文,并与源码、trace事件精准关联,从而完成粗筛,然后再由后续的处理环节按需加载必要信息进行分析。最终,火焰图分析结果按四种维度呈现:卡顿、启动、Slice与自定义查询。系统直接给出结论,并指出对应源码位置,支持一键跳转,无需再像过去那样手动拖拽寻找瓶颈,排障路径被大幅缩短。

!Image 37 四、实践:AI 加速应急处置

!Image 38

接下来我想谈谈应急故障处置。它的核心只有一个字:急。

先说一个真实案例。iOS26升级后,苹果再次引入兼容性变动——25年后仍在修改 Objective-C Runtime,并在文档里“善意”提醒:此处会崩,可详见《iOS 26你的property崩了吗?》。结果,快手线上仍在运行的上百个历史版本,在升级 iOS26后瞬间集体崩溃。只有真正经历过的人,才体会得到那种痛:版本多、用户广,止损无从下手。我们盘点现有手段,有以下两种:

* 应用商店更新:一周覆盖率 50%,剩下 50% 的用户必崩一次;

* 变更回滚:这次是苹果改动,无法让苹果回滚。

于是,我们问自己:有没有一种工具,能在崩溃发生的瞬间直接“兜底”,像《英雄联盟》里的Ekko开大招——时光倒流,让程序回到正常状态?我们内部也把这个工具命名为Ekko。它的思路很朴素:无论异常由谁引入、因何触发,先跳过错误,保证用户不崩。当然,实现起来并不简单。

!Image 39

行业里曾有一种前置Hook方案,但它必须在异常发生前就介入,对所有用户生效,哪怕他们从未崩溃,Ekko规避了这个缺点。Ekko与行业方案的最大区别,在于它是“事后”的——只有当用户真正崩溃时,才进入兜底流程,从而把对正常用户的干扰降到零。 这听起来简单,实现却层层递进。以NSException为例,我们注册exception_preprocessor;C++异常则要 hook personality routine;Mach异常还得与内核通信,难度逐级升高。

!Image 40

崩溃被捕获后,执行流已被打断,必须精确恢复现场:指令地址、寄存器、栈帧、局部变量,一个都不能错。我们的方案也经历了多次迭代:1.0版基于常规栈回溯,遇到 Mach异常就束手无策;2.0版引入异步unwind,又碰上因包体积优化而被裁剪的unwind info带来的兼容性问题;最终,我们干脆自研反汇编器,把控制权完全握在自己手里。

!Image 41

工具虽强,落地仍难。配置跳转指令、恢复上下文等步骤依旧繁琐,只能由少数专家操作。一旦线上告警,专家不在场,风险便陡增。于是我们把AI接进来:由Agent自动分析崩溃现场,生成兜底配置,并给出影响范围与推荐参数,既降低门槛,也减少人为失误。

这里,我再讲一个故事。不知道大家过往见过多大的事故,我见过的是千万级崩溃,而且只发生在半小时内。起初只是一个小崩溃,一小时才崩一两百次;大家在处理时做了一个善意的止损——把弹气泡功能关掉,以为这样就能止血。没想到“关掉气泡”这个动作本身的问题根因原理一致,结果崩溃量从几百次瞬间涨到几十万次。这件事表明,故障处置中过度依赖人工判断并不可靠。人在高压下会紧张、肾上腺素飙升,很容易漏掉关键信息。

于是我们把AI引入进来。它不会紧张,也能把历次操作都总结下来,并提供处置建议,发展至终局阶段甚至能够自动处置。做法还是基于前面说的Agent架构:故障来了先分析,给出建议结论;如果判断需要兜底,就调用兜底工具生成配置并发布。

直接看效果。第一,Checklist:你现在很紧张,就按我们处理了一年几百次报警总结出的步骤一条条列出来给处置建议,防止遗漏。第二,问题总结:崩溃上报字段有100多个维度,人眼看肯定漏。很多问题其实有维度特征,比如展示图里提示“Android35、高通芯片”等限定条件,有了这些信息,第一步定界就很快。第三,在给出维度后,继续提供源码级分析,并推送可能的修复方向,省去人工翻查。

!Image 42 五、总结展望

!Image 43

接下来想分享下我们在开发Agent过程中的真实体感,也算一次认知升级。

首先,这是一次思维切换。写传统程序时,我们默认“图灵机”式的确定性:输入固定,输出必达。但大模型需要概率思维,若仍以确定性思维调试,只会徒增烦恼。只有先摸清楚它擅长什么、薄弱在哪、天花板多高,才能决定哪里用 AI、哪里留硬代码,省下大量返工时间。

其次,要识别瓶颈并主动拆解。提示词工程本身并不能提高模型本身的上限,因为模型权重并未改变;但一份精心设计的提示词能把模型已有的能力充分激发出来,这需要专家多年隐性知识与直觉释放模型能力的天花板。模型单次推理深度有限,也需要基于专家经验,把复杂问题切成可管理的子部分,并尽可能的完善公司内部各个系统的数据打通串联。与此同时,评测体系必须同步建立:AI+稳定性的能力是个螺旋上升的过程,传统程序只耗时间,AI还耗Token,烧钱速度倒逼我们把评估做得像上下文工程一样严谨。

回到最初的问题:AI会不会把人替代?我倾向听听“祖师爷”的声音。Linus Torvalds被问到“是否已有LLM代码未经请求就提交给你”时,回答干脆:“肯定发生了,而且规模还会扩大。”在他看来,工具演进从未停歇:机器码 → 汇编 → C → Rust,如今只是又多了一层 AI。代码审查与维护同样如此,Linus 希望 AI 能先帮他抓“那些显而易见的蠢 bug”,毕竟连他自己也免不了犯低级错误。

面对主持人试图把话题引向“AI会取代程序员”的负面预设,Linus并未接茬,反而强调:自动化工具历来只是人类能力的延伸,从机器码到汇编再到高级语言,每一次演进都让开发者走得更远;AI 也不例外——真正决定价值的,始终是我们如何驾驭它。

!Image 44

当下AI话题很热,越在热潮越要冷静。我们认为,体力型的排障动作终将被自动化,但人类需要更高阶的能力:提出正确问题、识别模型幻觉、在恰当时机介入。俗话说AI一天人间一年,AI发展非常快,伴随着模型能力的提升,我们也会把流程从“human-in-the-loop”向“human-on-the-loop”延伸发展。面向AI Native时代,一切才刚刚起航。 关于我们

!Image 45

快手主站技术部是负责快手app和快手极速版app的核心业务研发团队,服务于数亿用户每天时长上百分钟的使用,专注于打造极致且高效的生产、社交、消费、直播、增长、房聘等业务研发体验。同时也是快手最大的技术部门之一,拥有业界资深的服务端、大前端、质量、算法团队,承担着核心业务需求迭代、超高并发服务开发,春节、奥运等大型活动工程技术保障,以及业界领先的基础技术建设等任务。 热招岗位:大前端方向

!Image 46

* 前端开发工程师 -【招聘房产】

* 前端开发工程师-【大前端】

* 前端开发工程师(AI应用方向)

* 前端开发工程师(直播)-【主站】

* 前端开发工程师-【主站】

* 高级前端开发工程师(活动运营)

* 前端开发工程师(AI工具方向)-【主站】

* Android开发工程师-【主站】

* iOS开发工程师-【用户增长】

* Android开发工程师(创作&社交)-【主站】

* iOS开发工程师(创作&社交)-【主站】

* 客户端开发工程师(回森业务)-【主站】

* 客户端开发工程师(端智能)-【主站】

* Android开发工程师(搜索)-【主站】

* 客户端开发工程师(消费)-【主站】

* Android开发工程师-【主站】

* 投递方式:

扫描下方二维码投递,或投递简历至邮箱:zhanghaolu@kuaishou.com

!Image 47

服务端、算法、质量 等方向 岗位同步热招中!

点击【阅读原文】,加入我们!

!Image 48: 快手技术 快手技术 @快手技术

Featured Reason

Kuaishou details its Conan AI platform's role in automating front-end stability management. The practice focuses on using Holmes for UI-to-code mapping, AI-driven Flame Graph optimization, and the Ekko system for precise crash recovery. By encoding expert heuristics into an Agent-based workflow, Kuaishou significantly reduces troubleshooting latency and transforms complex debugging into a standardized, AI-assisted process, demonstrating how AI serves as a force multiplier in large-scale production environments.

One Sentence Summary

Kuaishou has developed the 'Conan AI' platform, which leverages an Agent architecture to deeply integrate low-level troubleshooting tools, enabling intelligent diagnosis and emergency mitigation for frontend performance and stability at a 100M+ DAU scale.

Summary

This article details Kuaishou's practical experience in using AI to empower frontend stability. Facing the complex performance challenges brought by a 100M+ DAU, Kuaishou built the Agent-centric 'Conan AI' platform, connecting internal toolchains via a self-developed Agent framework and the MCP protocol. Key practices include: using the Holmes tool for UI view and runtime data collection, and resolving 'reasoning chain breaks' in root cause analysis through multi-Agent collaboration; addressing performance bottlenecks by preprocessing and compressing flame graphs to enable AI to pinpoint source code; and on the emergency side, implementing post-incident error handling via the Ekko tool, with AI-assisted configuration generation to eliminate human error under high-pressure environments. The author emphasizes the importance of shifting from deterministic programming to probabilistic thinking, viewing AI as an extension of developer capabilities.

Main Points

* 1. The core positioning of AI is as a team output amplifier, aiming to transform expert experience into organizational capability.

By using AI to handle preliminary diagnosis of difficult bugs and automated fixes for simple ones, expert manpower is freed up for higher-value work, breaking the vicious cycle where 'only senior experts can fix bugs'.

* 2. Building a collaborative architecture based on single-responsibility Agents to solve LLM hallucinations in complex troubleshooting.

Troubleshooting is broken down into stages such as problem summarization, hypothesis generation, and hypothesis verification. Through carefully crafted prompts and few-shot examples, different Agents are assigned to specific analytical domains, improving accuracy in industrial-grade scenarios.

* 3. Achieving effective AI consumption of massive performance data through data preprocessing and context engineering.

For raw data like flame graphs that can reach tens of MBs, preprocessing algorithms are used for compression and feature extraction, allowing the model to accurately correlate source code with trace events within limited context windows.

* 4. Establishing an 'emergency fallback' system, utilizing AI to reduce operational risks in high-pressure environments.

The self-developed Ekko tool restores the scene and skips errors the moment a crash occurs, while an AI Agent automatically analyzes the scene and generates fallback configurations, preventing human error during stressful situations.

* 5. Troubleshooting is essentially a scientific reasoning experiment, requiring a shift from deterministic thinking to probabilistic thinking.

Developers need to recognize the capability ceiling of AI, guide the model through deduction and induction via Agent strategies, and introduce human intervention at the right time to achieve a 'Human-on-the-loop' evolution.

Key Quotes

* The positioning of AI is not to replace anyone, but to become a team output amplifier, transforming 'expert experience' into organizational capability. * Code is cheap, debug is expensive—show me the fix. * The troubleshooting process is very similar to solving a crime; both require reconstructing motives from scattered clues before locking onto the culprit. * Large models require probabilistic thinking; debugging with a deterministic mindset will only lead to frustration. * Automation tools have always been an extension of human capabilities... what truly determines value is always how we wield them.

AI Score

92

Website mp.weixin.qq.com

Published At Today

Length 7521 words (about 31 min)

Tags

AI Agent

Frontend Stability

Automated Troubleshooting

Performance Optimization

Kuaishou Tech

Related Articles

* Dual-Stack Consistency, Business-Driven: Unveiling the Technical Practices Behind Kuaishou KwaiDesign Enterprise UI Component Library * Context Is All You Need: Practices and Reflections on Kuaishou's Backend AI Coding * Deconstructing Clawdbot: Local Architecture, Memory Management, Agent Orchestration, and Context Assembly Principles * Kuaishou: The Leap Towards an AI R&D Paradigm for a 10,000-Person Organization * How to Design an AI Agent System * Kuaishou's C++ Compilation Optimization Practice: Boosting Business Performance by 10% and Contributing Propeller Solutions to the LLVM Community * From 7.9% to 54% Adoption: The Three-Stage Evolution of Kuaishou's Intelligent Code Review * GPT-5.4 Released: OpenAI's First Unified Model, Truly Native * 128. Manus Co-founder's Final Interview Before Sale: The Fantastical Drift to 2025... * What You Don't Know About Claude Code: Architecture, Governance, and Engineering Practices - Tw93 HomeArticlesPodcastsVideosTweets

AI x Frontend Performance & Stability: Intelligent Diagno...

查看原文 → 發佈: 2026-03-20 18:27:00 收錄: 2026-03-20 22:00:38

🤖 問 AI

針對這篇文章提問,AI 會根據文章內容回答。按 Ctrl+Enter 送出。