标签归档:稳定性

1:29:300!这个「魔鬼定律」正在预告你的下一次线上故障

无论是深夜被夺命连环 call,还是眼睁睁看着用户反馈铺天盖地而来,那种感觉,相信大家或多或少都体验过。

当我们不幸经历了一次「刻骨铭心」的线上故障。痛定思痛,除了常规的复盘,我们也许要从一个更系统、更底层的视角,和团队的同学一起探讨:故障,究竟为何而来?我们又该如何防微杜渐?

今天,我们聊下安全管理领域的「老法师」——海恩法则(Heinrich’s Law),以及它的一众「智慧亲友团」。

海恩法则:事故背后的「1:29:300」金字塔

海恩法则的来历

海恩法则由美国工业安全先驱赫伯特·威廉·海因里希(Herbert William Heinrich) 在上世纪30年代提出。他在为保险公司工作时,通过分析数千份工伤事故报告,总结出了这个惊人的规律。最初应用于工业安全领域,但其揭示的事故发生规律具有普遍性,早已跨界影响到航空、医疗、乃至我们软件工程等多个领域。

海恩法则指出:

在一件重大的事故背后,平均有 29 次轻微事故,以及 300 个无伤害的隐患或未遂事件。

这个法则通常以 1:29:300 的金字塔比例来形象展示。

海恩法则的核心思想

  1. 事故是可以预防的:严重事故并非天降横祸,而是此前一系列小问题和风险累积、演变的结果。如果我们能有效管理「29」和「300」,就能大概率避免「1」的发生。
  2. 重视「未遂先兆」:那 300 个「隐患」和 29 个「轻微事故」是重大事故的「报警器」。忽视它们,就等于给灾难开了绿灯。很多时候,我们只关注已经发生的「1」,却对冰山下的「29」和「300」视而不见。
  3. 安全管理需系统化:事故的发生往往与管理体系的漏洞、流程的缺陷、安全文化的缺失等系统性问题相关。预防事故需要从整个系统的角度出发,进行持续改进。

海恩法则的应用实例

  • 工业生产:工厂通过定期的安全检查、员工安全行为规范、隐患上报奖励等机制,主动排查和消除那「300 个隐患」,处理「29 起轻微事故」,从而避免重大生产安全事故。
  • 航空安全:每一次飞行前的详细检查、飞行员的严格培训、对飞行过程中任何微小异常的记录与分析,都是海恩法则的体现。一个螺丝的松动(隐患)如果不被发现,可能导致部件故障(轻微事故),极端情况下甚至引发空难(重大事故)。
  • 医疗安全:医院对用药错误、手术流程中的小差错等「未遂事件」进行记录和分析,改进流程,以防止严重的医疗事故。

对于线上故障,海恩法则给我们的启发与教训

海恩法则对于我们维护线上系统稳定性,尤其是复杂的线上应用,具有极其深刻的指导意义。

教训与经验借鉴:

  1. 「小问题」绝不小觑:线上一个偶发的 null 指针异常、某个非核心接口超时频率略增、用户反馈的一个「不太影响使用」的小 Bug,都可能是「29」或「300」的信号。如果仅仅是临时「hotfix」或者因为优先级不高而搁置,这些「小债」累积起来,迟早会引发“大雷”。
  2. 「未遂」也是宝贵数据:一次灰度发布中发现的问题并回滚、一次压力测试暴露的瓶颈、一次配置错误在生效前被发现……这些都是「未遂事件」。它们暴露了流程或系统中的薄弱环节,是改进的绝佳机会,不能因为「没出事」就庆幸了事。
  3. 故障复盘不能止于表面:发生故障后,不能仅仅定位到直接原因(比如某行代码写错了),更要深挖根本原因:为什么这行错误的代码能上线?测试为何没发现?Code Review 为何遗漏?发布流程是否有问题?这才是触及「300个隐患」层面的思考。
  4. 建立「隐患上报」的文化:鼓励团队成员主动暴露系统中的潜在风险、不合理的设计、流程上的缺陷,即使这些问题短期内没有引发故障。要营造一个「说出问题是贡献」的安全文化氛围。

哪些算作「轻微事故」和「隐患」?线上 BUG 怎么算?

  • 300 个隐患 – 系统中的「定时炸弹」

    • 技术债:过时的库、临时的硬编码、缺乏注释的复杂代码、糟糕的架构设计。
    • 配置风险:配置项繁多且缺乏校验、配置管理混乱、关键配置依赖人工操作。
    • 监控盲区:核心业务指标未监控、告警阈值不合理、日志信息不全或格式混乱。
    • 测试覆盖不足:单元测试覆盖率低、缺乏有效的集成测试和端到端测试、对异常场景和边缘 Case 考虑不周。
    • 流程缺陷:发布流程不规范、变更管理随意、缺乏应急预案或预案未演练。
    • 知识断层:核心模块只有少数人懂、文档严重滞后或缺失。
    • 不规范的操作习惯:随意在线上环境执行高危操作、密码弱口令或共享。
    • 线上 BUG,未直接造成服务中断或核心功能严重受损的:例如,某个页面的 UI 显示错位、某个非核心功能的计算结果在特定条件下不准确但用户感知不强。这些 BUG 本身是问题,也是系统脆弱性的体现,属于「隐患」范畴,若不修复,可能在特定条件下与其他因素叠加,引发更严重问题。
  • 29 次轻微事故 – 系统发出的「黄牌警告」

    • 短暂的服务抖动:例如,某个服务实例重启导致短时间部分请求失败。
    • 部分功能不可用或性能下降:例如,图片上传功能暂时失败、某个 API 响应时间飙升但未完全超时。
    • 告警频繁触发但能自动恢复:例如,CPU 使用率短时超阈值后回落。
    • 线上 BUG,已造成用户可感知的、轻微的功能异常或体验下降:例如,用户无法修改头像、搜索结果排序偶现不符合预期但仍可使用。这类 BUG 已经对用户产生了一定影响,属于轻微事故。
    • 资源超限警告:数据库连接池满、磁盘空间接近阈值。
  • 1 次重大故障 – 系统「拉响红色警报」

    • 核心服务长时间中断
    • 大面积用户无法使用核心功能
    • 数据丢失或严重损坏
    • 造成公司声誉或经济重大损失

哪些指标能帮我们「看到」冰山?

有效的监控和度量是发现「29」和「300」的关键。以下一些指标可以帮助我们感知系统的健康状态:

  • 线上 BUG 数量与趋势

    • 新增 BUG 数/解决 BUG 数:反映研发质量和修复效率。
    • 遗留 BUG 数量与等级分布:高等级 BUG 积压是重大风险。
    • BUG 平均解决时长 (MTTR for bugs)。
  • 代码质量指标

    • 圈复杂度:高圈复杂度的代码往往难以理解和维护,是潜在的 BUG 温床和隐患。持续监控圈复杂度的变化趋势,对超标模块进行重构。
    • 代码重复率
    • 静态代码分析告警数
  • 系统稳定性与性能指标

    • 服务可用性 (SLA/SLO)。
    • 错误率:API 错误率、特定业务操作错误率。
    • 平均响应时间 (Average Response Time) 与分位值 (e.g., P95, P99)。
    • 资源利用率与饱和度:CPU、内存、磁盘I/O、网络带宽、数据库连接池等。
  • 变更与发布相关指标

    • 变更成功率
    • 因变更引发的故障数
    • 发布频率 (高频健康的发布是敏捷和稳定的体现,但需质量保障)。
  • 告警与事件指标

    • 告警数量与级别分布:过多低价值告警会造成“告警疲劳”。
    • 平均故障检测时间 MTTD
    • 平均故障恢复时间 MTTR

海恩法则的「亲友团」:这些智慧异曲同工

海恩法则并非孤军奋战,在安全管理和系统思维领域,还有许多理论与它遥相呼应,共同构成了我们理解和应对风险的知识体系:

  1. 墨菲定律:「凡事只要有可能出错,就一定会出错。」 它提醒我们不要抱有侥幸心理,任何潜在的风险点都可能在某个时刻爆发。

  2. 多米诺理论:同为海因里希提出,认为事故的发生像一连串倒下的多米诺骨牌,由五个阶段(社会环境/遗传因素 -> 人的失误 -> 不安全行为/条件 -> 事故 -> 伤害)连锁引发。切断其中任何一环,特别是「不安全行为/条件」,就能阻止事故。

  3. 冰山理论:事故的直接损失(如设备损坏、人员伤亡)只是冰山一角,水面下隐藏着更大的间接损失(如生产延误、声誉受损、员工士气低落等)和深层原因(管理缺陷、安全文化缺失)。与海恩法则的 1:29:300 有异曲同工之妙。

  4. 帕累托法则 80/20 法则:大约 80% 的事故是由 20% 的原因造成的。这提示我们要集中资源解决那些最关键的风险点和隐患。

  5. 鲍尔法则:系统越复杂,发生重大事故的概率越高。这警示我们在设计和维护复杂系统(如AIGC应用)时,要格外关注风险的累积和扩散。

  6. 「四不放过」原则:事故原因不查清不放过、责任人未受到处理不放过、整改措施未落实不放过、相关人员未受到教育不放过。这是事故后处理的铁律,确保从错误中学习,防止重蹈覆辙。

  7. 瑞士奶酪模型:由詹姆斯·里森(James Reason)提出。系统有多道防线(如代码规范、测试、监控),每道防线都像一片瑞士奶酪,上面有孔洞(缺陷)。当所有孔洞恰好对齐时,风险就会穿透所有防线,导致事故。这强调了单一防线的不足和多层防御的重要性。

  8. 破窗效应:环境中一个未被修复的「破窗」,会暗示这里无人管理,从而诱发更多的混乱和破坏。对应到系统中,一个小 BUG、一个不规范的操作长期被容忍,会逐渐侵蚀团队的质量意识和纪律,最终导致大问题。

从「救火」到「防火」:我们的系统性行动指南

理解了这些法则和理论,我们不能仅仅停留在「哦,原来如此」,更要将其转化为行动,从根本上提升系统的稳定性和韧性。

  1. 拥抱「小题大做」文化:对每一个「29」和「300」保持高度警惕,建立快速响应和彻底解决的机制。
  2. 建立并严格执行「故障复盘」机制:深入挖掘根本原因,落实改进措施,并跟踪效果,形成闭环。
  3. 强化「可观测性」建设:完善日志、指标、追踪体系,让系统的每一个角落都“透明可见”。利用好我们前面提到的各项指标。
  4. 投资于「看不见的角落」:积极偿还技术债,优化系统架构,完善自动化测试,加强代码审查,推广混沌工程等。
  5. 提升团队的「风险意识」与「系统思维」:让每个人都成为系统安全的守护者,理解自己的工作如何影响全局。
  6. 持续演练,常备不懈:完善应急预案,并定期组织真实场景的故障演练,提升团队应急响应能力。
  7. 数据驱动,持续改进:利用收集到的指标数据,分析趋势,识别瓶颈,指导我们的优化方向。例如,如果线上 BUG 数持续在高位,或圈复杂度高的模块频繁出问题,那就是明确的改进信号。

写在最后

线上系统的稳定性,是一场没有终点的马拉松,也是一场与熵增(系统混乱度增加的自然趋势)的持续对抗。故障不可怕,可怕的是从故障中一无所获,反复在同一个地方跌倒。

希望海恩法则和它的「亲友团」能像一盏盏明灯,照亮我们系统中的每一个阴暗角落,指引我们关注那些微小的信号和潜在的风险。通过系统性的思考、数据驱动的决策和持续不懈的改进,我们一定能逐步减少重大故障的发生,为用户提供更稳定、更可靠的服务。

以上。

稳住!AIGC 架构中的排队系统与限流策略

 

我们见过那么多 AIGC 的酷炫功能,文生图、图生视频,……,是不是觉得 AI 特别强大?但你想过没,当成千上万的用户同时涌进来,都想让 AI 帮他们画画、写诗、做视频时,后台那些强大的模型和昂贵的计算资源(比如 GPU)会发生什么?

如果不加管理,它们很可能瞬间就被「挤爆」了!服务器宕机、用户请求失败、体验直线下降,甚至可能因为资源滥用导致成本失控。就像一家超火的餐厅,没有排队叫号系统,也没有门口保安/服务员控制人流,那里面肯定乱成一锅粥,谁也吃不好饭,对吧?

比如年初 DeepSeek 不能用的场景。

这就是为什么在设计 AIGC 架构时,排队系统和限流是绝对不能少的「定海神针」。它们就像餐厅的叫号系统和门口保安,确保整个服务流程既高效又有序,还能保护好咱们宝贵的「厨房」(计算资源)。

那当排队系统或限流策略出现的时候,我们的产品可能会有哪些表现呢?或者作为一个用户我们能看到哪些?

1. 产品表现

1.1 排队系统的「产品表现」

排队系统主要是为了处理「来不及马上做」的请求,但让用户知道「我已经收到你的指令了,正在处理中,请稍候」。所以它的表现形式通常和 等待、状态更新、异步通知 有关。

  1. 「转圈圈」与进度条:

    • 表现: 你提交一个请求(比如让 AI 生成一张图片),界面上出现一个加载动画或者一个不太精确的进度条,告诉你「正在处理中」。
    • 背后逻辑: 这时候你的请求很可能已经进入了后台的队列,正在等待 GPU 资源。这个动画就是前端在告诉你:「别急,后台在排队/处理呢!」 对于耗时较短、用户愿意在线等待的任务,这是最常见的表现。
  2. 明确的「排队中」或「处理中」状态 :

    • 表现: 对于耗时较长的任务(比如生成一个几分钟的视频),产品界面可能会更明确地显示任务状态,比如在一个「我的任务」列表里看到:「排队中」 (排队位置 5)”、「处理中 (还剩 3 minutes )」、「已完成」。
    • 背后逻辑: 这直接反映了后台队列和处理单元的状态。用户可以离开页面,稍后再回来看结果。
  3. 异步通知:

    • 表现: 你提交任务后,系统提示「任务已提交,处理完成后会通知您」。然后你该干嘛干嘛去。过了一会儿,你收到一个 App 内推送、邮件、短信或者其他形式的通知,告诉你「你的图片/视频生成好了,快来看看吧!」
    • 背后逻辑: 这是典型的异步处理 + 队列的应用。请求入队后,用户界面就响应了,处理完成后,通过通知机制把结果推给用户。用户体验非常好,不用傻等。
  4. 预估等待时间:

    • 表现: 有些产品会根据当前队列的长度和系统的处理速度,给你一个大概的等待时间估计,比如「预计等待时间:约 5 分钟」。
    • 背后逻辑: 系统监控着队列状态,并基于历史数据或当前负载进行预测,用来管理用户的预期。
  5. 暂时无法提交新任务:

    • 表现: 在极少数极端高峰期,如果队列积压得实在太严重,产品可能会暂时禁止提交新的同类型任务,并提示「系统繁忙,请稍后再试」。
    • 背后逻辑: 这是一种保护机制,防止队列无限增长导致系统崩溃或等待时间过长。虽然体验不好,但有时是必要的。

第 5 点的暂时无法提交新任务其实就是触发了限流策略。

1.2 限流的「产品表现」

限流是为了保护系统不被过多请求压垮,所以它的表现形式通常和 拒绝服务、错误提示、配额显示 有关。

  1. 「太快了,请稍后再试」:

    • 表现: 你在短时间内疯狂点击某个按钮,或者一个脚本高频调用某个 API,突然收到一个错误提示,比如「操作过于频繁,请稍后再试」、「API 调用次数已达上限」、「429 Too Many Requests」。
    • 背后逻辑: 你触发了限流规则(比如每分钟只能调用 10 次)。服务器拒绝了你超额的请求,并明确告诉你原因。
  2. 需要人机验证:

    • 表现: 在你进行某些敏感操作(如登录、发帖)过于频繁时,突然弹出一个图片验证码、滑动验证或者 reCAPTCHA,要求你证明自己是人类。
    • 背后逻辑: 这是一种常见的反爬虫、反刷量的限流手段。系统怀疑可能是机器人在高频操作,用人机验证来增加门槛,降低请求频率。
  3. 功能暂时不可用或降级:

    • 表现: 比如在一个免费的 AIGC 工具里,你可能发现每天只能生成 5 张图片,超过之后「生成」按钮就变灰了,或者提示你需要升级到付费版。或者,高峰期时,免费用户生成的图片分辨率会降低。或者,我们在使用一些大模型频繁的时候,会出现降智的情况。
    • 背后逻辑: 这是基于用户身份或套餐的限流策略。通过限制使用次数或降低服务质量来保证核心资源的可用性,并引导用户付费。
  4. 明确的配额/用量显示:

    • 表现: 在你的账户设置、API 控制台或者产品界面上,能清楚地看到你的使用额度,比如「本月 API 调用剩余次数:850/1000」、「今日图片生成次数:3/5」、「并行队列:5」。
    • 背后逻辑: 透明地展示限流规则和当前用量,让用户心里有数,可以合理规划自己的使用,避免突然被拒。

1.3 产品表现小结

  • 排队系统主要通过管理等待预期提供状态反馈来影响产品表现,目标是让耗时任务的处理过程更平滑、用户体验更好(即使需要等待)。
  • 限流则主要通过明确的拒绝或限制来影响产品表现,目标是保护系统、保证公平性、控制成本,有时也作为商业模式的一部分(区分不同用户等级)。

限流是入口保安,决定「你能不能进」 以及 「进来的速度有多快」。

排队系统是等候区管理员,负责管理「已经进来了但需要等待的人(任务)该怎么排队」。

2. 设计考量

咱们已经知道用户可能会看到「转圈圈」或者「稍后再试」了。但作为产品的设计者和开发者,在决定用什么样的排队和限流策略时,背后有一大堆门道需要考虑。这就像规划一场大型活动,既要保证大家玩得开心(用户体验),又要控制好场地容量和资源消耗(系统稳定性和成本),还得考虑 VIP 客人是不是有特殊通道(公平性与商业模式)。

2.1 目标第一:想达到什么效果?

这绝对是第一步,也是最重要的一步。我们引入排队和限流,到底是为了解决什么核心问题?

  • 保命要紧: 是不是首要目标就是防止系统在高并发下崩溃?比如像 DeepSeek 那样,突然涌入大量用户,如果没有任何防护,服务器可能直接就「躺平」了。这时候,强力的限流和能有效缓冲的队列就是救命稻草。
  • 控制成本: AIGC 服务,尤其是 GPU 推理,那是「吞金兽」。是不是想确保资源使用不超预算?限流可以直接控制调用总量,排队也能让我们更平稳地调度昂贵资源,避免为了应对短暂高峰而过度配置。
  • 用户体验: 我们希望用户等待多久是可接受的?是希望尽量快地给结果(可能需要更多资源),还是可以接受一定等待但保证任务最终完成?排队系统的设计(比如优先级、等待时间预估)和限流策略(是直接拒绝还是友好提示)都直接影响用户感受。
  • 公平性与差异化服务: 是不是所有用户都一视同仁?还是说付费用户、高等级用户应该有更高的请求频率、更短的等待时间?这就需要在限流和排队策略里体现出差异化。比如,给 VIP 用户更高的 QPS 限制和专属的优先队列。
  • 防止滥用: 是不是担心有人恶意刷接口、爬数据,或者用脚本进行大规模、低价值的调用?限流(特别是基于 IP、用户 ID 的精细化限流)和人机验证就是重要的防御手段。

想清楚了主要目标,后面的设计才有了方向。

2.2 量体裁衣:系统和业务长啥样?

没有放之四海而皆准的完美方案,我们的设计必须契合自身的特点:

  • 任务特性:

    • 耗时: AIGC 任务耗时差异很大。文生图可能几秒到几十秒,训练一个模型可能几小时甚至几天。耗时长的任务更适合异步队列处理。
    • 资源消耗: 不同任务对 CPU、GPU、内存的需求不同。瓶颈在哪里?是 GPU 显存容易爆,还是 CPU 计算跟不上?这决定了我们的限流和队列应该重点保护哪些资源。
    • 可并行度: 某些任务能很好地并行处理,而有些则不行。这影响了你可以同时从队列中取出多少任务来处理。
  • 流量模式:

    • 峰值与均值: 我们的应用流量是比较平稳,还是有明显的潮汐效应(比如白天高峰,晚上低谷)或者突发尖峰(比如搞活动、上热搜)?应对突发尖峰,限流的令牌桶算法和有足够缓冲能力的队列就比较有用。
    • 用户构成: 主要用户是 C 端普通用户,还是 B 端开发者通过 API 调用?他们的行为模式和容忍度是不同的。
  • 技术栈与基础设施:

    • 用的是云服务(AWS, Azure, GCP)还是自建机房?云服务通常自带成熟的队列(如 SQS, Pub/Sub)和网关限流功能,用起来方便。
    • 系统是单体架构还是微服务?微服务架构下,限流可能需要在网关层和具体服务层都做考虑。
  • 商业模式 (Business Model):

    • 免费增值模式?那免费用户的限流策略和付费用户的肯定不一样。
    • 按量付费?那精确的用量统计和限额就非常重要。

2.3 队列怎么玩:策略与选择

如果决定用排队系统,具体怎么设计呢?

  • 队列类型:

    • 先进先出 (FIFO): 最简单公平,按顺序处理。适合大部分场景。
    • 优先级队列: 可以让付费用户或紧急任务插队。实现起来复杂些,但能满足差异化服务需求。并且可以作为商业化的重要组成。
    • 延迟队列: 可以让任务在指定时间后才被处理,比如用于定时任务或重试。
  • 队列数量: 是所有任务都进一个大队列,还是按任务类型(文生图、文生文)、用户等级(免费、付费)分成多个队列?分队列可以实现更精细的控制和资源隔离,但管理更复杂。
  • 消息持久化: 请求(消息)进入队列后,是否需要保证即使系统重启也不会丢失?对于重要任务,需要选择支持持久化的消息队列(如 Kafka, RabbitMQ 持久化模式, SQS 标准队列)。
  • 死信队列: 如果一个任务处理失败(比如代码 bug、资源问题),尝试几次后还是不行,总不能一直卡在队列里吧?可以把它移到一个特殊的「死信队列」,后续再人工分析处理。
  • 消费者逻辑: 从队列里取任务来处理的「消费者」程序,它的并发数怎么控制?怎么处理任务失败和重试?怎么向用户更新状态?

2.4 限流怎么限:策略与选择

限流策略的设计同样关键:

  • 限流算法:

    • 令牌桶: 最常用,允许一定的突发流量(只要桶里有令牌),控制平均速率。比较灵活。
    • 漏桶: 强制平滑请求速率,不管来多少请求,处理速度是恒定的。对于需要严格控制下游压力的场景有用。
    • 固定窗口/滑动窗口计数器: 实现相对简单,但固定窗口有边界问题,滑动窗口更精确但实现和存储开销稍大。
  • 限流维度:

    • 按用户/API Key: 最常见,实现差异化服务和防止单一用户滥用。
    • 按 IP 地址: 可以限制匿名用户或来自特定 IP 的恶意流量,但可能误伤使用共享 IP(如 NAT、VPN)的正常用户。
    • 按接口/服务: 对不同的 API 或服务设置不同的限制,保护核心或资源消耗大的接口。
    • 按模型: 模型云厂商中最常见,不同的模型,资源不同,限制的大小也不同。
    • 全局限流: 对整个系统设置一个总的入口限制。
  • 限流位置:

    • 网关层: 统一入口,实现方便,可以拦截大量非法请求。
    • 服务层: 更靠近业务逻辑,可以做更精细的控制。
    • 中间件/库: 在代码层面集成限流逻辑。
  • 超出限制后的行为:

    • 直接拒绝: 返回错误码(如 429 Too Many Requests)。最简单直接。
    • 排队等待: 把超出的请求放入一个短暂的等待队列(注意,这和我们前面说的主要用于异步任务的队列不同,这里的队列更像是限流器内部的一种缓冲机制),如果短时间内有处理能力空出来就处理。体验稍好,但增加了复杂性。
    • 降级处理: 比如返回一个缓存的、旧的结果,或者调用一个计算量更小的备用模型(一般称为降智)。

2.5 用户体验:别让用户一脸懵

技术实现很重要,但最终是为用户服务的。怎么让这些机制不那么「讨人嫌」?

  • 透明度: 尽可能让用户知道发生了什么。

    • 等待时: 显示明确的状态(排队中、处理中)、进度条(即使不精确)、预估时间。
    • 被限流时: 返回清晰、友好的错误信息,说明原因(「操作太频繁」、「今日额度已用完」)以及何时可以重试。提供文档说明 API 的限流规则。
    • 配额显示: 在用户界面或账户中心清晰展示当前用量和总额度。
  • 预期管理: 通过预估等待时间、明确的配额等,让用户对可能发生的等待或限制有心理准备。
  • 友好的错误处理: 即使必须拒绝,也要给用户明确的指引,而不是冷冰冰的错误代码。

2.6 监控与迭代:持续观察与调整

最后,别忘了,这些都不是一成不变的。

  • 监控指标: 你需要实时监控关键指标:

    • 队列: 队列长度、消息平均等待时间、消息积压数量、消费者处理速率、死信队列数量。
    • 限流: 请求总数、被限流的请求数、触发限流的规则/用户/IP 分布、响应时间。
    • 系统: CPU/GPU 使用率、内存占用、网络带宽、错误率。
  • 告警: 当指标超过阈值时(比如队列长度过长、限流拒绝率过高),需要及时收到告警。
  • 调优: 根据监控数据和业务变化,不断调整限流阈值、队列优先级、消费者数量等参数。可能需要进行 A/B 测试来验证不同策略的效果。

3. 技术实现

聊完了「是什么」和「怎么想」,现在就到了「怎么做」的环节了。要把排队系统和限流策略落地,咱们得选对工具、用对方法。市面上成熟的方案很多,就像工具箱里的各种扳手和螺丝刀,得挑顺手的、合适的才行。

3.1 排队系统的技术选型与实现

要搞个靠谱的排队系统,我们通常不会自己从零开始造轮子(那太复杂了!),而是会选用一些成熟的消息队列中间件。这些中间件就像是专业的「排队调度中心」。

常见的「排队调度中心」有哪些?

  1. RabbitMQ:

    • 特点: 老牌劲旅,功能非常全面,支持多种消息协议(比如 AMQP),路由规则特别灵活(可以搞得很复杂,比如根据消息内容决定发给哪个处理单元),社区成熟,文档丰富。
    • 适合场景: 需要复杂的消息路由逻辑、任务分发、对消息可靠性要求高的场景。比如,不同类型的 AIGC 任务(文生图、图生文)需要交给不同的处理集群。
    • 上手: 相对来说,配置和管理比 Kafka 简单一些。
  2. Kafka:

    • 特点: 设计目标就是超高吞吐量!它更像是一个「可持久化的日志流」,数据来了就顺序写盘,消费者可以从任意位置开始读。天生适合分布式、高并发写入和读取。
    • 适合场景: 需要处理海量请求(比如用户行为日志、实时数据流)、对消息顺序有要求、能容忍稍高一点的延迟(相比内存队列)、需要消息回溯(重新消费)的场景。AIGC 的请求量如果巨大,或者需要记录详细的请求日志流,Kafka 是个好选择。
    • 上手: 集群部署和运维相对复杂一些。
  3. Redis:

    • 特点: Redis 本身是个内存数据库,速度飞快!可以用它的 List 数据结构(LPUSH/RPOP)模拟简单队列,或者用更现代的 Streams 数据类型(5.0 版本后的功能,功能更强,支持消费组、持久化等,有点像迷你版 Kafka)。
    • 适合场景: 对性能要求极高、队列逻辑相对简单、可以接受一定的数据丢失风险(如果 Redis 挂了且没做持久化或主从)、或者你系统里已经重度使用 Redis,不想引入新组件。很多限流实现也会用到 Redis。
    • 上手: 如果你熟悉 Redis,用起来非常方便。
  4. 云服务商提供的 MQ:

    • 特点: 云平台提供的托管服务。我们不用关心服务器运维、扩容缩容,按量付费,和云上其他服务(如 Lambda 函数、云存储)集成得非常好。
    • 适合场景: 应用部署在云上,想省心省力,快速搭建排队系统。它们通常提供标准队列(保证至少一次送达)和 FIFO 队列(保证顺序)。
    • 上手: 非常简单,控制台点几下或者几行 SDK 代码就能用起来。

怎么选? 简单说:

  • 要灵活路由、功能全面?考虑 RabbitMQ。
  • 要超高吞吐、能接受一定复杂性?考虑 Kafka。
  • 要简单快速、或者已有 Redis?试试 Redis Streams/List。
  • 在云上、想省事?用云厂商的 MQ 服务。

实现时要注意啥?

  • 生产者: 就是你接收用户请求的那部分服务(比如你的 Web API)。它需要把用户的请求(比如“画一只猫”)包装成一个**消息 (Message)**,扔进选好的队列里。这个消息里得包含足够的信息,比如任务类型、用户输入的提示词 (Prompt)、用户 ID、可能还有优先级等。
  • 消费者 这是真正干活的「工人」(比如运行 AIGC 模型的 GPU 服务器上的程序)。它会不断地从队列里拉取(Pull)或接收推送(Push)过来的消息,然后根据消息内容执行任务(比如调用模型生成图片)。

    • 并发控制: 你可以启动多个消费者实例来并行处理队列里的任务,提高效率。但要控制好数量,别把 GPU 资源撑爆了。
    • 任务确认: 消费者处理完一个任务后,一定要告诉队列:“这个活我干完了(Ack)!”这样队列才会把这个消息彻底删除。如果消费者处理失败或者挂了,没来得及确认,队列通常会把这个消息重新交给其他消费者处理(保证任务不丢失)。处理不了的坏消息,可以考虑扔进死信队列
  • 消息体设计: 消息里具体放啥内容得设计好。是直接把图片数据放进去(不推荐,太大),还是放一个指向存储的链接?用户 ID 要不要带上,方便后续通知?

3.2 限流的技术选型与实现

限流的实现方式也很多样,可以在不同的地方「设卡」。

在哪儿「设卡」?

  1. 网关层: 这是最常见的做法。在所有请求进入你系统的大门口(比如 API Gateway)就进行拦截。

    • 工具: Nginx (自带 limit_req 模块)、Kong、Apigee、AWS API Gateway、Google Cloud API Gateway 等。这些网关通常都内置了限流功能,配置一下就行,对后端服务是透明的。
    • 优点: 统一管理,效率高,能把大量不合规的请求挡在外面,保护后端服务。
    • 缺点: 可能不够灵活,无法基于非常复杂的业务逻辑来限流。
  2. 应用层/代码层: 直接在你的后端服务代码里加入限流逻辑。

    • 工具:

      • 各种语言的库/框架: 几乎每种流行的编程语言都有现成的限流库。比如 Java 的 Guava RateLimiter,Go 的 golang.org/x/time/rate,Python 的 ratelimiter 或集成在 Web 框架(如 Django/Flask)的插件,Node.js 的 express-rate-limit 等。
      • Web 框架中间件 (Middleware): 很多 Web 框架允许你插入中间件,在处理请求前后执行逻辑,非常适合放限流代码。
    • 优点: 最灵活,可以根据任意业务逻辑(比如用户等级、请求参数)来定制限流策略。
    • 缺点: 需要在每个需要限流的服务里都实现或引入,可能有点重复工作;性能开销比网关层高一点。

限流状态存哪儿?(尤其是在分布式系统里)

限流算法(比如令牌桶、滑动窗口)需要记录当前的状态(比如桶里还有多少令牌、窗口内有多少请求)。在分布式环境下(你有多个服务实例),这个状态必须是共享的。

  • Redis: 绝对的主力! 因为它:

    • 快: 基于内存,读写速度非常快,对限流这种高频操作很友好。
    • 原子操作: Redis 提供了像 INCR (原子加一)、EXPIRE (设置过期时间) 这样的原子命令,这对于并发环境下的计数和状态更新至关重要,避免了竞态条件。很多复杂的限流逻辑可以通过 Lua 脚本 在 Redis 服务端原子执行,保证一致性。
    • 适合分布式: 所有服务实例都可以访问同一个 Redis 来读写限流状态。
  • 内存 如果你的服务是单实例部署,或者限流逻辑不要求跨实例共享状态,那么用内存记录状态是最快的。但服务一重启状态就没了,也不适用于分布式系统。
  • 数据库: 理论上也可以,但数据库通常比 Redis 慢,对于限流这种需要快速响应的操作,可能会成为性能瓶颈,所以不太常用。

算法怎么用代码大概实现一下?(概念性)

  • 令牌桶:

    1. 每个用户/API Key 在 Redis 里对应一个 Key,存当前令牌数 (token count) 和上次添加令牌的时间戳 (last refill timestamp)。
    2. 请求来了,先根据时间差计算需要补充多少令牌(不能超过桶容量),更新令牌数和时间戳。
    3. 检查当前令牌数是否大于 0。
    4. 如果大于 0,令牌数减 1,允许请求通过。
    5. 如果等于 0,拒绝请求。
    • 关键: 上述步骤最好用 Lua 脚本在 Redis 里原子执行,防止并发问题。
  • 滑动窗口日志:

    1. 每个用户/API Key 在 Redis 里对应一个 Sorted Set。
    2. 请求来了,用当前时间戳作为 score,请求 ID (或时间戳+随机数) 作为 member,添加到 Sorted Set (ZADD)。
    3. 移除窗口之外的旧记录 (ZREMRANGEBYSCORE,移除时间戳小于 “当前时间 – 窗口大小” 的记录)。
    4. 获取当前窗口内的记录数量 (ZCARD)。
    5. 如果数量小于阈值,允许请求;否则拒绝。
    • 关键: 同样,这些操作最好也封装在 Lua 脚本里保证原子性。

3.3 整合到 AIGC 流程

现在我们有了排队和限流的工具,怎么把它们串到咱们的 AIGC 服务流程里呢?想象一下一个典型的流程:

  1. 用户请求抵达: 比如用户在网页上点了“生成图片”按钮,请求发往后端。
  2. 入口限流 (网关/服务): 请求首先经过限流器。检查这个用户/IP 的请求频率是否超标。

    • 超标: 直接返回错误(如 429 Too Many Requests),流程结束。
    • 未超标: 请求继续往下走。
  3. 请求处理与任务提交: 后端服务(比如 Web API)接收到请求,进行一些基本校验,然后把需要执行的 AIGC 任务(包含提示词、参数等)封装成一个消息。
  4. 进入队列: 这个消息被发送到消息队列 (MQ) 中。此时可以告诉用户「任务已提交,正在排队/处理中」。
  5. 任务排队等待: 消息在队列里按照策略(FIFO、优先级等)排队,等待有空闲的「工人」。
  6. 工人处理任务 (消费者): 后台的 GPU 工作节点(消费者)从队列里拉取消息。
  7. (可选) 资源访问限流: 如果这个工人需要访问外部资源(比如调用另一个受限的 API),它内部可能也需要遵守相应的限流规则。
  8. 执行 AIGC 任务: 工人调用模型,执行计算密集型的生成任务。
  9. 存储结果: 生成结果(比如图片 URL、生成的文本)被存储到数据库或对象存储中。
  10. 任务完成确认: 工人向消息队列发送确认信号 (Ack)。
  11. 通知用户: 通过某种方式(比如 WebSocket 推送、回调 URL、或者用户主动查询状态)告知用户任务已完成,并提供结果。

从整个流程来看,限流主要作用在入口处(步骤 2),有时也可能在资源消耗端(步骤 7)。而排队系统则承担了削峰填谷、异步解耦(步骤 4-6, 10) 的核心作用。

技术实现这块,选型和细节非常多,但核心思路就是这样:根据我们的需求(性能、可靠性、成本、复杂度)选择合适的 MQ 和限流工具/库,然后把它们合理地嵌入到服务流程中,再配上完善的监控。这样,我们的 AIGC 应用就能更从容地应对用户的热情啦!=

看到这里,你可能会问:排队和限流是不是有点像?它们都管理请求,但侧重点不同,而且经常一起工作:

  • 限流是「准入控制」:决定一个请求能不能进入系统处理流程。它关注的是「速率」和「总量」,防止系统被瞬间打垮。
  • 排队是「流量整形」和「缓冲」:处理那些已经被允许进入,但暂时无法立即处理的请求。它关注的是「平滑度」、「异步性」和「可靠性」。

想象一下:

  1. 请求先到达限流器(保安)。保安检查你的「票」(比如 API Key)以及当前人流速度,决定是否放你进去。
  2. 如果你被允许进入,但「处理台」(GPU)正忙,你就被引导到排队系统(等候区)等待。
  3. 等处理台空闲了,就从队列里叫下一个号来处理。

这样一套组合拳下来,AIGC 系统就能在汹涌的请求浪潮中保持稳定、高效、公平地运行啦!

4. 小结

对于 AIGC 架构而言,排队系统和限流策略并非「可选件」,而是保障系统稳定性可用性公平性成本效益 的核心组件。在设计阶段就必须充分考虑:

  • 识别瓶颈: 哪些环节是资源密集型的?(通常是模型推理)
  • 定义策略: 基于业务目标(用户体验、成本、公平性)设定合理的限流阈值和排队机制(如优先级)。
  • 选择工具: 根据技术栈、性能需求、运维复杂度选择合适的限流组件和消息队列。
  • 监控与调优: 持续监控队列长度、等待时间、限流触发次数、系统负载等指标,并根据实际运行情况不断调整策略。

以上。

关于复杂系统的思考:从语雀服务中断想到的

在 10 月 23 日,语雀服务出现了一次重大故障,中断时间超过 7 小时。具体来说,这次故障的起因是在执行系统升级操作期间,新的运维升级工具出现了 bug,导致华东地区生产环境的存储服务器被误下线。由于存储系统使用的机器类别过于陈旧,无法直接将其上线,这导致了恢复过程时间延长。尽管语雀的工程师们立刻进行了恢复工作,但由于数据量大,恢复方案有限,恢复过程耗时 4 小时,数据检验耗时耗时 2 小时。这次故障给用户带来了严重的影响,也让我们重新审视关于本次故障带来的思考。

我将整个复盘报告输入给到 chatGPT,其给我的回复如下:

从语雀的这次事故中,我们可以学到以下几个关键的教训:

  1. 重视运维工具的测试和质量保证:在这次事故中,新的运维升级工具的 bug 是导致故障的主要原因。这说明,即使是运维工具,也需要进行足够的测试和质量保证。在实际使用之前,应该在相似的环境中进行充分的测试,确保其稳定性和安全性。
  2. 灾备和恢复系统的重要性:即使有了数据备份,恢复仍然可能需要花费大量时间,这会导致服务中断时间过长。因此,除了定期备份数据外,还需要建立有效的灾备和恢复系统,以便在灾难发生时,能够快速恢复服务。
  3. 灾难恢复演练的必要性:定期的灾难恢复演练可以帮助我们在真实的灾难发生时,更快地恢复服务。通过演练,我们可以发现并解决恢复过程中可能存在的问题,提高恢复的效率。
  4. 高可用架构的重要性:高可用架构可以保证在部分系统组件发生故障时,整个系统仍能继续运行。在这次事故中,由于存储系统的故障,导致了整个服务的中断。如果有高可用架构,即使某个组件发生故障,也可以通过其他的组件提供服务,从而减少服务中断的可能性。
  5. 灾难通信的重要性:在灾难发生后,应该及时向用户通报情况,说明故障的原因,修复的进度,以及预计的恢复时间。这样可以增加用户的信任度,减少用户的不安。在这次事故中,语雀做了很好的灾难通信,及时向用户报告了故障的详情,以及修复的进度。
  6. 持续改进和学习的重要性:每次故障都是一次学习的机会。通过分析故障的原因,我们可以找出问题,改进系统,避免类似的故障再次发生。在这次事故中,语雀提出了一系列的改进措施,这表明他们有持续改进和学习的意识。

但是从复杂系统的角度来看这个事件:复杂系统的性质使得它们在面临故障时,能够以我们意料之外的方式表现出来。尽管我们可能已经在设计和实施阶段做了很多工作来确保系统的稳定性,但是在实际运行中,仍然会出现我们没有预见到的问题。

高尔在讨论复杂系统时提到:「具备故障防备能力的系统出故障的原因恰恰就是故障防备能力的失灵」。这是因为在设计防备系统时,我们往往会基于我们对系统的理解来设计,但是实际上,系统的行为可能会超出我们的理解范围。当系统的行为超出我们的预期时,我们的防备措施就可能会失效。

这与这次语雀服务故障的情况非常相似。尽管语雀设计了一套备份恢复机制,但是在实际的故障中,由于对系统的理解不足,这套机制并没有发挥出应有的效果,反而延长了恢复时间。

在许多情况下,一些复杂系统的故障并不是单一的、孤立的事件,而是由一系列的因素相互作用、相互影响的结果。这通常包括了系统设计、运维策略、人为错误等多个方面。

具备故障防备能力的系统,其设计和运营目标是提供连续、稳定的服务,即使在面临内部错误或外部攻击等影响时也能持续运行。这种系统通常包含冗余的组件、自动故障切换机制、灾难恢复策略等措施,以保证系统的正常运行。

然而,这些故障防备能力本身可能成为系统故障的源头,原因可能有以下几点:

  1. 复杂性故障防备能力会增加系统的复杂性,复杂性本身就可能带来故障。例如,冗余的组件需要保持同步,如果同步机制出现问题,可能导致数据不一致,进而产生故障。

  2. 人为错误故障防备能力的维护和操作需要人工参与,人为操作错误可能导致防备能力失灵。如语雀故障案例中,运维工具的 bug 就是人为因素导致的。

  3. 预期和实际的差距:故障防备能力的设计和实施都是基于对可能故障的预期,但实际发生的故障可能超出了预期,导致防备能力无法应对。

面对一个每天都在演化的复杂系统,我们应该做些什么呢?

面对复杂,我们第一个能想到的原则应该就是 KISS 原则了。

「KISS」 原则是 「Keep It Simple, Stupid」 的缩写,这是一种广泛应用于工程、设计和决策过程中的设计原则。其最主要的理念就是保持事物的简单性。

KISS 原则主张:

  • 避免不必要的复杂性
  • 优先选择简单、清晰和直观的解决方案
  • 不要添加不必要的特性或功能
  • 简单的设计更易于维护、理解和修改

这个原则并不是说所有的事物都必须以最简单的方式来完成,而是鼓励我们在设计和决策过程中,优先考虑最简单和最直接的方法,除非有充分的理由去选择更复杂的方案。

简单性是一个非常重要的设计目标,因为它可以降低错误的可能性,提高系统的可靠性,减少维护的难度,提高效率,以及其他许多好处。

我们如果应用了以下的一些建议,应该可以往 KISS 原则靠近一些:

  1. 明确需求:首先明确我们试图解决的问题是什么。这有助于避免在设计和实现过程中添加不必要的功能或复杂性。

  2. 简化设计:在设计过程中,始终问自己是否可以把事情做得更简单。避免过度设计,只实现真正需要的功能。

  3. 模块化:把大问题分解成小问题,每个小问题都可以用简单的方式解决。这样,每个模块都保持简单,而整个系统则由这些简单模块组成。

  4. 避免不必要的优化:过早的优化可能会增加复杂性。除非确定优化会带来显著的好处,否则最好先实现功能,然后再考虑优化。

  5. 使用已有的解决方案:如果有已经存在的工具或库可以满足我们的需求,那就使用它,而不是从头开始创建。这样可以降低复杂性,同时节省时间。

  6. 代码和设计的清晰性:代码应该易于理解,设计应该直观。这不仅提高了可维护性,也让其他团队成员更容易理解你的工作。

  7. 定期回顾和重构:随着时间的推移和需求的变化,我们可能需要调整或简化现有的设计。定期回顾我们的代码和设计可以帮助我们找出可以简化的地方。

作为一个技术管理者应该作些什么呢?我认为最应该做的是拒绝那些让系统变得复杂的不合理需求,守好技术实现的大门。

面对复杂系统,我们需要对系统有深入的理解,尽可能地简化系统,避免不必要的复杂性。通过模块化设计,将复杂系统分解为相对独立的部分,每个部分都可以单独理解和测试。并且设计出健壮的错误处理和恢复机制,同时也需要进行持续的监控和回顾。只有这样,才能提升系统的稳定性,减少服务中断的可能性。