昨晚老杨就发博文说本次事件在互联网灾难史上绝对可以单独摘出来写一篇传记,整个事件跟老杨的付费文章描述的场景都差不多.一个p0故障的事件回顾
在看官方事件报告前老杨先给各位铺垫一下这个事件的性质.
初步统计受影响企业名单
应用/服务 | 影响描述 |
|---|---|
X (Twitter) | 全球访问中断,用户无法加载页面。 |
ChatGPT (OpenAI) | 聊天功能和API响应失败。 |
Spotify | 音乐流媒体加载错误,部分用户无法播放。 |
Canva | 设计工具界面崩溃,无法编辑文件。 |
Grindr | 约会App连接超时。 |
Shopify | 电商平台结账和浏览中断。 |
Indeed | 求职搜索结果加载失败。 |
Claude (Anthropic) | AI聊天机器人响应延迟或错误。 |
Truth Social | 社交平台帖子无法刷新。 |
Uber | 叫车App部分功能(如地图)受阻。 |
Discord | 聊天和语音服务器不稳定。 |
Zoom | 会议加入失败。 |
Microsoft Teams | 团队协作工具连接问题。 |
推特架构师发文展示cloudflare故障期间整个推特的流量曲线

一个小白号
在故障前1个小时发推文表示非常开心能入职cloudflare,主要是还写了自己的岗位是system engineer.故障发生几个小时这个小白号下面留言就已经达到2000多条了.

现实版找拖车结果拖车又掉沟里了
初期大家都以为是自己网站有问题,所有运维和sre齐上阵.这就发生了很多有趣的事情.reddit上就有用户爆料说推荐用Downdetector来了解一下业务宕机的原因.结果发现Downdetector也宕机了

猛然间大家才发现职cloudflare在整个互联网上的生态位

关于Cloudflare要赔多少钱?
Cloudflare目前没公布赔付计划,但是在其官网的对Business和Enterprise计划客户提供SLA(服务水平协议)信用补偿:如果可用性低于99.9%,可获部分月费退款(本次约4.5小时中断,预计10-20%信用),推特已经开启收集故障期间付费用户的赔付申请了.

ClickHouse事件报告的小结
老杨看了官方的故障报告,这次主要是他们对ClickHouse数据库权限做了一次的常规安全加固,导致系统表查询未按数据库名过滤,返回了大量重复列,使每5分钟生成的Bot Management机器学习“特征文件”大小突然翻倍,超过核心代理(FL/FL2)预设的200个特征上限,触发软件panic崩溃,进而导致大量HTTP请求返回5xx错误。因为是逐步变更所以生产环境表现为时好时坏.导致在判断故障时误以为是DDoS攻击。毕竟DDoS之前才发生过一次.等到查明原因后开始停止错误文件生成、回滚变更至并重启服务,于14:30核心流量恢复,17:06全部服务恢复正常。
ClickHouse官方事件报告(译文)

2025年11月18日11:20 UTC(本博客中所有时间均为UTC),Cloudflare的网络开始出现严重故障,无法正常传输核心网络流量。尝试访问我们客户网站的互联网用户会看到一个错误页面,提示Cloudflare网络出现故障。

该问题并非直接或间接由任何形式的网络攻击或恶意活动引起。相反,它是由我们数据库系统权限的更改触发的,该更改导致数据库向我们的机器人管理系统使用的“特征文件”输出了多个条目。该特征文件的大小因此翻倍。随后,这个异常大的特征文件被传播到我们网络中的所有机器。
这些机器上运行的用于路由网络流量的软件会读取这个功能文件,以使我们的机器人管理系统能够及时更新,应对不断变化的威胁。该软件对功能文件的大小有限制,小于其两倍大小的限制。这导致软件运行失败。
最初,我们误以为观察到的症状是由大规模DDoS攻击引起的,但随后我们正确地找到了问题的根源,并成功阻止了异常大的功能文件的传播,将其替换为早期版本。到下午2:30,核心流量基本恢复正常。接下来的几个小时里,我们努力缓解网络各部分因流量恢复而增加的负载。截至下午5:06,Cloudflare的所有系统均已恢复正常运行。
我们对此次事件给客户和整个互联网带来的影响深表歉意。鉴于 Cloudflare 在互联网生态系统中的重要性,任何系统故障都是不可接受的。我们的网络一度无法正常路由流量,这令我们团队的每一位成员都感到非常痛心。我们知道今天我们让您失望了。
这篇文章详细记述了事件经过以及哪些系统和流程出现故障。它也是我们为确保此类故障不再发生而计划采取的措施的开始,但并非结束。

11:20 之前的流量是我们网络中 5xx 错误预期基线水平。流量峰值及其后的波动表明,我们的系统由于加载了错误的特征文件而发生故障。值得注意的是,系统随后会恢复一段时间。对于内部错误而言,这种行为非常不寻常。
解释是,该文件由ClickHouse数据库集群上运行的查询每五分钟生成一次,而该集群正在逐步更新以改进权限管理。只有当查询在集群中已更新的部分运行时,才会生成错误数据。因此,每五分钟都有可能生成一组正确的或错误的配置文件,并迅速在网络中传播。
这种波动导致系统运行状况不明,因为整个系统会时而恢复,时而再次崩溃,有时是正常的配置文件,有时是错误的配置文件,这些文件被分发到我们的网络中。起初,我们怀疑这可能是攻击造成的。最终,每个 ClickHouse 节点都生成了错误的配置文件,系统也稳定在了故障状态。
从 14:30 开始,错误持续出现,直到我们找到并解决了根本问题。我们通过停止生成和传播错误特征文件,并手动将一个已知正常的特征文件插入特征文件分发队列,然后强制重启核心代理来解决了这个问题。
上图中剩余的长尾是我们的团队重新启动了进入不良状态的剩余服务,5xx 错误代码量在 17:06 恢复正常。
以下服务受到影响
服务/产品 | 影响描述 |
|---|---|
核心CDN和安全服务 | HTTP 5xx 状态码。本文顶部的屏幕截图显示了最终用户看到的典型错误页面。 |
旋转闸门 | 旋转闸门加载失败。 |
工人KV | 由于核心代理出现故障,导致对 KV“前端”网关的请求失败,Workers KV 返回了显著升高的 HTTP 5xx 错误。 |
仪表板 | 虽然仪表盘基本可以正常运行,但由于登录页面上 Turnstile 不可用,大多数用户无法登录。 |
电子邮件安全 | 虽然邮件处理和投递未受影响,但我们观察到对某个 IP 信誉源的访问暂时中断,这导致垃圾邮件检测准确率降低,并阻止了部分新域名年龄检测的触发,但未对客户造成重大影响。此外,部分自动移动操作也出现故障;所有受影响的邮件均已审核并修复。 |
使用权 | 从事件发生之初到 13:05 启动回滚程序之前,大多数用户都普遍遇到了身份验证失败的情况。任何现有的 Access 会话均未受到影响。所有身份验证失败的尝试都导致出现错误页面,这意味着在身份验证失败期间,这些用户根本没有访问过目标应用程序。在此期间,所有成功的登录都已正确记录。 当时尝试的任何 Access 配置更新要么会直接失败,要么传播速度非常慢。所有配置更新现已恢复。 |
除了返回 HTTP 5xx 错误外,我们还观察到在受影响期间,CDN 的响应延迟显著增加。这是由于我们的调试和可观测性系统占用了大量 CPU 资源,这些系统会自动为未捕获的错误添加额外的调试信息。
我们之前在这里分享了有关核心代理工作原理的更多细节。

当请求经过核心代理时,我们会运行网络中可用的各种安全和性能产品。代理会应用每个客户的独特配置和设置,从强制执行 WAF 规则和 DDoS 防护到将流量路由到开发者平台和 R2。它通过一组特定于域的模块来实现这一点,这些模块会将配置和策略规则应用于经过我们代理的流量。
其中一个模块——机器人管理模块——是造成今天系统故障的根源。
Cloudflare 的机器人管理功能包含多种系统,其中包括一个机器学习模型,我们使用该模型为通过我们网络的每个请求生成机器人评分。我们的客户使用机器人评分来控制哪些机器人可以访问他们的网站,哪些机器人则不能。
该模型以“特征”配置文件作为输入。在此上下文中,“特征”是指机器学习模型用于预测请求是否为自动化请求的个体属性。特征配置文件是各个特征的集合。
此功能文件每隔几分钟就会刷新一次,并发布到我们的整个网络,使我们能够应对互联网流量的变化。它使我们能够应对新型机器人和新型机器人攻击。因此,频繁且快速地部署此功能至关重要,因为恶意行为者的策略变化迅速。
由于我们底层 ClickHouse 查询行为的更改(详见下文),导致生成此文件的查询中出现大量重复的“feature”行。这改变了之前固定大小的 feature 配置文件的大小,从而导致机器人模块触发错误。
因此,负责处理客户流量的核心代理系统对所有依赖于机器人模块的流量都返回了 HTTP 5xx 错误代码。这也影响了依赖于该核心代理的 Workers KV 和 Access 服务。
与此事件无关,我们正在将客户流量迁移到新版本的代理服务(内部代号FL2)。两个版本都受到了该问题的影响,但影响程度有所不同。
使用全新 FL2 代理引擎的客户观察到了 HTTP 5xx 错误。使用旧版代理引擎 FL 的客户虽然没有遇到错误,但机器人评分生成不正确,导致所有流量的机器人评分均为零。已部署规则阻止机器人的客户会看到大量误报。未在其规则中使用机器人评分的客户则未受到任何影响。
另一个明显的症状让我们误以为这是一次攻击:Cloudflare 的状态页面宕机了。该状态页面完全托管在 Cloudflare 的基础设施之外,不依赖于 Cloudflare。虽然最终证实这只是巧合,但它让参与问题诊断的团队成员开始怀疑攻击者可能同时针对我们的系统和状态页面。当时访问状态页面的用户会看到一条错误信息:

在内部事件聊天室中,我们担心这可能是近期Aisuru高流量DDoS攻击的延续:

为了更好地理解,了解 ClickHouse 分布式查询的工作原理很有帮助。一个 ClickHouse 集群由多个分片组成。为了查询所有分片的数据,我们Distributed在名为 `<database_name>` 的数据库中使用了所谓的分布式表(由表引擎驱动)default。分布式引擎会查询数据库中的底层表r0。底层表用于存储 ClickHouse 集群中每个分片上的数据。
对分布式表的查询目前通过共享系统帐户运行。为了提高分布式查询的安全性和可靠性,我们正在努力使其改用初始用户帐户运行。
在此之前,ClickHouse 用户在查询 ClickHouse 系统表(例如 ` <table_name>` 或 `<table_name>` default)中的表元数据时,只能看到数据库中的表。system.tablessystem.columns
由于用户已经拥有对底层表的隐式访问权限r0,我们在 11:05 进行了更改,使这种访问权限显式化,以便用户也能查看这些表的元数据。通过确保所有分布式子查询都能在初始用户下运行,可以更精细地评估查询限制和访问权限,从而避免一个用户的恶意子查询影响其他用户。
上述更改使得所有用户都能访问到他们有权访问的表的准确元数据。遗憾的是,过去存在一些假设,即此类查询返回的列列表仅包含“ default”数据库:
SELECT name, typeFROM system.columnsWHERE table='http_requests_features'orderby name;请注意,该查询并未按数据库名称进行筛选。由于我们逐步向特定 ClickHouse 集群的用户授予显式权限,因此在 11:05 的更改之后,上述查询开始返回“重复”列,因为这些列对应于存储在 r0 数据库中的底层表。
不幸的是,这正是 Bot Management 功能文件生成逻辑执行的查询类型,用于构建本节开头提到的文件的每个输入“功能”。
上述查询将返回一个类似于所示列的表格(简化示例):

然而,作为授予用户的额外权限的一部分,响应现在包含了r0模式的所有元数据,有效地使响应中的行数增加了一倍以上,最终影响了最终文件输出中的行数(即特征数)。
当包含超过 200 个特征的错误文件被传输到我们的服务器时,达到了此限制,导致系统崩溃。下面显示的是执行此检查并导致未处理错误的 FL2 Rust 代码:

这导致了以下系统崩溃,进而引发了 5xx 错误:
thread fl2_worker_thread panicked: called Result::unwrap() on an Err value由于内部使用了 Workers KV,并且 Cloudflare Turnstile 已部署到我们的登录流程中,Cloudflare 控制面板也受到了影响。
Turnstile系统受到此次故障的影响,导致没有活跃控制面板会话的客户无法登录。如下图所示,在两个时间段内,系统可用性有所降低:11:30至13:10,以及14:40至15:30。

第一个中断期(11:30 至 13:10)是由于 Workers KV 受到影响,部分控制平面和仪表盘功能依赖于 Workers KV。13:10 时,Workers KV 绕过了核心代理系统,服务恢复正常。第二个中断期发生在恢复功能配置数据之后。大量的登录尝试导致仪表盘不堪重负。这些尝试加上重试,导致延迟升高,降低了仪表盘的可用性。大约 15:30,通过扩展控制平面并发性,仪表盘恢复了可用性。
今天发生的故障是 Cloudflare自 2019 年以来最严重的。我们之前也遇到过导致控制面板无法访问的故障,也曾出现过导致一些新功能暂时无法使用的情况。但在过去的六年多时间里,我们从未遇到过像今天这样导致大部分核心流量停止通过我们网络的故障。
像今天这样的故障是不可接受的。我们的系统架构设计使其具有极高的故障容错能力,以确保流量始终畅通无阻。过去每次发生故障,我们都会着手构建新的、更具容错性的系统。
我谨代表 Cloudflare 的全体员工,对今天我们给互联网带来的困扰表示歉意。
时间(UTC) | 地位 | 描述 |
|---|---|---|
11:05 | 普通的。 | 数据库访问控制变更已部署。 |
11:28 | 冲击开始。 | 部署到达客户环境后,在客户 HTTP 流量中首次发现错误。 |
11:32-13:05 | 该团队调查了 Workers KV 服务流量异常增加和故障情况。 | 最初的症状似乎是 Workers KV 响应速率下降,导致对其他 Cloudflare 服务产生下游影响。为了使 Workers KV 服务恢复到正常运行水平,我们尝试了流量控制和账户限制等缓解措施。第一次自动化测试于 11:31 检测到问题,人工调查于 11:32 开始。事件报告于 11:35 创建。 |
13:05 | 已实施 Workers KV 和 Cloudflare Access 绕过措施——影响已降低。 | 调查期间,我们对 Workers KV 和 Cloudflare Access 使用了内部系统绕过机制,使其回退到我们核心代理的旧版本。虽然该问题在之前的代理版本中也存在,但影响较小,具体情况如下所述。 |
13:37 | 工作重点是将 Bot 管理配置文件回滚到最后一个已知良好的版本。 | 我们确信是机器人管理配置文件引发了此次事件。团队分多个工作流程开展工作,寻找修复服务的方法,其中最快的方案是恢复该文件的先前版本。 |
14:24 | 已停止创建和传播新的机器人管理配置文件。 | 我们发现 Bot Management 模块是导致 500 错误的根源,而这又是由错误的配置文件引起的。我们已停止自动部署新的 Bot Management 配置文件。 |
14:24 | 新文件测试完成。 | 我们观察到使用旧版本的配置文件可以成功恢复,然后集中精力加快全球修复速度。 |
14:30 | 主要影响已解决。下游受影响的服务开始出现错误减少的情况。 | 正确的机器人管理配置文件已在全球范围内部署,大多数服务开始正常运行。 |
17:06 | 所有服务已恢复正常。影响已结束。 | 所有下游服务已重启,所有操作已完全恢复。 |
官方事件报告原文















LYSTech是一个AI驱动的企业资讯情报平台。全球新闻聚合+真实性评估+价值评分+智能摘要,让团队高效捕捉关键信号、快速沉淀优质素材。