簡單來說,Cloudflare 就是網站與訪客之間的「中間人」。
當你造訪一個使用 Cloudflare 的網站時,你的連線流量通常會先經過 Cloudflare 的網路,才到達目標網站。
這個過程帶來了安全性、速度和穩定性。
你可以把它想像成網站和應用程式的:
即使你從未直接使用過它,你其實每天都在與 Cloudflare 互動,因為:
購物網站、新聞媒體、遊戲、部落格——許多都運行在 Cloudflare 的 CDN(內容傳遞網路)之上。
當一個網站流量過大時,Cloudflare 會協助吸收多餘的流量,避免伺服器崩潰。
防止你最愛的應用程式和網站被駭客攻擊。
知名的 1.1.1.1 DNS 應用程式能保護你的 DNS 查詢紀錄不被追蹤。
例如演唱會搶票、重大商品發售或是近期美國的黑色星期五(Black Friday)購物節
這類網站經常使用 Cloudflare 請它負責讓網站保持穩定。
透過在離使用者更近的地方快取(Caching)資料,降低全球頻寬的消耗。
我們比較了高效能、低維護成本和成本效益,並選出了以下的「最佳選擇」。
💡 最佳架構策略:「外層用 Cloudflare,內層選專武。」 把流量加速、安全防禦交給 Cloudflare 處理;把資料儲存、內部串接留給 MinIO、Tailscale 或 NGINX 等專用工具,這是在效能、成本與維護難度上最平衡的現代化架構。
| 服務項目 | 主要 TO B 對手 | 開源 / 自架方案 | 🏆 最佳選擇 & 原因 |
|---|---|---|---|
| 1. CDN (內容傳遞) | AWS CloudFront | Varnish Cache | Cloudflare。 幾乎零設定即可啟用,且免費方案非常大方。AWS CloudFront 設定複雜,而 Varnish 需要自己管理硬體。 |
| 2. DDoS 防護 | AWS Shield | HAProxy (速率限制) | Cloudflare。 它提供不計量(Unmetered)的緩解服務(固定費率或免費)。AWS Shield Advanced 非常昂貴(底價 $3,000 美元/月),而自架方案通常在你的伺服器掛掉之前,網路頻寬就先被塞爆了。 |
| 3. WAF (防火牆) | AWS WAF | ModSecurity | Cloudflare。 規則會根據全球威脅自動更新。ModSecurity 需要持續手動調校以避免誤判,而 AWS 則是按規則/請求數收費。 |
| 4. DNS 服務 | AWS Route53 | BIND | Cloudflare。 經獨立評測,它是客觀上全球最快的 DNS,且極度重視隱私。Route53 很棒,但速度較慢。 |
| 5. 零信任 (Zero Trust) | Zscaler | WireGuard / Tailscale | Tailscale (基於開源) 或 Cloudflare。 如果要純粹取代 VPN,基於 WireGuard 的 Tailscale 最簡單。如果要不改 Code 就保護 Web 應用,Cloudflare Access 是贏家。 |
| 6. 負載平衡 | AWS ELB | NGINX | 視範圍而定。 NGINX 是單一資料中心內(本地)流量平衡的王者。Cloudflare 則是不同國家間(全球)流量平衡的贏家。 |
| 7. Workers (邊緣運算) | AWS Lambda | OpenFaaS | Cloudflare Workers。 對於高流量/低延遲的任務,Cloudflare 因 **0ms 冷啟動(Cold starts)**和較低成本獲勝。AWS Lambda 僅在你需要長執行時間(如 >30 秒)時較佳。 |
| 8. R2 儲存 | AWS S3 | MinIO | 在 Zeabur 上架設 MinIO 是最佳選則,價格上一定比 R2 有優勢(因為自架),效能上差別也不大 |
| 9. 機器人管理 | DataDome | CrowdSec | Cloudflare。 因為 Cloudflare 掌握了全球約 20% 的網路流量,他們能在他處發現機器人後,瞬間在你的網站上封鎖它,這是小型開源清單無法比擬的。 |
所以你可以看到 Cloudflare 在我們生活中的重要性。 但你也許經歷了幾天前發生的網路大當機......
這不是網路攻擊,而是一次因資料庫更新導致的內部軟體錯誤。
想像你有一個背包,嚴格規定只能裝 10 本書。但 Cloudflare 意外地試圖塞進 20 本書。結果背包被撐破了,所有的書散落一地,導致系統崩潰。

如果你好奇為什麼最近半個網際網路——包括像 Zeabur 這樣的平台——都跌了一大跤,我們終於看到了關於 Cloudflare 自 2019 年以來最嚴重當機事件的事後檢討報告。
劇透警告:這不是駭客幹的;這是例行清理維護時的一個「無心插柳柳成陰」失誤。
簡單來說,Cloudflare 工程師當時正試圖優化其機器人管理服務(Bot Management)的資料庫權限(具體來說是在 ClickHouse 內)。這聽起來像是週二早上的無聊任務,但這個變更產生了災難性的反效果。它導致系統產生了一個「超級巨大」的設定檔——這個檔案肥大到 Cloudflare 的邊緣伺服器(Edge Servers)物理上無法處理。
混亂的部分來了: 這個壞掉的檔案不只出現一次。系統每 5 分鐘就會產生並將這個巨大檔案同步到全球的資料中心。伺服器一收到檔案,其核心 CDN 服務就會立刻崩潰(或者引用消息來源的精闢說法:「直接 GG」)。
因為崩潰是發生在這個精準的 5 分鐘迴圈上——運作正常、然後崩潰、然後又運作——監控圖表看起來非常不規律。這完全騙過了 Cloudflare 團隊。他們在當機初期的時間都花在尋找DDoS 攻擊的跡象,因為症狀看起來跟遭遇洪水般的惡意流量一模一樣。
骨牌效應(Ripple Effect): 損害範圍非常廣泛。舉例來說,Zeabur(一個部署平台)掛了,因為他們自己的後端 API 依賴 Cloudflare 進行保護和加速。但這是雙重打擊(Double-whammy):即使是 Zeabur 依賴的上游服務(例如他們的電子郵件供應商 Resend),同樣也在使用 Cloudflare 並且也被打離線了。這就是典型的骨牌效應,全由一個糟糕的資料庫設定檔所引發。
→ 這就是為什麼這次當機對全世界來說都是件大事。
Cloudflare 是網際網路背後巨大的隱形基礎設施,它讓網站更快、更安全、更穩定,直接改善了你的日常上網體驗,而你甚至沒有察覺。
我真心希望不要再發生這種由相同錯誤引起的大規模當機了(QQ)。