為什麼 2026 年選 Orchestrator 比以前難?
如果你在 2019 年加入資料工程領域,選 Orchestrator 大概就是「用 Airflow 還是忍著用 Airflow」這個問題。它龐大、穩固、社群廣、整合多——它就是預設選項。
然後 Dagster 和 Prefect 出現了,各自拿出了不同的設計哲學:Dagster 說「不要對任務建模,對資料資產建模」;Prefect 說「把調度這件事從 infrastructure 複雜度裡解耦出來」。幾年過去,這兩家工具在某些使用場景裡已經明顯優於傳統 Airflow 的做法。
2025 年 Airflow 釋出了 3.0 版——這是自問世以來最大幅度的架構改動,加入了原生 AI workload 支援和大幅改善的開發者體驗。這讓選型又多了一個新的考量點。
這篇文章不試著給你一個「誰最好」的答案,因為這個問題本身就是偽命題。你的 pipeline 規模、團隊組成、跟 dbt / Spark 的整合需求,決定了哪個工具最適合你。
Airflow 3:你以為熟悉的老朋友,比你想的還不一樣
Airflow 依然是企業環境裡佔有率最高的 orchestration 工具。2026 年 State of Airflow 報告訪問了超過 5,800 位資料工程師,其中 94% 認為熟悉 Airflow 對職涯有幫助——這個數字不太可能在短期內有根本性改變。
然而,2025 年 4 月釋出的 Airflow 3 帶來了兩個關鍵轉變:
TaskFlow API 成熟化。在 Airflow 2.x 時代,TaskFlow 雖然存在但有邊界案例問題。3.0 版完整落地後,你可以用更接近一般 Python 函式的方式定義 task,少了很多 template variable 的奇特行為。
原生 AI 工作負載支援。這是明確的戰略押注。Airflow 3 開始針對 LLM pipeline、training job 排程做了特化設計,跟上了 MLOps 整合的需求。
Airflow 2.x 將於 2026 年 4 月進入 limited support 模式,只接受安全性修補,不再有新功能。如果你現在還在 2.x,今年就是升級或評估遷移的時間窗口。
適合使用 Airflow 的情境:
- 既有 Airflow 環境,維護成本可控
- 需要廣泛第三方整合(operators 數量遠多於競品)
- 大型企業環境,需要 Astronomer 等 managed service 提供的 SLA
Dagster:Asset-First 的哲學,在 dbt 生態系找到了最佳戰場
Dagster 的核心設計哲學是「軟體定義資產(Software-Defined Assets)」。你不是在定義一個「跑某件事的 task」,你是在宣告「這張 table / 這個 model file 的來源和依賴是什麼」。
這個轉變在概念上看起來微妙,但在實踐上差距巨大。
以 dbt 整合為例,Dagster 把每個 dbt model 對應到一個獨立 asset,完整保留 lineage,你可以看見一個 dbt model 何時被跑、跑了多久、輸入資料的狀態如何。相比之下,Airflow 的 dbt 整合方案通常是把整個 dbt run 包成一個 BashOperator 或 KubernetesPodOperator,lineage 到這裡就斷了。
Dagster 的 @dbt_assets decorator 會自動解析 dbt project 的 manifest.json,把所有 model 和 sources 變成 asset。你不用手動維護 DAG 結構——dbt 的 model dependencies 自動成為 Dagster 的 asset graph。
Dagster 的局限:
- 較陡的學習曲線。從 task-based 思維切換到 asset-based 思維需要時間
- 生態系整合數量仍少於 Airflow
- self-hosted 版本的運維複雜度不低
適合使用 Dagster 的情境:
- 深度使用 dbt,需要 model-level 的 lineage 和 observability
- analytics engineering 團隊,需要資料品質 + 依賴可視化
- Medium-scale team,願意投資在更現代的資料平台架構
Prefect:「讓寫 pipeline 跟寫 Python 一樣自然」
Prefect 的核心主張是消除 pipeline 開發和一般 Python 程式之間的摩擦。你可以把任何 Python 函式加上 @flow 或 @task 就讓它成為可調度的 pipeline,幾乎沒有 boilerplate。
Prefect 3.0 在 deployment 體驗上做了大幅重新設計。過去 Prefect 2.x 的 deployment 設定需要相對複雜的 YAML 配置;3.0 簡化了這個流程,並且更清晰地分離了「在哪裡跑」(infrastructure)和「跑什麼」(flow definition)兩個概念。
從生態系的角度看,Prefect 的 managed platform(Prefect Cloud)在中小型團隊裡受歡迎的原因是它降低了 infrastructure 維護成本——你不需要自己維護 scheduler、metadata database、execution environment 的配置。
Prefect 的局限:
- 大規模環境下的 scalability 經驗不如 Airflow 成熟
- 第三方整合數量有限
- 社群規模仍是三者中最小
適合使用 Prefect 的情境:
- 小型到中型資料團隊,首要考量是開發速度
- 需要快速上線、不想負擔重基礎設施維護成本
- Python-first 的開發文化,希望 pipeline 程式碼讀起來就像一般 Python
三工具對比:讓數字說話
| 維度 | Airflow 3 | Dagster | Prefect 3 |
|---|---|---|---|
| 市場佔有率 | ★★★★★ 最大 | ★★★ 成長中 | ★★ 較小 |
| 學習曲線 | 中等(TaskFlow 後改善) | 較陡(需轉換思維) | 低(純 Python 直覺) |
| dbt 整合深度 | ★★★(operator-level) | ★★★★★(asset-level lineage) | ★★★(flow-level) |
| Observability | ★★★(需要外掛) | ★★★★★(內建 asset catalog) | ★★★(UI 清晰但較淺) |
| Self-hosted 運維 | 中到高 | 中到高 | 中等 |
| Managed 選項 | Astronomer | Dagster Cloud | Prefect Cloud |
| AI/MLOps 支援 | ★★★★(Airflow 3 主力) | ★★★ | ★★ |
選型決策樹
你的選型其實可以用幾個問題快速收斂:
你現在用 Airflow 2.x 嗎? → 如果 pipeline 數量 < 100、團隊 < 5 人:考慮評估 Prefect 或 Dagster 作為遷移目標 → 如果 pipeline 數量 > 100、整合複雜:升級 Airflow 3,遷移成本通常不值得
dbt 是你的核心資料轉換工具嗎? → 是:Dagster 是目前整合最深的選項,asset-level lineage 價值顯著 → 否:Airflow 或 Prefect 都可以,看團隊規模和運維能力
團隊規模和 infrastructure 偏好? → 小型、快速迭代:Prefect Cloud(managed,低維護負擔) → 中型、看重 observability:Dagster → 大型企業、需要廣泛整合:Airflow + Astronomer
一個被忽略的視角:生態系收斂
值得注意的是,2025 年後 orchestration 工具的競爭邊界開始模糊。Databricks、Snowflake、BigQuery 等雲端資料平台都在加強自己的 pipeline orchestration 功能。這個趨勢暗示了一件事:standalone orchestration tool 的核心優勢,正在逐漸被整合進資料平台本身。
如果你的資料棧高度集中在某個雲端平台(例如幾乎所有東西都在 Snowflake 裡跑),這個平台的原生排程功能加上 dbt Cloud 可能已經夠用——不一定需要 Airflow、Dagster、或 Prefect。
這不是說 standalone orchestrator 沒有未來,而是選型的時候值得把這個前提問清楚。
結語
Airflow、Dagster、Prefect 三個工具都在 2025-2026 年推出了重要更新,都有清晰的適用場景。沒有一個工具在所有維度上都全面勝出。
Airflow 3 的釋出讓人注意到「老工具也在演進」這件事;Dagster 的 asset-based 模型在 analytics engineering 場景裡實在難以抗拒;Prefect 的開發者體驗對快速迭代的小型團隊依然有吸引力。
你的第一個問題不應該是「哪個工具最好」,而是「我的 pipeline 複雜度、dbt 依賴程度、維護能力,各自適合什麼設計?」
答案清楚了,工具選擇自然就清楚了。