開發
Apache Flink是由
Apache軟體基金會內的Apache Flink社區基於Apache許可證2.0開發的,該項目已有超過100位代碼提交者和超過460貢獻者。是由Apache Flink的創始人創建的公司。該公司已聘用了12個Apache Flink的代碼提交者。
簡介
Apache Flink的
數據流編程模型在有限和無限
數據集上提供單次事件(event-at-a-time)處理。在基礎層面,Flink程式由流和轉換組成。
Apache Flink的
API:有界或無界
數據流的數據流API、用於有界數據集的數據集API、表API。
數據流的運行流程
Flink程式在執行後被映射到流數據流,每個Flink數據流以一個或多個源(
數據輸入,例如
訊息佇列或
檔案系統)開始,並以一個或多個
接收器(
數據輸出,如訊息佇列、檔案系統或資料庫等)結束。Flink可以對流執行任意數量的變換,這些流可以被編排為有向無環
數據流圖,允許
應用程式分支和合併數據流。
Flink的數據源和接收器
Flink的狀態
Flink
檢查點和容錯:檢查點是應用程式狀態和源流中位置的自動異步快照。在發生故障的情況下,啟用了檢查點的Flink程式將在恢復時從上一個完成的檢查點
恢復處理,確保Flink在應用程式中保持一致性(exactly-once)狀態語義。檢查點機制暴露應用程式代碼的接口,以便將外部系統包括在檢查點機制中(如打開和提交
資料庫系統的事務)。
Flink
保存點的機制是一種手動觸發的檢查點。用戶可以生成保存點,停止正在運行的Flink程式,然後從流中的相同應用程式狀態和位置恢復程式。 保存點可以在不丟失應用程式狀態的情況下對Flink程式或Flink群集進行更新。
Flink的數據流API
Flink的數據流API支持有界或無界數據流上的轉換(如過濾器、聚合和視窗函式),包含了20多種不同類型的轉換,可以在
Java和
Scala中使用。
有狀態流處理程式的一個簡單Scala示例是從連續
輸入流發出字數並在5秒視窗中對數據進行分組的套用:
Apache Beam
Apache Beam“提供了一種高級統一編程模型,允許(開發人員)實現可在在任何執行引擎上運行批處理和
流數據處理作業”。Apache Flink-on-Beam運行器是功能最豐富的、由Beam社區維護的能力矩陣。
data Artisans與Apache Flink社區一起,與Beam社區密切合作,開發了一個強大的Flink runner。
數據集API
Flink的數據集API支持對有界數據集進行轉換(如過濾、映射、連線和分組),包含了20多種不同類型的轉換。 該API可用於Java、Scala和實驗性的
Python API。Flink的數據集API在概念上與數據流API類似。
表API和SQL
Flink的表API是一種類似SQL的
表達式語言,用於關係流和
批處理,可以嵌入Flink的Java和Scala數據集和數據流API中。表API和SQL接口在關係表抽象上運行,可以從
外部數據源或現有數據流和數據集
創建表。表API支持
關係運算符,如表上的選擇、聚合和連線等。
也可以使用常規SQL查詢表。表API提供了和SQL相同的功能,可以在同一程式中混合使用。將錶轉換回數據集或數據流時,由
關係運算符和SQL查詢定義的邏輯計畫將使用Apache Calcite進行最佳化,並轉換為數據集或數據流程式。
歷史版本