成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

Apache Hudi 新版本新特性超強解讀

數據庫
Apache 社區在2022年4月30日發布了Apache Hudi 0.11.0版本,其中包括一系列的新功能和提升優化。

本次分享主要是針對Apache Hudi 0.11.0新版本新特性進行深度解讀,主要介紹4個方面的內容:

  • 多級索引
  • Spark SQL 新功能
  • Flink 集成改進
  • 其他功能和提升

01多級索引

首先和大家分享下多級索引,接下來我們將從三個方面介紹它。第一是為什么我們引入多級索引multi model index,第二多級索引的設計以及實踐,最后將介紹如何利用多級索引,極大提升讀寫性能。

1. 為什么要引入多級索引(Multi-Modal Index)

在介紹多級索引之前,我們先看看索引是什么?索引是數據庫系統中常用的查詢加速技術。通過構建索引就可以利用生成的元數據metadata快速定位查詢所需數據的位置,這樣可以減少甚至避免從文件系統中掃描或者讀取不必要的數據,減少IO的開銷,大大提升查詢效率。我們可以類比圖書館以及教科書中的索引,這些都是通過利用提前生成好的metadata來快速找到想要查找的信息。

其實在Apache Hudi的湖倉一體的架構中已經提供了特有的索引支持,這里我們可以看一個例子。其中我們用的一種索引可以快速定位到我們所需要更新或者刪除的記錄所在的文件組。如下圖所示:

圖片

如果沒有index的情況下,對于所有的更新以及刪除的記錄,我們需要和所有的文件進行merge,這樣開銷會非常大。如果使用了索引,讀寫開銷會極大地降低,可以提高查詢這個位置的效率。

在Hudi中我們默認開啟了基于bloom filter的索引。這些bloom filter是存儲在數據文件的footer中。作為一個單獨的存在,它可以被用到索引的流程過程中。

那我們為什么還要在Hudi中引用多級索引?其實索引的主要目的就是剛剛提到的提升數據查詢的速度,那么就需要存儲metadata。而對于TB、EB級別表中的metadata,它們的量級會很大。通常的做法是把它們存儲于單獨的數據塊block或者是數據文件中。而我們在實測的過程中,遇到了讀寫瓶頸。同時,在維護metadata的過程中,它需要實時的和數據表進行同步。這樣的管理十分復雜,因為要保證transaction,如果我們要在Hudi中引用新的索引開發周期會很長。

2. 多級索引的設計與實現

為了解決上述的問題,我們在湖倉一體的存儲架構中引入了多級索引,是首次在類似的架構中引入統一平臺、多元化、高性能的索引。我們的目標是支持所有計算及查詢引擎來提升讀寫性能,甚至未來如果出現新的引擎,也是可以進行兼容的。

接下來我們介紹一些在多級索引設計中所需要的需求。

  • 第一是我們需要保證可拓展的元數據(scalable metadata)。我們希望元數據是Serverless的,是不需要任何的計算或者是內存中需要支持的,可以獨立存在于數倉一體和數據湖中。同時希望它能獨立于計算及查詢引擎,它是可拓展的,能高性能地支持不同索引類型。
  • 第二是我們希望多級索引中的元數據和數據表保持實時同步,保證每次的更新都是事務性的。
  • 第三是保證查詢的速度。保證對于多級索引的查詢是低延遲的,主要的查詢類型包括point, range, and prefix lookups等。

我們分別來看一下是如何實現的。

首先是可拓展的元數據,我們采用了和已有數據庫類似的設計,那就是在內部構建一個元數據表meta table。對于Hudi table來說,我們利用的是Hudi的mor表來存儲這些數據。mor表的優勢是可以很快地進行數據的更新與刪除。同時,Hudi表也是Serverless的,它不會依賴任何計算及內存資源。在這個表里我們針對不同的索引是建立獨立的分區的。在這樣的情況下,不同的index可以完成獨立的管理以及自動化的管理。我們在使用mor表的另一個優點是可以支持任意的索引大小。從mb級別到gb級別再到tb級別。針對獨立的分支,我們可以引入新的作用類型,就只需要建立新的分區。在構建可拓展的元數據的時候,需要索引的一個初始化。我們提高了兩種方式的初始化。一種是同步,同步是在寫入表的過程中,在最后commit之前會做一個index的步驟。而第二種方式是異步。異步創建索引是hudi首次引入的,保證了concurrent writer 不受影響。下面是異步創建索引的流程圖:

圖片

  • 第二點的設計原則是保證對metadata table的更新是事務性的,來保證metadata table結構里面的數據要和數據表實時同步。我們設計了一套叫multi table多表的transaction。同時在這個metadata table 里,有自我管理的表服務,包括compaction, cleaning。它們會保證定時操作,以保證這個metadata table 的讀性能會很好。
  • 第三點是對于metadata的快速查詢。我們使用了HFile作為MDT的數據格式。原因是列格式Parquet或基于行的Avro不適合 pointed lookup;HFile格式中的index使得 pointed lookup非常高效,只需要讀取相關數據塊。我們針對HFile做了一個測試,得出在千萬(10M)+條目中查詢 N 條目,HFile 相比于 Parquet、Avro 有 10-100倍的提升。如下圖:

圖片

3. 利用多級索引極大提升讀寫性能

接下來介紹多級索引所帶來的主要的讀寫性能提升。

  • 首先是File Listing

在云存儲中我們發現大部分情況下,如果對于大型表的上千分區以及百萬級的數據文件做listing,會造成讀寫瓶頸。這主要是因為云存儲的設計所導致的。如果我們利用metadata table中的files來做分區。這個分區里提供了這個數據表里所有的file。相比于云軟件系統有2-20倍的提升。如下圖:

圖片

  • 另一個比較重要的特性是Data Skipping

Data Skipping 技術是利用列統計數據來對所需要的這個數據文件做file pruning (文件裁剪),列統計數據常見的列統計數據包括取最大值、最小值、數量、大小等。Data Skipping 的作用就是通過這些統計數據來排除掉不需要讀的文件,這樣可以極大的提高查詢速度。我們在這個multi model index 的metadata 中構建了column_stats分區,這個分區里的每條記錄包含了這個Hudi表里所對應文件的列統計數據。每個Record key是由列名稱、分區名稱和文件名稱組成。通過這種排列格式,可以快速定位所需的column stats。查詢復雜度是基于查詢列所需要的列的數量,通常這個數量是5到10個。對于大寬表來說,這樣可以極大地提升這個效果。在實際測試中,云上Hudi大寬表的“定向”查詢速度有10x-30x的提升。大幅減少了對無關數據文件的掃描和讀取,提高了I/O效率。如下圖:

圖片

  • 我們還對Upsert 性能做了測試。我們在metadata table中引入了一個bloom_filter 分區,取代了footer 中的 bloom filter,在大表中可以大幅減少文件讀取的時間。每條記錄包含單個數據文件(partition + file name)的 bloom filter,支持 prefix lookup。據實測,在有 100k 文件的 Hudi 表中,相比于讀取 footer,從 MDT 讀取 bloom filter的速度有3倍的提升。t6.c
  • 基于多級索引,未來還有很多工作可以做,目前一個工作是針對record level index 的開發以及Luncene index的開發。

02 Spark SQL新功能

接下來再講Hudi在Spark SQL方面的改進。

1. 用戶可以使用非主鍵字段更新或刪除 Hudi 表中的記錄

Spark SQL改進Delete Operation。

在t1時刻分別往mor表cow表中分別插入a,b,c三條數據。這樣會在mor表中生成base file 文件和log file文件(下圖中簡化了示意圖)。在cow表中只會生產base file 文件。t2時刻同時刪除mor表和cow表中 b的數據。mor表操作是刪除log file b的block是t2時刻的數據。而cow表中的操作是復制一份base file b保存到內存中,刪除b數據之后會形成一個新版本的綠色的方框中的數據文件。如下圖:

圖片

2. SQL支持時間旅行查詢

我們為什么要實現Time travel?從api層面,如果我們要寫一個查詢,需要設置不同的df,構造不同的operation,然后來查詢這個動作。但是引用time travel的這個語句以后,一是可以在spark sql中直接使用,二是sql語句更容易去解釋這樣的一個行為和動作。現在可以通過timestamp as of語法支持時間旅行查詢,但僅限Spark 3.2+。語法如下:select * from hudi_tbl timestamp as of '20210728141108100' 

①SQL Travel-場景1:查詢多版本數據

如下圖,我們在10:10分提交了insert和update語句,我們想要查10:05分版本的數據,通過下面的sql是可以實現的。

select * from test_hudi timestamp as of 20220512100510000 (10:05)

select * from test_hudi timestamp as of 20220512101030000 (10:10)

圖片

②Travel-場景2: 數據還原修復

  • 創建hudi表:create table test_hudi ...
  • 插入數據:insert into test_hudi ... (每插入一條數據會產生一個版本)

圖片

  • 查詢數據:select * from test_hudi

圖片

  • 誤刪數據:delete from test_hudi where id=2
  • 查詢數據:select * from test_hudi (刪除id=2的數據后只剩下了兩個版本)

圖片

  • 還原數據:insert into test_hudi_table select * from test_hudi timestamp as of 20220511165343733(數據如果存在的話update,如果數據不存在就insert)
  • 查詢數據:select * from test_hudi (id=2的數據已經還原回來了)

圖片

注意:如果這個表用了 truncate清空的話,這種時間戳方式查詢恢復就不行了。 

3. 添加CALL命令以支持在 Hudi 表上調用更多操作

Call Command產生的一個背景是spark sql除了ddl、dql和dml之外的操作,我們想解決這三種操作之外的一些新功能的操作。那么在引入Call Command之前是沒辦法操作的。我們對比了一下傳統數據庫里面的存儲過程,類似地在spark這一塊實現了一個command動作,然后對應實現了一個procedure的功能。

首先是在hudi一側為call command生成了一個通用的語法,不依賴于spark的版本,可以對所有spark版本適用。然后生成了一個HoodieProcedure的類,使用CallProcedureHoodieCommand類調用動作。

Call Command命令在設計時主要有四個方面的功能。一是支持歸檔、提交、回滾和創建還原點的快照動作。二是可以進行原數據管理。三是對運維表進行數據導入導出、Boostrap、修復表、升級/降級等操作。四是優化表動作,如Compaction、Clustering、Clean等。

Call Command的參數有三類。一是可以使用不定式的參數(鍵值對)作為它的入參參數。二是可以按照參數的位置進行入參。三是混合參數。以下是傳參的具體語法:

圖片

  • 接下來是CALL Command功能方面的一些介紹。

①CALL Command-快照管理的相應的命令

  • 查詢快照 :call show_commits_metadata(table => 'test_hudi_table', limit => 10)
  • 回滾快照:

call rollback_to_instant('test_hudi_table',20220511224632307')

  • 創建保存點 :create_savepoints
  • 恢復保存點 :rollback_savepoints
  • 刪除保存點 :delete_savepoints

②CALL Command-Clustering

可以設置Clustering的類型:

set hoodie.layout.optimize.strategy=linear /z-order/hilbert

常用命令:

call run_clustering(table => 'test_hudi_table',order => 'ts') 

call show_clustering(table=>'test_hudi_table')

通過這些clustering的動作,在查詢的時候性能能達到10-20倍的提升。

③CALL Command-Compact(小文件合并)(目前只支持mor表)

Data file和Delta log file 合并會重新生成一個新的文件。

圖片

命令:call run_compaction(table=>'test_hudi_table',op=> instant

03 Flink集成改進

最后,介紹Flink集成改進方面的內容。主要有以下幾點:

1. 在 0.11.0 中,同時支持 Flink 1.13.x 和 1.14.x。

2. 支持復雜的數據類型。

3. 基于 DFS 的 Flink HoodieCatalog。

綠色是目前已經實現的操作,紅色是待實現的操作。可以通過ApI實現或者是Flink Sql實現。

FlinkHoodieCatalog在三個方面有比較好的作用:

  • 第一個方面是對元數據的管理,通過FlinkHoodieCatalog這個框架可以更好地管理HoodieCatalog;
  • 第二個方面是可以基于這個框架可以去和外面的其他的平臺去對接,更方便對接使用;
  • 第三個方面是元數據方面,可以在數據血緣方面構造一些功能。

圖片

4. Bucket Index 

為什么要集成改進Bucket Index?這個是字節的同學貢獻的一個功能。他們在他們的生產場景里面,在34tb的數據量在5000億的記錄寫入的情況下,Bloom Filter Index 通過Record key去找File ID 的這樣的一個動作的性能會下降得很快。為了解決Bloom Filter Index的假陽性,他們引入了Bucket Index。

通過key的哈希值定位到File Group,提升了實時導入的性能。如下圖所示:

圖片

從Flink輸入了5條數據,然后通過一定的哈希策略將混合的Bucket Index進行關聯,通過拿到FileGroupId寫入文件。

  • 利用Bucket分布做優化

Bucket分布優化主要有:Bucket Pruning、Bucket Aggregate、Bucket Join等。如下圖所示:

圖片

  • Bucket限制。目前 Bucket Index 的桶數量 ,需要根據預估的數據量提前在建表時進行確定,且建表后不可更改。
  • Bucket使用

參數:hoodie.index.type 值:BUCKET

參數:hoodie.bucket.index.num.buckets 值:48(256MB)

建議單個桶的大小控制在3GB左右。

  • Bucket后續改進。Hashmap的擴容過程,將分桶數按倍數做到輕量級動態擴容。

04其他功能和提升

最后,我們來講其他功能和提升。

1. Spark DataSource 查詢優化

我們在使用mor表做快照查詢的時候,log文件會被讀取,然后和base文件進行合并。在之前的版本中,當你做快照查詢的時候,整條log文件記錄會被讀出來。這個版本我們做了優化,使用了內置的標準Payload來讀取。例如:OverwriteWithLatestAvroPayload。我們會針對這個做了優化,只把必要的列讀出來,這樣就會極大的減少內存和壓縮解碼帶來的CPU的消耗。其實是對于非常寬的上千列的表來說,效果會非常明細。

2. Schema 演進 

在這個版本中,我們針對Spark 3.1、Spark 3.2版本增加了schema功能的演進。如果啟用 set hoodie.schema.on.read.enable=true以后,我們可以對表列和對表進行一系列的操作。列的變更(增加、刪除、重命名、修改位置、修改屬性),表的變更(重命名、修改屬性) 等。

3. 保存點和恢復 

保存點和恢復可以用call command做這些操作。新版本引進了mor表,用Hudi CLI設定保存點和執行恢復或者call command來手動設置保存點。保存點之后的數據將會被刪除。

4. Pulsar 寫提交回調 

  • Hudi寫入commit支持Pulsar下游作業* 
  • 主要配置 HoodieWriteCommitPulsarCallback 

hoodie.write.commit.callback.pulsar.topic

hoodie.write.commit.callback.pulsar.broker.service.url

  • 可擴展的接口HoodieWriteCommitCallback 

5. 多元化的Catalog同步

  • Google BigQuery 支持查詢COW表* 
  • DataHub 支持同步Schema 
  • 通過AWS SDK原生同步Glue Data Catalog 
責任編輯:張燕妮 來源: DataFunTalk
相關推薦

2023-03-15 07:29:54

開源數據湖

2010-06-01 09:52:27

jQuery Tool

2010-06-24 15:03:37

MSN微軟

2011-08-01 15:35:51

GlassFishJava 7

2024-08-07 10:46:45

2024-10-22 08:01:15

2022-05-05 11:20:08

KubernetesDocker云計算

2022-04-15 11:51:48

Windows 11安全加密

2015-08-03 13:12:43

分布式計算Mesos新版本特性

2019-03-05 15:03:09

Android Q安卓系統功能

2015-02-05 16:59:36

平安WiFiiOS

2010-02-23 17:44:48

Python 3.0

2009-06-17 09:24:34

學習strutsStruts新版本

2011-04-11 09:11:42

GNOME 3

2022-08-29 15:30:46

TypeScript代碼

2009-12-29 13:43:21

Ubuntu 9.10

2012-05-15 13:39:41

微軟Windows8

2023-05-18 08:00:59

CephRGW 性能

2009-12-31 11:09:36

Ubuntu wine

2009-08-02 08:59:47

Windows 7 R系統升級
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 欧美xxxx色视频在线观看免费 | 9久久精品| 国产人免费人成免费视频 | 久久久av | 国产精品视频一区二区三区不卡 | 天天天天天天天干 | 黄色网址在线免费观看 | 四虎永久免费黄色影片 | 99在线精品视频 | 中文精品视频 | 中文字幕一区二区在线观看 | 亚洲在线视频 | 亚洲黄色一级毛片 | 国产精品色av | 99在线视频观看 | 欧美精品欧美精品系列 | 日本精品视频一区二区 | 亚洲视频在线播放 | 亚洲精品一区二区三区四区高清 | 日本特黄特色aaa大片免费 | 国产精品夜间视频香蕉 | 国产99精品 | 日本一区二区三区在线观看 | 午夜丰满寂寞少妇精品 | 黄色片a级 | 一区二区三区免费 | 亚洲视频第一页 | 国产在线精品一区二区三区 | 亚洲毛片 | 午夜精品久久 | 亚洲一区二区视频 | 欧美成视频 | www.久久精品 | 国产成人精品一区二区三区网站观看 | 韩日精品一区 | 在线成人免费视频 | 九色网址 | 2018天天干天天操 | 操操操av | 国产精品美女一区二区 | 亚洲精品乱码8久久久久久日本 |