成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

AI:你總要高清視頻,它來了

人工智能 新聞
以后,就算是跑著拍視頻,FMA-Net也能給你處理得非常滿意。

Magnific 圖像超分 & 增強工具還正在火熱體驗中,它強大的圖像升頻與再創能力收獲一致好評。現在,視頻領域也有了自己的 Magnific。

拍攝的街道視頻一片模糊,仿佛高度近視沒戴眼鏡一樣:

圖片

與之相比,下面的視頻清晰度高了很多:

圖片

視頻畫面兩邊形成鮮明的對比:左邊視頻已經模糊的看不清人臉,而右邊視頻建筑物的紋理也看得清清楚楚:

圖片

行駛的汽車仿佛從一個模糊的世界穿越到高清世界:

圖片

不同的方法進行比較,明顯看到右下角的視頻在微小的細節恢復方面更加清晰:

圖片


通過上述展示,我們可以看出,視頻超分辨率(VSR)就像是給模糊的老電影穿上了高清新衣。比如上面展示的一段道路監控錄像,由于畫質太低,細節看起來像是被涂抹過一樣。這時候就需要 VSR 技術出場了,它能夠把這些低分辨率的視頻變得更加清晰。


不過,這個過程并不簡單。常常因為攝像機晃動或拍攝物體的移動,視頻就像是被風吹過的湖面,波紋模糊。這時,我們不僅需要提升視頻的清晰度,還得「擺平」這些模糊的干擾。這就需要視頻超分辨率和去模糊的聯合修復(VSRDB),它要在保持視頻清晰度的同時,還得處理模糊,確保最后呈現出來的視頻既清晰又流暢。


為了實現上述效果,來自韓國科學技術院(KAIST)與中央大學的研究者們提出了 FMA-Net 框架。這個框架基于流引導的動態濾波(Flow-Guided Dynamic Filtering, FGDF)和迭代特征細化的多重注意力機制(Iterative Feature Refinement with Multi-Attention, FRMA),旨在實現從小到大的運動表示學習,并具有良好的聯合恢復性能(見圖 1)。FGDF 的關鍵之處在于執行濾波時要注意運動軌跡,而不是拘泥于固定位置,這樣就能用較小的核有效處理較大的運動。


圖片

  • 論文地址:https://arxiv.org/abs/2401.03707
  • 項目主頁:http://kaist-viclab.github.io/fmanet-site/ 
  • 論文標題:FMA-Net: Flow-Guided Dynamic Filtering and Iterative Feature Refinement with Multi-Attention for Joint Video Super-Resolution and Deblurring

方法介紹

該研究的目標是同時實現視頻超分辨率和去模糊(VSRDB)。對于一個模糊的 LR(低分辨率, low-resolution )輸入序列圖片,式中 T = 2N + 1、c 分別表示輸入幀數和中心幀索引。VSRDB 的目標是預測一個清晰的 HR( 高分辨率,high-resolution )中心框架圖片。如下圖展示了 VSRDB 框架 FMA-Net。

FMA-Net 包括兩部分:退化學習網絡 Net^D ;修復網絡 Net^R 。退化學習網絡用于估計感知運動的時空變化退化核;修復網絡利用這些預測出的退化核來恢復模糊的低分辨率視頻。

圖片

其中,退化學習網絡 Net^D 用來預測運動感知的時空變化退化,而 Net^R 以全局自適應的方式利用 Net^D 預測的退化來恢復中心幀 X_c。

Net^D 和 Net^R 具有相似的結構,它們由 FRMA( feature refinement with multiattention )塊和 FGDF( flow-guided dynamic filtering )塊組成。

下圖 4 (a) 顯示了第 (i+1) 步更新時 FRMA 塊的結構,圖 4 (b) 為多注意力結構。

圖片

下圖 2 展示了 FGDF 概念。FGDF 看起來類似于可變形卷積(DCN),但不同之處在于 FGDF 學習的是位置相關的 n×n 動態濾波器系數,而 DCN 學習的是位置不變的 n×n 濾波器系數。

此外,新提出的多注意力機制,包括以中心為導向的注意力和退化感知注意力,使得 FMA-Net 能夠專注于目標幀,并以全局適應的方式使用退化核進行視頻超分辨率和去模糊。

圖片

訓練策略

該研究采用兩階段的訓練策略來訓練 FMA-Net。首先對 Net^D 進行預訓練,損失 L_D 為:

圖片

然后,為了提高性能,本文還提出了 TA 損失,即等式右側的最后一項。

總的訓練損失為:

圖片

實驗結果

表 1 顯示了在測試集 REDS4 上的定量比較結果。從表 1 可以看出:

  • 級聯 SR 和去模糊的序列方法會導致先前模型的錯誤傳播,導致性能顯著下降,并且使用兩個模型還會增加內存和運行時成本;
  •  與序列級聯方法相比,VSRDB 方法始終表現出優越的整體性能,表明這兩個任務高度相關;
  • FMA-Net 在 PSNR、SSIM 和 tOF 方面顯著優于所有 SOTA 方法,具體來說,FMA-Net 比 SOTA 算法 RVRT * 和 BasicVSR++* 分別提高了 1.03 dB 和 1.77 dB。

圖片

表 2 為定量比較結果。當對兩個測試集進行平均時,FMA-Net 的性能分別比 RVRT * 和 GShiftNet * 提高了 2.08 dB 和 1.93 dB。

圖片

下圖為不同方法對 ×4 VSRDB 的可視化比較結果,表明 FMA-Net 生成的圖像比其他方法生成的圖像在視覺上更清晰。

不同方法在 REDS4、GoPro 和 YouTube 測試集上的可視化結果。放大觀看效果最好。

了解更多技術細節,請閱讀原文。

責任編輯:張燕妮 來源: 機器之心
相關推薦

2023-03-15 08:03:31

2022-11-29 07:48:16

2021-04-16 16:21:02

鴻蒙HarmonyOS應用開發

2022-07-19 08:04:04

HTTP應用層協議

2025-04-29 07:07:00

邊緣AI人工智能IT設備

2025-01-15 10:02:09

APIVueDOM

2019-11-18 10:14:19

AI 數據人工智能

2024-07-09 09:15:29

2022-08-15 08:40:00

AI模型

2021-10-28 18:58:57

動態規劃數據結構算法

2011-08-15 10:37:21

視頻極速流量

2020-06-04 14:50:20

視頻帶寬數據

2024-04-12 14:12:45

人工智能JavaScript

2021-10-25 22:52:06

網絡數據技術

2024-04-29 10:33:18

人工智能Nvidia 技術AI

2024-04-07 00:00:00

JSNode.jsAI

2020-10-23 18:44:46

NVIDIA

2021-09-09 06:55:44

Docker權限cgroup
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 午夜影视大全 | 日本不卡免费新一二三区 | 日韩成人高清 | 久久精品二区亚洲w码 | 狠狠草视频| 91免费看片 | 午夜一区 | 99视频在线| 国产成人精品一区二区三区网站观看 | 欧美二区在线 | 一区二区三区高清 | 美女中文字幕视频 | 一二三四在线视频观看社区 | 国产成人精品一区二区三区视频 | 成人免费共享视频 | 91精品国产自产在线老师啪 | 久草网址| 亚洲欧美精品国产一级在线 | 午夜爽爽爽男女免费观看影院 | 欧美日韩综合视频 | 成人网av| 国产农村一级国产农村 | 日韩在线| 成人午夜黄色 | 午夜av电影院| 国产日韩中文字幕 | 99在线免费视频 | 国产日韩精品一区二区 | 亚洲成人一区二区三区 | 综合五月婷 | 日韩在线免费视频 | 久久久.com| 一级看片免费视频囗交动图 | 亚洲精品一区二三区不卡 | 成人在线视频看看 | 精品久久久久久久久久久久久久 | 天天拍天天操 | 老司机久久 | 国产成人a亚洲精品 | 欧美九九 | xxxxx黄色片 欧美一区免费 |