成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

2 張圖片就能“算”出個視頻,驚呆 Reddit 網友

新聞 人工智能
只給AI兩張圖片,就能得到高幀率動態視頻?不錯,這又是視頻插幀算法的功勞。

 本文經AI新媒體量子位(公眾號ID:QbitAI)授權轉載,轉載請聯系出處。

只給AI兩張圖片,就能得到高幀率動態視頻?

輸入的兩張圖像,重疊后是這樣的:

2張圖片就能“算”出個視頻,驚呆Reddit網友丨曠視&北大

而算出來的視頻,是醬嬸的:

2張圖片就能“算”出個視頻,驚呆Reddit網友丨曠視&北大

不錯,這又是視頻插幀算法的功勞。

極限操作玩得6,讓老電影變絲滑的常規手法,這個名叫RIFE的AI算法同樣信手拈來。

右邊這支經典探戈,看上去是不是比左邊絲滑多了?

2張圖片就能“算”出個視頻,驚呆Reddit網友丨曠視&北大

不僅是老電影,飛行表演的精彩瞬間,也能一口氣從每秒24幀提升到每秒96幀。

2張圖片就能“算”出個視頻,驚呆Reddit網友丨曠視&北大

這項新研究,來自曠視和北大。不僅能讓老影像資料追上人民群眾對高幀率的需求,支持2X/4X/8X高質量插值,它還有一個最大的特點:

量子位在Colab上用T4跑了一遍Demo,一個時長53秒的720p 25fps視頻,插值到100fps僅用了2分19秒

該項目現已開源,并且有官方Demo、第三方Windows應用可以試玩。

看過了RIFE的表現,網友們不由驚嘆,這是要超越那只經常在各種修復視頻里出現的插幀AI DAIN,引領一波新潮流的節奏啊?

一時之間,RIFE在Reddit上的熱度飆升到了2.8k。

2張圖片就能“算”出個視頻,驚呆Reddit網友丨曠視&北大

那么,這樣的效果究竟是怎么實現的呢?

從雙向估計,到一步預測中間幀

視頻插幀,通常是用光流預測算法來預測中間幀,并插入兩幀之間。光流,就像光的流動一樣,是一種通過顏色來表示圖像中目標移動方向的方式。

△稀疏光流與稠密光流

傳統光流預測算法,通常根據前后兩幀視頻來預測中間的某一幀長啥樣。

將預測完成的圖像插進去后,視頻看起來就會變得更絲滑。

以DAIN的算法為例,如果要預測t時刻的幀,就需要t時刻的前后兩幀視頻,通過光流預測算法來實現。

△DAIN的算法圖

但是這一類的算法會產生一個缺點:在預測過程中,如果用前后兩幀圖像產生雙向光流,用線性組合來估計中間流,預測出來的結果,在運動邊界區域就會出現偽影

這樣的偽影,使得重建中間幀圖像的效果不盡人意。

那么,如果換一種思路,直接先預測中間流呢?

相比于利用前一幀和后一幀進行兩次估計,這里的IFNET (a Specialized and Efficient Intermediate Flow Network)算法,將直接采用線性運動假設,對中間幀進行一次估計

效果也顯而易見,相比于利用前后兩幀的雙向估計所產生的光流,利用IFNET估計出的光流效果非常清晰,而且幾乎沒有偽影。

利用這種方式重建圖像,不僅光流邊緣看得清楚,而且速度也更快。

論文提到,RIFE是首個基于光流的實時視頻插幀方案。

由于中間幀預測,直接假設了前后兩幀的變換是線性的,相當于每幀預測中直接少了一次估計。

那么,這個模型,究竟將插幀算法提升到了怎么樣的水平?

運行速度遠超其他方法

前文已經提到,RIFE最亮眼的一點是快。

研究人員在UCF101、Vimeo90K、Middlebury OTHER set和HD benchmarks等基準上,將RIFE與英偉達的SoftSplat、上交大的DAIN等「前輩」進行了對比。

用來測試運行時間的是一個640×480的視頻,使用的GPU型號是NVIDIA TITAN X(Pascal)。

從結果可以看出,在性能相當的情況下,RIFE基礎模型的運行速度超過了所有對比方法。

而模型的大版本RIFE-Large,在性能超越SOTA方法SoftSplat的情況下,運行速度快出了30%。

另外,研究人員基于Vimeo90K測試集,提供了可視化的對比結果。

可以看到綠框部分,SepConv-L1和DAIN產生了偽影,而CAIN鏟子部分則出現了缺失,相對而言,RIFE生成的結果更為可靠。

安裝包和colab都有,試玩無憂

效果這么美麗的模型,應該怎么使用?

目前作者們已經給出了預訓練模型的幾種用法,從GitHub項目中可以直接下載網盤版的壓縮包。

無論是用作者提供的demo、還是用你自己想要進行插幀的樣本,都可以上手試玩。

當然,模型也有colab版本,可以直接在云服務器上玩模型。

而且,已經有玩家做出了Windows版的軟件,可以直接下載下來使用。界面看起來還挺簡潔:

模型RIFE的出現,已經讓一些游戲愛好者狂熱了起來:

你們能想象嗎,就算是已經吃灰很久的PS2,也可以達到4k游戲的水平效果了!利用這種算法,3步就能搞定!

不過,也有網友表示了對這種算法的擔憂。

雖然這種算法速度快、性能高,但實際上存在一個問題:

這種算法,本質上無法聯想到丟失的幀間信息,所以無法用在安防視頻上。

對于這些方面的應用,未來還需要進一步考慮。

作者介紹

[[353834]]

黃哲威,論文一作,目前是曠視的一名算法研究員,畢業于北京大學。

進入北大信科一年后,他獲得了ICPC區域賽金牌,還成為了曠視科技智能計算組(IC組)的實習生,之后參加了NIPS 2017的Learning to Run比賽,使用Actor-Critic Ensemble算法獲得了第二名。此外,在ICCV 2019頂會上,他的論文同樣被收錄。

張天遠,畢業于北京大學,就讀期間,論文曾經被ICML 2019、ICCV 2019、NIPS 2019等頂會收錄。

衡穩,于北京大學獲計算機應用技術碩士學位。

施柏鑫,來自北京大學,目前是北京大學信息科學技術學院的助理教授(博雅青年學者)、研究員、博士生導師。

周舒暢,曠視研究院AI計算組組長,本科畢業于清華電子系,博士畢業于中科院計算所,曾獲NeuIPS 2017 Learning to Run Challenge第二名,美國國家標準技術研究所NIST TRAIT 2016 OCR冠軍。

項目地址:
https://rife-vfi.github.io/

論文地址:
https://arxiv.org/abs/2011.06294

與DAIN效果對比:
https://www.youtube.com/watch?v=60DX2T3zyVo&feature=youtu.be

 

責任編輯:張燕妮 來源: 量子位
相關推薦

2019-12-02 10:23:49

人工智能機器學習技術

2023-02-06 10:48:48

谷歌

2021-05-11 14:26:30

神經網絡數據圖形

2020-02-18 15:53:09

AI 數據人工智能

2015-05-19 14:30:48

加密視頻加密億賽通

2024-01-22 06:30:00

AI模型

2023-11-21 21:27:32

AI圖片

2025-03-20 12:11:42

2018-02-02 14:29:25

PHP漏洞服務器

2022-02-25 15:08:16

強化學習職業博士

2020-02-25 11:15:46

代碼開發AI

2023-09-19 13:49:26

數據訓練

2025-03-10 12:01:45

2009-09-22 09:02:10

職業規劃IT職業發展

2021-04-26 17:38:40

ReactorProactor網絡

2023-06-12 15:20:38

視頻電影

2021-05-07 15:27:30

人工智能機器學習技術

2013-05-10 09:31:06

程序員

2021-10-21 09:51:00

論文學術數據

2013-08-26 10:48:02

Reddit排名算法算法
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 国产成人一区二区 | 久久国产一区二区三区 | 成人一区在线观看 | 天堂视频一区 | av免费在线观看网站 | 黄网站免费在线观看 | 日韩欧美在 | 国产在线a视频 | 日本久久久一区二区三区 | 911精品国产| 国产日韩一区二区三区 | 国产免费av网| 久久久久久久国产 | www.亚洲成人网 | 成人夜晚看av| 精品中文字幕一区二区 | 蜜桃精品噜噜噜成人av | 日韩一区二区三区在线视频 | 97精品久久 | 欧洲妇女成人淫片aaa视频 | 欧美一区二区三区精品 | 亚洲三区在线播放 | 秋霞性生活 | 国产一区三区视频 | 日韩精品久久久久久 | 亚洲69p | 亚洲视频免费在线播放 | 97在线观视频免费观看 | 激情小说综合网 | 福利电影在线 | 国产综合久久久久久鬼色 | 国产真实精品久久二三区 | 国产精品久久久久久久久久久久冷 | 日本成人免费观看 | 日本精品网站 | 色综合欧美 | 91成人免费观看 | 国产精品久久久久久久久久久久 | 正在播放国产精品 | 欧美一区二区三区在线看 | 色男人的天堂 |