成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

計(jì)算機(jī)視覺技術(shù)深度解讀之視頻動(dòng)作識(shí)別

開發(fā) 開發(fā)工具
視頻的理解與識(shí)別是計(jì)算機(jī)視覺的基礎(chǔ)任務(wù)之一。隨著視頻設(shè)備和網(wǎng)絡(luò)的普通,視頻理解也吸引了越來(lái)越多研究者的關(guān)注。而識(shí)別視頻中的動(dòng)作則是其中一個(gè)充滿挑戰(zhàn)而又具有較高實(shí)際應(yīng)用價(jià)值的任務(wù)。

 視頻的理解與識(shí)別是計(jì)算機(jī)視覺的基礎(chǔ)任務(wù)之一。隨著視頻設(shè)備和網(wǎng)絡(luò)的普通,視頻理解也吸引了越來(lái)越多研究者的關(guān)注。而識(shí)別視頻中的動(dòng)作則是其中一個(gè)充滿挑戰(zhàn)而又具有較高實(shí)際應(yīng)用價(jià)值的任務(wù)。相比圖像來(lái)說(shuō),視頻內(nèi)容和背景更加復(fù)雜多變,不同的動(dòng)作類別之間具有相似性,而相同的類別在不同環(huán)境下又有著不同的特點(diǎn)。此外,由于拍攝造成的遮擋、抖動(dòng)、視角變化等也為動(dòng)作識(shí)別進(jìn)一步帶來(lái)了困難。在實(shí)際應(yīng)用中,精確的動(dòng)作識(shí)別有助于輿情監(jiān)控,廣告投放,以及很多其他視頻理解相關(guān)的任務(wù)。

與圖像識(shí)別相比,視頻分析需要更大量數(shù)據(jù)。早期的數(shù)據(jù)集KTH[1],Weizmann[2]等僅由演員表演固定的幾個(gè)動(dòng)作,如走路,慢跑等。之后,較大規(guī)模的數(shù)據(jù)集如UCF101[3]等由網(wǎng)絡(luò)視頻組成,具體動(dòng)作類別則由志愿者人工標(biāo)注完成。目前,研究者發(fā)布了更大規(guī)模的數(shù)據(jù)集,例如Kinetics[4]包含了上百類動(dòng)作以及幾十萬(wàn)視頻(如圖1所示示例),雖然相比實(shí)際情況仍不夠全面,但也對(duì)動(dòng)作識(shí)別的研究有了極大的幫助。


圖1. Kinetics數(shù)據(jù)集的示例視頻幀

(https://arxiv.org/pdf/1705.06950.pdf)。

視頻動(dòng)作識(shí)別目前常用的技術(shù)可以大致分為如下幾類:

1. 基于人工特征的視頻動(dòng)作識(shí)別

早期的動(dòng)作識(shí)別主要基于興趣點(diǎn)的檢測(cè)和表示。梯度直方圖[5],時(shí)空興趣點(diǎn)檢測(cè)[6],以及光流直方圖[7]等都用于提取圖像和時(shí)序的特征表示。與圖像相比,視頻蘊(yùn)含了大量的運(yùn)動(dòng)信息,為了更好的利用運(yùn)動(dòng)信息,Heng等人提出了密集軌跡的特征[8],密集的提取和追蹤光流中每個(gè)像素特征,編碼后進(jìn)行分類。然而,當(dāng)面臨大規(guī)模數(shù)據(jù)集時(shí),這些特征缺乏一定的靈活性和可擴(kuò)展性。

2. 基于雙流的神經(jīng)網(wǎng)絡(luò)

近年來(lái),神經(jīng)網(wǎng)絡(luò)在圖像識(shí)別、物體檢測(cè)等計(jì)算機(jī)視覺任務(wù)上取得了幾乎超越人類的成果,研究者在視頻任務(wù)中也越來(lái)越多的開始使用神經(jīng)網(wǎng)絡(luò)。然而,直接將用于圖像分類的神經(jīng)網(wǎng)絡(luò)用于視頻分類會(huì)忽略視頻的時(shí)序特征,而時(shí)序特征對(duì)于視頻分類尤為重要。介于此,研究者提出了基于雙流的動(dòng)作識(shí)別方法。Simonyan et al. 提出了一個(gè)融合網(wǎng)絡(luò)[9] ,該論文首次將視頻分成空間和時(shí)間兩個(gè)部分,分別將RGB圖像和光流圖像送入兩支神經(jīng)網(wǎng)絡(luò)并融合最終分類結(jié)果。如圖2所示,利用雙流神經(jīng)網(wǎng)絡(luò),可以同時(shí)得到視頻中人或物體外表和運(yùn)動(dòng)的信息,該方法在當(dāng)時(shí)各個(gè)基準(zhǔn)數(shù)據(jù)集上取得了領(lǐng)先的識(shí)別水平。 


圖2. 雙流神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖

(https://papers.nips.cc/paper/5353-two-stream-convolutional-networks-for-action-recognition-in-videos.pdf)

之后,又有許多研究針對(duì)雙流網(wǎng)絡(luò)這種框架進(jìn)行了一些改進(jìn),例如Temporal Segment Network則提出了一種可以捕捉較長(zhǎng)時(shí)序的網(wǎng)絡(luò)結(jié)構(gòu)[10]。Xu 提出了基于密集擴(kuò)張網(wǎng)絡(luò)的框架[11],并探討了空間和時(shí)間分支的不同融合方式。

3. 基于三維卷積的神經(jīng)網(wǎng)絡(luò)

除了雙流網(wǎng)絡(luò),還有一些研究者針對(duì)視頻將神經(jīng)網(wǎng)絡(luò)優(yōu)化為三維卷積神經(jīng)網(wǎng)絡(luò),以此來(lái)捕捉更多的時(shí)空信息。如圖3所示,Tran等人首次提出了在視頻動(dòng)作識(shí)別中使用三維神經(jīng)網(wǎng)絡(luò)(C3D)代替二維的神經(jīng)網(wǎng)絡(luò)[12]。此后,由于ResNet在圖像識(shí)別任務(wù)中取得的較好效果,Hara等人提出了基于三維網(wǎng)絡(luò)的ResNet[13],Qiu等人也提出了用二維模擬三維神經(jīng)網(wǎng)絡(luò)的偽3D網(wǎng)絡(luò)(P3D)[14]。  

圖3.三維神將網(wǎng)絡(luò)示意圖。 

(https://www.cv-foundation.org/openaccess/content_iccv_2015/papers/Tran_Learning_Spatiotemporal_Features_ICCV_2015_paper.pdf)

最近,deep mind團(tuán)隊(duì)提出了Inflated 3D ConvNets (I3D)[15],具體方法是利用了2D網(wǎng)絡(luò)權(quán)重展開作為3D網(wǎng)絡(luò)的預(yù)訓(xùn)練權(quán)重,同時(shí)借助大規(guī)模的Kinetics數(shù)據(jù)集進(jìn)行預(yù)訓(xùn)練,在基準(zhǔn)數(shù)據(jù)集上效果得到明顯提升。

4. 其他

此外,仍有很多研究者在探索其他更有效的視頻動(dòng)作識(shí)別方法,如基于長(zhǎng)短記憶網(wǎng)絡(luò)(LSTM)的識(shí)別框架[16],基于對(duì)抗神經(jīng)網(wǎng)絡(luò)(GAN)[17]的框架等。

雖然目前動(dòng)作識(shí)別已經(jīng)取得了快速的發(fā)展,但距離人類識(shí)別水平仍有很大的差距,在實(shí)際應(yīng)用中也面臨著各種各種復(fù)雜的問(wèn)題。我們期待著今后的研究中能夠出現(xiàn)更具有可擴(kuò)展性,魯棒性的算法和框架。

【本文是51CTO專欄機(jī)構(gòu)“AiChinaTech”的原創(chuàng)文章,微信公眾號(hào)( id: tech-AI)”】

戳這里,看該作者更多好文

 

責(zé)任編輯:華軒 來(lái)源: 51CTO專欄
相關(guān)推薦

2023-04-04 08:25:31

計(jì)算機(jī)視覺圖片

2023-09-04 15:15:17

計(jì)算機(jī)視覺人工智能

2017-11-30 12:53:21

深度學(xué)習(xí)原理視覺

2023-07-07 10:53:08

2023-11-20 22:14:16

計(jì)算機(jī)視覺人工智能

2020-05-15 14:25:19

微軟人臉識(shí)別人工智能

2019-12-11 13:24:57

深度學(xué)習(xí)數(shù)據(jù)結(jié)構(gòu)軟件

2022-09-15 15:24:19

人工智能機(jī)器學(xué)習(xí)

2020-07-10 15:20:51

Linux?OpenCV代碼

2019-01-11 18:52:35

深度學(xué)習(xí)視覺技術(shù)人工智能

2023-11-24 16:38:38

無(wú)人機(jī)計(jì)算機(jī)視覺

2021-03-29 11:52:08

人工智能深度學(xué)習(xí)

2023-03-28 15:21:54

深度學(xué)習(xí)計(jì)算機(jī)視覺

2021-05-19 09:00:00

人工智能機(jī)器學(xué)習(xí)技術(shù)

2020-09-04 11:47:12

計(jì)算機(jī)視覺

2020-04-26 17:20:53

深度學(xué)習(xí)人工智能計(jì)算機(jī)視覺

2020-08-04 10:24:50

計(jì)算機(jī)視覺人工智能AI

2024-03-01 10:08:43

計(jì)算機(jī)視覺工具開源

2020-11-05 13:50:23

計(jì)算機(jī)視覺

2020-12-16 19:28:07

深度學(xué)習(xí)計(jì)算機(jī)視覺Python庫(kù)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)

主站蜘蛛池模板: 黄网在线观看 | 91精品观看 | 亚洲精品久久嫩草网站秘色 | 91资源在线| 超碰av人人 | 午夜视频一区二区三区 | 成人h动漫亚洲一区二区 | 操操日 | 在线免费观看黄a | 中文在线a在线 | 久久久69 | 国产日韩欧美在线 | 亚洲第一在线 | 伦理二区 | 一区二区国产精品 | 伊人激情网 | 欧美一级大片免费观看 | h漫在线观看 | 国产精品日韩在线观看一区二区 | 黄一级| 久久久久久国产精品三区 | 欧美日韩国产在线观看 | 一区二区三区视频在线观看 | 久久精品免费一区二区三 | 精品国产精品一区二区夜夜嗨 | 蜜桃在线视频 | 久久人体视频 | 久久精品色欧美aⅴ一区二区 | 五月天天丁香婷婷在线中 | 精品伊人久久 | 色婷婷综合久久久久中文一区二区 | 欧美日韩久久久久 | 国产午夜在线观看 | 欧美中文在线 | 久久成人综合 | 男女网站免费观看 | 精品久久久久久久久久久 | 国产精品久久精品 | 午夜免费视频 | 91精品国产乱码久久久久久 | 久久久久成人精品 |