一行代碼完成模型訓(xùn)練,30倍加速,3毫秒急速識(shí)別,超強(qiáng)圖像分類(lèi)算法開(kāi)源!
人臉、車(chē)輛、人體屬性、卡證、交通標(biāo)識(shí)等經(jīng)典圖像識(shí)別能力,在我們當(dāng)前數(shù)字化工作及生活中發(fā)揮著極其重要的作用。業(yè)內(nèi)也不乏頂尖公司提供的可直接調(diào)用的API、SDK,但這些往往面臨著定制化場(chǎng)景泛化效果不好、價(jià)格昂貴、黑盒可控性低、技術(shù)壁壘難以形成多諸多痛點(diǎn)。
而今天要給大家推薦的是一個(gè)完全開(kāi)源免費(fèi)的、覆蓋人、車(chē)、OCR等9大經(jīng)典識(shí)別場(chǎng)景、在CPU上可3毫秒實(shí)現(xiàn)急速識(shí)別、一行代碼就可實(shí)現(xiàn)迭代訓(xùn)練的項(xiàng)目!
圖1 PaddleClas圖像分類(lèi)應(yīng)用示意圖
話不多說(shuō),趕緊送上傳送門(mén),識(shí)貨的小伙伴趕緊嘗試一下吧!
https://github.com/PaddlePaddle/PaddleClas
記得Star收藏防止走丟哦!
當(dāng)然,小編不是只管吆喝的,下面就來(lái)詳細(xì)拆解下這個(gè)項(xiàng)目的過(guò)人之處吧!
圖2 9大場(chǎng)景模型效果示意圖
亮點(diǎn)一:完美平衡精度與速度
從大名鼎鼎的Resnet50到如今火熱的Swin-Transformer,模型精度不斷被刷新,但是預(yù)測(cè)效率并不高。即使是Swin-Transformer最小的模型,在CPU上的預(yù)測(cè)速度也超過(guò)100ms,遠(yuǎn)遠(yuǎn)無(wú)法滿足產(chǎn)業(yè)實(shí)時(shí)預(yù)測(cè)的需求。
而使用MobileNet系列等輕量化模型可以保證較高的預(yù)測(cè)效率,在CPU上預(yù)測(cè)一張圖像大約3ms,但是模型精度往往和大模型有很大差距。
而PaddleClas推出的超輕量圖像分類(lèi)方案(Practical Ultra Light Classification,簡(jiǎn)稱PULC),就完美解決上述產(chǎn)業(yè)落地中算法精度和速度難以平衡的痛點(diǎn)。
表1 不同模型精度速度結(jié)果對(duì)比
如圖所示,它的精度與Swin-Transformer等大模型比肩,預(yù)測(cè)速度卻可以快30倍以上,在CPU上的推理時(shí)長(zhǎng)僅需2ms!
亮點(diǎn)二:易用性極強(qiáng)
PULC方案不僅完美的平衡了精度與速度,還充分考慮了產(chǎn)業(yè)實(shí)踐過(guò)程中需要定制化的對(duì)算法快速迭代的需求,只需一行命令,就可完成模型訓(xùn)練。
與此同時(shí),PaddleClas 團(tuán)隊(duì)還發(fā)布了包括人、車(chē)、OCR在內(nèi)的9大場(chǎng)景模型,僅需2步就能實(shí)現(xiàn)業(yè)務(wù) POC 效果驗(yàn)證,訓(xùn)練、推理、部署一條龍,真正實(shí)現(xiàn)“開(kāi)箱即用”。
不僅如此,項(xiàng)目還匹配了詳細(xì)的中文使用文檔及產(chǎn)業(yè)實(shí)踐范例教程。
圖3 使用文檔及范例示意圖
亮點(diǎn)三:集成超多硬核技術(shù)
超輕量圖像分類(lèi)方案(PULC)集成了業(yè)界4大業(yè)界領(lǐng)先的優(yōu)化策略:
圖4 超輕量圖像分類(lèi)方案(PULC)示意圖
PP-LCNet輕量級(jí)骨干網(wǎng)絡(luò)
PP-LCNet作為針對(duì)CPU量身打造的骨干網(wǎng)絡(luò)模型,在速度、精度方面均遠(yuǎn)超如MobileNetV3等同體量算法,多個(gè)場(chǎng)景模型優(yōu)化后,速度較SwinTransformer的模型快30倍以上,精度較MobileNetV3_small_0.35x高18個(gè)點(diǎn)。
SSLD預(yù)訓(xùn)練權(quán)重
SSLD半監(jiān)督蒸餾算法可以使小模型學(xué)習(xí)到大模型的特征和ImageNet22k無(wú)標(biāo)簽大規(guī)模數(shù)據(jù)的知識(shí)。在訓(xùn)練小模型時(shí),使用SSLD預(yù)訓(xùn)練權(quán)重作為模型的初始化參數(shù),可以使不同場(chǎng)景的應(yīng)用分類(lèi)模型獲得1-2.5個(gè)點(diǎn)的精度提升。
數(shù)據(jù)增強(qiáng)策略集成
該方案融合了圖像變換、圖像裁剪和圖像混疊3種數(shù)據(jù)增強(qiáng)方法,并支持自定義調(diào)整觸發(fā)概率,能使模型的泛化能力大大增強(qiáng),提升模型在實(shí)際場(chǎng)景中的性能。模型可以在上一步的基礎(chǔ)上,精度再提升1個(gè)點(diǎn)左右。
SKL-UGI知識(shí)蒸餾算法
SKL(symmetric-KL)在經(jīng)典的KL知識(shí)蒸餾算法的基礎(chǔ)上引入對(duì)稱信息,提升了算法的魯棒性。同時(shí),該方案可以方便的在訓(xùn)練中加入無(wú)標(biāo)簽訓(xùn)練數(shù)據(jù)(Unlabeled General Image),可以進(jìn)一步提升模型效果。該算法可以使模型精度繼續(xù)提升1-2個(gè)點(diǎn)。