Exciting!GPT-4V在自動駕駛中初探
本文經自動駕駛之心公眾號授權轉載,轉載請聯系出處。
Update: 增加了一個新的例子,自動駕駛配送車駛入新浦水泥地
萬眾矚目之下,今天GPT4終于推送了vision相關的功能。今天下午抓緊和小伙伴一起測試了一下GPT對于圖像感知的能力,雖有預期,但是還是大大震驚了我們。TL;DR 就是我認為自動駕駛中和語義相關的問題應該大模型都已經解決得很好了,但是大模型的可信性和空間感知能力方面仍然不盡如人意。解決一些所謂和效率相關的corner case應該是綽綽有余,但是想完全依賴大模型去獨立完成駕駛保證安全性仍然十分遙遠。
1 Example1: 路上出現了一些未知障礙物
GPT4的描述
準確的部分:檢測到了3輛卡車,前車車牌號基本正確(有漢字就忽略吧),天氣和環境正確,在沒有提示的情況下準確識別到了前方的未知障礙物
不準確的部分:第三輛卡車的位置左右不分,第二輛卡車頭頂的文字瞎猜了一個(因為分辨率不足?)
這還不夠,我們繼續給一點提示,去問這個物體是什么,是不是可以壓過去。
Impressive!類似的場景測試了多個,對于未知障礙物的表現可以說非常驚人了。
2 Example2: 路面積水的理解
沒有提示能自動識別到標牌這個應該是基操了,我們繼續給一些hint
再次被震驚了。。。能自動講出來卡車背后的霧氣,也主動提到了水坑,但是再一次把方向說成了左側。。。感覺這里可能需要一些prompt engineering能更好的讓GPT輸出位置和方向。
3 Example3:有車輛掉頭時直接撞上了護欄
第一幀輸入進去,因為沒有時序信息,只是將右側的卡車當做是停靠的了。于是再來一幀:
已經可以自動講出,這兩撞破了護欄,懸停在公路邊緣,太棒了。。。但是反而看上去更容易的道路標志出現了錯誤。。。只能說,這很大模型了,它永遠能震驚你也永遠不知道什么時候能蠢哭你。。。再來一幀:
這次,直接講到了路面上的碎片,再次贊嘆。。。只不過有一次把路上的箭頭說錯了。。。總體而言,這個場景中需要特別關注的信息都有覆蓋,道路標志這種問題,瑕不掩瑜吧
4 Example4: 來一個搞笑的
只能說非常到位了,相比之下之前看上去無比困難的“有個人沖著你揮了揮手”這樣的case就像小兒科一樣,語義上的corner case可解。
5 Example5 來一個名場面。。。配送車誤入新修路
開始比較保守,并沒有直接猜測原因,給了多種猜測,這個也倒是符合alignment的目標。使用CoT之后問題發現問題是在于并不了解這輛車是個自動駕駛車輛,故通過prompt給出這個信息能給出比較準確的信息。最后通過一堆prompt,能夠輸出新鋪設瀝青,不適合駕駛這樣的結論。最終結果來說還是OK,但是過程比較曲折,需要比較多的prompt engineering,要好好設計。這個原因可能也是因為不是第一視角的圖片,只能通過第三視角去推測。所以這個例子并不十分精確。
6 總結
快速的一些嘗試已經完全證明了GPT4V的強大與泛化性能,適當的prompt應當可以完全發揮出GPT4V的實力。解決語義上的corner case應該非常可期,但幻覺的問題會仍然困擾著一些和安全相關場景中的應用。非常exciting,個人認為合理使用這樣的大模型可以大大加快L4乃至L5自動駕駛的發展,然而是否LLM一定是要直接開車?尤其是端到端開車,仍然是一個值得商榷的問題。最近也有很多思考,找時間再來寫個文章和大家聊聊~
原文鏈接:https://mp.weixin.qq.com/s/RtEek6HadErxXLSdtsMWHQ