谷歌虛擬大腦技術進入應用階段 語音圖像搜索受益
北京時間10月8日消息,據國外科技網站報道,今年夏天,谷歌在人工智能領域(AI)又達到了一個新的高度,他們開發出了一款模擬人腦的軟件,這個軟件具備自我學習功能。據悉谷歌將有望在多個領域使用這一新技術,而語音識別很可能將***獲益。
該項虛擬大腦技術最初用識別“貓”臉的方式進行訓練
虛擬大腦工作方式解析
據悉,谷歌的“虛擬大腦”是,模擬腦細胞相互交流、影響設計的。可以通過看YouTube視頻學習識別貓、人以及其他事物。當有數據被送達這個神經網絡的時候,不同神經元之間的關系就會發生改變。而這也使得神經網絡能夠得到對某些特定數據的反應機制——而據報道,這個網絡現在已經學到了一些東西。
“神經網絡”在機器學習(Machine Learning)領域已經應用數十年——并已廣泛應用于包括國際象棋、人臉識別在內的軟件中。而谷歌的工程師們已經在這一領域更進一步,建立不需要人類協助,就能自學的神經網絡。這中自學能力,也使得谷歌的神經網絡可以應用于商業,而非僅僅作為研究示范使用。
谷歌的神經網絡,可以自己決定關注數據的哪部分特征,注意哪些模式,而并不需要人類決策——顏色、特殊形狀等對于識別對象來說十分重要。
可提升語音識別能力并提升圖像搜索
目前,通過應用這個神經網絡,谷歌的軟件已經能夠更準確的識別講話內容,而語音識別技術對于谷歌自己的智能手機操作系統Android來說已經變的非常重要,而同樣這一技術也可以用于谷歌為蘋果iPhone開發的應用程序。
谷歌語音識別部門負責人文森特(Vincent Vanhoucke)表示,“通過使用我們***的神經網絡,以前識別錯誤的情況,20%至25%已經得到改善,也就是說,這些提升能夠讓更多的用戶擁有***的、沒有錯誤的使用體驗。”盡管目前,谷歌的神經網絡僅能應用于美式英語,但是文森特表示,將這一技術應用于其他的口音、語言是完全可能的。
而隨著時間的推移,谷歌的其他產品也能隨之受益。例如谷歌的圖像搜索工具,可以做到更好的理解一幅圖片,而不需要依賴文字描述。而谷歌自動駕駛汽車、谷歌眼鏡也能通過使用這一軟件而的到提升,因為他們可以更好的感知真實世界中的數據。
今年6月,谷歌的工程師曾經公布了一個令人激動研究的結果,他們使用了1000臺計算機、16000個處理器10天晝夜不停地運轉,通過模擬大腦細胞,在Youtube的視頻中捕獲了1000萬張圖片。谷歌研究部門工程師杰夫·迪恩(Jeff Dean)表示,“大多數人都在一臺單一的機器上運行他們的模型,但是我們想要嘗試非常大的神經網絡。如果你能夠讓模型以及訓練集數量擴大,那么你就能更細地區分圖像,從而可以識別更復雜的特征。”