Yann LeCun等大咖對2019 AI發展趨勢預測
從左到右:Cloudera ML的總經理Hilary Mason,埃森哲全球AI負責人Rumman Chowdhury,Facebook AI研究總監Yann LeCun和Google Brain聯合創始人Andrew Ng
人工智能被認為是一種拯救世界、終結世界的技術。
為了消除噪音和炒作,VentureBeat與杰出人士交談,他們通過多年與地球上一些***的科技和工業公司合作,了解了正確的人工智能方式。
以下是Google Brain聯合創始人Andrew Ng,Cloudera ML的總經理、Fast Forward Labs的創始人Hilary Mason,Facebook AI Research的創始人Yann LeCun以及埃森哲負責任的AI全球負責人Rumman Chowdhury博士的見解。 我們希望了解他們認為2018年的關鍵里程碑是什么,以及他們認為2019年將會發生什么。
在回顧這一年以及對未來的預測中,一些人說他們被鼓勵少聽一些終結者AI末日的場景,因為更多的人知道AI能做什么和不能做什么。但這些專家也強調,在推進人工智能的同時,該領域的計算機和數據科學家仍然需要采取負責任的道德規范。
Rumman Chowdhury
Rumman Chowdhury博士是埃森哲應用智能部門的常務董事,也是其負責任人工智能計劃的全球負責人,并于2017年入選BBC百大女性名單。去年,我有幸在波士頓和她一起分享Affectiva會議的舞臺,一起討論人工智能的信任問題。 她經常就這個話題向世界各地的觀眾發表講話。
為了節省時間,她通過電子郵件回答了有關2019年人工智能預測的問題。 本文中其他人的所有回復都在電話采訪中分享。
Chowdhury表示,她很高興看到2018年公眾對AI的能力和局限性有了更多的了解,并且發現人們對AI帶來的威脅的討論也更均衡——不再局限于《終結者》中那樣擔心智能機器會統治全球的恐懼。“隨之而來的是,人們對隱私和安全的意識和問題日益增強,以及AI在塑造我們和未來幾代人可能發揮的作用。”
然而,Chowdhury認為公眾對AI的認識不是最重要的。在未來的一年里,她希望看到更多的人利用教育資源來理解AI系統,并能夠用自己的智慧來質疑AI所做的決策。
AI生態系統中的技術公司和人們開始考慮其工作的倫理影響的速度,這讓她感到驚喜。 但她希望AI社區更進一步,能夠“從口號走向實際行動”。
她提出:“在AI與倫理領域——除了電車難題以外——我希望看到大家能深入挖掘AI將會產生的其他難題,那些沒有明確答案的問題。AI與物聯網相關監控合適的平衡點在哪里?怎樣才能保證安全并且不導致惡化現有種族歧視的懲罰性監控狀態?我們應該如何重新分配從先進技術中獲得的收益,以便不會進一步擴大已有和還沒有的人之間的差距? 什么程度的接觸才能讓孩子成為“AI原生”,而不是被操縱或同質化? 如何才能利用AI實現教育的規模化和自動化,同時又能讓創造力和獨立思考蓬勃發展?”
未來1年,Chowdhury預計會看到政府對全球技術界有更多的審查和監管。
她說:“AI以及全球科技巨頭所掌握的權力,引發了諸如該如何監管該行業和技術的諸多問題。2019年,我們將不得不開始尋找這些問題的答案——當一項技術是一種具有特定背景結果的多用途工具時,你將如何對他進行監管?如何建立監管體制才能 不妨礙創新或偏袒大公司(誰能承擔合規性成本)而不是小初創企業?我們應該監管到什么層面?國際性,國家性還是本地性?”
她還預計AI在地緣政治事務中的角色還將繼續演進。
她說:“這不僅僅是一項技術,更是經濟和社會的塑造者。我們在這種技術中反思,放大并執行我們的價值觀,我們的行業需要少一點天真。”為此,他認為大家需要超越那種對AI行業共同的看法,即如果我們不做的話,中國就會做,好像創造才是威力所在。
她說:“我希望監管者、技術專業和研究人員意識到,我們的AI之爭不僅僅是計算機能力和技術智慧的較量,就像冷戰不僅僅是核能力的較量一樣。我們有責任以一種更公正、更公平的方式去重新創造世界,現在我們有難得的機會這樣做。但是這種機會轉瞬即逝,希望我們不要錯失。”
在消費者層面上,她相信2019年會AI將在家庭中得到更多應用。許多人已經變得更加習慣于使用像Googol Home和Amazon Echo這樣的智能音箱,以及很多智能設備。在這方面,她很好奇,在今年的CES(Consumer Electronics Show)大展會上會不會有什么特別有無的東西脫穎而出,這將進一步將人工智能融入人們的日常生活當中。
她說:“我想我們都在等待一個機器人管家”。
Andrew Ng
當我聽說Andrew Ng拿白板開會或者講網課時,我總是忍不住發笑。也許這是因為一位既有激情又容易相處的人很容易讓人開懷發笑。
Ng是斯坦福大學的計算機科學副教授,他的名字在人工智能領域廣為人知,原因有很多。
他是Google Brain的聯合創始人,該公司旨在將AI推廣到Google的許多產品中。他也是Landing AI的創始人,該公司幫助企業將AI融入到運營中。
他還在YouTube和Coursera(這家公司也是他創立的)上教授了一些***的機器學習課程,并且成立了了deeplearning.ai。并寫了《Deep Learning Yearning》一書。
在2017年,他辭去百度的***AI科學家職務,在任職的三年多時間里幫助百度變革成一家AI公司。
***,還是總額1.75億美元的AI Fund的一員,并且是無人車公司Drive.ai的董事會成員。
Ng本月早些時候與VentureBeat進行了交談,當時他發布了《AITransformation Play book》,這是一本有關解鎖AI對公司積極影響的短讀物。
他期望看到2019年會取得進展或者預期會發生變化的一個主要領域是AI被用于科技或軟件公司以外的地方。AI***的為開發機遇不在于軟件行業,他引用麥肯錫的一份報告來說,到2030年,AI將會產生13萬億美元的GDP。
“我認為,明年(2019年)在軟件行業以外的AI應用領域將會有很多故事可講。作為一個行業,我們在幫助Google和百度以及Facebook和微軟等公司做得不錯——當然這些和我已經沒有關系——但就連Square和Airbnb、Pinterest等公司也開始利用一些AI能力。我認為下一波大規模的價值創造將會是制造廠或者農機設備公司、醫療保健公司開發數十種AI解決方案來幫助自身企業的時候。”
就像Chowdhury一樣,Ng對2018年公眾對AI能做什么不能做什么的理解程度也感到吃驚,并且對大家的對話不再僅僅圍繞著機器人殺人場景或者一般AI的恐懼展開而感到欣慰。
Ng說,他刻意回答了我一些其他人未必會提出的問題。
他說:“我試圖有意地舉出一些我認為對實際應用非常重要的領域。我認為AI的實際應用時存在障礙的,并且我認為在在寫問題方面若干領域有望取得進展。”
Ng興奮地指出,在未來一年里預計會看到AI/ML領域會取得有助于整個領域發展的進展。一種是AI可以使用更少的數據得到更精確的結論,也就是所謂的“小樣本學習”。
Ng說:“我認為深度學習的***波進展主要是有一些用大量數據訓練非常大型神經網絡的大公司,對吧?所以如果你想開發一個語音識別系統的話,你需要用十萬個小時的數據對它進行訓練。想要訓練機器翻譯系統?得用到無數平行語料庫語句來訓練它,這會產生很多突破性的結果。我越來越多地在小數據上看到結果,當你只有1000張圖片,也想嘗試在這些數據上得到結果。”
計算機視覺的另一個進展被稱為“泛化”。計算機視覺系統用斯坦福大學的高端X光機器掃描出來的原始圖像來訓練時可能會非常好用。該領域的許多先進公司和研究人員已經建立起比人類放射線醫師更優秀的系統,但是它們靈活性略差。
他說:“不過如果你把訓練好的模型應用于來自低端X光及其或者另一家醫院的X射線時,一旦圖像有點模糊或者X光技師讓病人稍微偏右一點點,結果表明人類的放射科醫生比今天的學習算法能更好的概括這種新背景。因此,我認為研究如何改進學習算法在新領域的泛化能力將會很有趣。”
Yann LeCun
Yann Lecun是紐約大學的教授,Facebook***人工智能科學家,Facebook人工智能研究院(Fair)的創始總監,該公司創建了Pytorch1.0和Caffe2,以及許多人工智能系統,如文本翻譯人工智能工具Facebook每天使用數十億次或高級強化學習系統。
Lecun認為,那些采樣FAIP開源的研究和工具,幫助推動其他大型科技公司也這樣做,他認為這推動了人工智能領域的整體發展。Lecun上個月在NeurIPS大會和Fair五周年紀念日前與VentureBeat進行了交談,他說Fair是一個對“機器學習的技術、數學底線”感興趣,使它們一起高效運轉。
他說:“當更多的人交流這項研究時,整個領域的發展速度會更快,這實際上是一個相當大的影響。”“你今天在人工智能中看到的進步速度很大程度上是因為有越來越多的人比過去更快、更高效地交流,并且做了更多開放的研究。”
在倫理方面,Lecun很高興看到在簡單地考慮工作的倫理影響和有偏見的決策的危險方面取得了進展。
“這個被視為人們應該關注的一個問題的事實現在已經得到了很好的證實。這已經不是兩三年前的情況,”他說。
Lecun說,他不相信人工智能的倫理和偏見已經成為一個需要立即采取行動的重大問題,但他相信人們應該做好準備。
他說:“我認為還沒有……巨大的生死問題需要緊急解決,但它們會到來,我們需要……理解這些問題,并在這些問題發生之前防止它們發生。”
和NG一樣,Lecun希望看到更多的人工智能系統具有靈活性,能夠產生強大的人工智能系統,這些系統不需要原始的輸入數據或精確的輸出條件。
Lecun說,研究人員已經可以通過深入學習很好地管理感知,但缺少的一點是對完整人工智能系統的整體架構的理解。
他說,教學機器要通過觀察世界來學習,就需要自我監督學習,或基于模型的強化學習。
“不同的人給它起了不同的名字,但從本質上講,人類的嬰兒和動物是通過觀察和找出大量有關它的背景信息來學習這個世界是如何運作的,我們還不知道如何用機器做到這一點,但這是一個巨大的挑戰。”
“這一獎項實質上是在人工智能和機器方面取得了真正的進展,使其具有一些常識和虛擬助理,這些助理不會讓人沮喪,可以與之交談,并有更廣泛的主題和討論范圍。”
對于Facebook內部有幫助的應用程序,Lecun說,在自我監督學習方面取得重大進展將非常重要,而人工智能則需要較少的數據才能返回準確的結果。
“在解決這個問題的過程中,我們希望找到減少任何特定任務所需的數據量的方法,如機器翻譯、圖像識別或類似的事情,我們已經在這個方向上取得了進展;通過對翻譯和圖像識別進行弱監督或自我監督,已經對Facebook所使用的服務產生了一定的影響。所以,這些事情實際上不僅是長期的,而且也有非常短期的影響,”他說。
在未來,Lecun希望看到在人工智能方面取得的進展,能夠在事件之間建立因果關系。這不僅是通過觀察來學習的能力,而且是通過實踐來理解的能力,例如,如果人們在使用雨傘,那么很可能是在下雨。
他說:“這將非常重要,因為如果你想讓一臺機器通過觀察來學習世界模型,它必須能夠知道它能影響到什么,從而改變世界的狀態,還有一些事情是你做不到的。”“你知道,如果你在一個房間里,前面有一張桌子,上面有一個像水瓶一樣的物體,你知道你可以推動水瓶,讓它移動,但是你不能移動桌子,因為它又大又重,--------像這樣的事情與因果關系有關。”
Hilary Mason
在Cloudera于2017年收購Fast Forward Labs之后,Hilary Mason成為了Cloudera的機器學習總經理。 快速實驗室雖然吸收了Cloudera,但仍然在運作,生成應用機器學習報告,并幫助客戶到未來六個月到兩年的發展規劃。
人工智能在2018年讓梅森感到驚訝的一個進步與多任務學習有關,它可以訓練單個神經網絡在推斷例如圖像中看到的物體時應用多種標簽。
Fast Forward Labs也一直在為客戶提供有關AI系統倫理影響的建議。 梅森認為有必要建立某種道德框架。
“這是自從我們創建Fast Forward以來的事情 ,所以,五年前 ,我們一直在撰寫關于道德規范的報告,但是今年 [ 2018 ] 人們已經真正開始接受并關注,我想明年我們 “我會開始看到公司和那些不關注這個問題的人們在這個領域的后果或問責制。”梅森說。“我沒有說清楚的是,我希望數據科學和人工智能的實踐發展成為默認的期望,技術人員和商業***創建AI產品將考慮道德和偏見問題 以及這些產品的開發,而今天并不是每個人都默認的東西。“
她說:“我認為很明顯是那些了解整個產品的人,并且理解企業了解什么是有價值的,什么是沒有價值的,誰最有能力做出這些決定應該投資什么地方。”
“所以,如果你想要我的預測,我想同樣的方式,我們希望所有這些人都能使用電子表格這樣的簡單建模,我們很快就會期望他們能夠***限度地識別自己的AI產品的機會。“