人工智能不再準(zhǔn)備著有朝一日改變世界,而是正在改變世界。在我們買入新的一年和十年之際,VentureBeat邀請(qǐng)了人工智能領(lǐng)域最敏銳的一些人,重新審視了2019年取得的成就,并展望了機(jī)器學(xué)習(xí)在2020年將如何成熟。
每個(gè)人都有對(duì)未來(lái)一年的預(yù)測(cè),但這些人——在人工智能領(lǐng)域擁有權(quán)威的個(gè)人——正在塑造今天的未來(lái),他們珍視科學(xué)追求,他們的經(jīng)歷為其贏得了信譽(yù)。盡管一些人預(yù)測(cè)在諸如半監(jiān)督學(xué)習(xí)和神經(jīng)符號(hào)方法等子領(lǐng)域會(huì)有進(jìn)步,但幾乎所有ML領(lǐng)域的杰出人士都表示,在2019年基于Transformer的自然語(yǔ)言模型方面取得了巨大進(jìn)步,并預(yù)計(jì)在面部識(shí)別等技術(shù)方面會(huì)繼續(xù)存在爭(zhēng)議。他們還希望看到人工智能領(lǐng)域發(fā)展出比準(zhǔn)確性更有價(jià)值的東西。
Soumith Chintala
PyTorch的負(fù)責(zé)人、首席工程師和創(chuàng)建者
不管你如何評(píng)價(jià),PyTorch是當(dāng)今世界上最受歡迎的機(jī)器學(xué)習(xí)框架。 PyTorch是2002年引入的Torch開(kāi)源框架的衍生產(chǎn)品,于2015年可用,并且在擴(kuò)展和庫(kù)中穩(wěn)步增長(zhǎng)。
今年秋天,F(xiàn)acebook發(fā)布了帶有量化和TPU支持的PyTorch 1.3,以及深度學(xué)習(xí)可解釋性工具Captum和PyTorch Mobile。還有諸如PyRobot和PyTorch Hub之類的東西,用于共享代碼并鼓勵(lì)ML從業(yè)者支持可重復(fù)性。
今年秋天在PyTorch開(kāi)發(fā)大會(huì)上,Chintala在與VentureBeat的一次對(duì)話中表示,他在2019年的機(jī)器學(xué)習(xí)中幾乎沒(méi)有突破性進(jìn)展。
“實(shí)際上,我認(rèn)為我們沒(méi)有開(kāi)創(chuàng)性的東西……基本上是從Transformer開(kāi)始的。我們的ConvNets在2012年達(dá)到黃金時(shí)段,而Transformer在2017年左右。這是我的個(gè)人看法。”他說(shuō)。
他繼續(xù)稱DeepMind的AlphaGo在強(qiáng)化學(xué)習(xí)方面的貢獻(xiàn)是開(kāi)創(chuàng)性的,但是他說(shuō),這些成果很難應(yīng)用到現(xiàn)實(shí)世界的實(shí)際任務(wù)中。
Chintala還認(rèn)為,機(jī)器學(xué)習(xí)框架(如PyTorch和谷歌的TensorFlow)的發(fā)展已改變了研究人員探索思想和開(kāi)展工作的方式,這些機(jī)器學(xué)習(xí)框架在當(dāng)今的ML從業(yè)者中廣受歡迎。
他說(shuō):“從某種意義上說(shuō),這是一個(gè)突破,它使他們移動(dòng)的速度比以前快了一兩個(gè)數(shù)量級(jí)。”
今年,谷歌和Facebook的開(kāi)源框架引入了量化,以提高模型訓(xùn)練的速度。在未來(lái)的幾年中,Chintala希望PyTorch的JIT編譯器和Glow等神經(jīng)網(wǎng)絡(luò)硬件加速器的重要性和采用率“爆炸式增長(zhǎng)”。
“借助PyTorch和TensorFlow,你已經(jīng)看到了框架的融合。出現(xiàn)量化的原因,以及其他一系列較低級(jí)別的效率,是因?yàn)橄乱粓?chǎng)戰(zhàn)爭(zhēng)是框架的編譯器——XLA,TVM,PyTorch擁有Glow,許多創(chuàng)新正在等待發(fā)生。”他說(shuō),“在接下來(lái)的幾年中,你將看到……如何更智能地量化,如何更好地融合,如何更有效地使用GPU,以及如何自動(dòng)為新硬件進(jìn)行編譯。”
像大多數(shù)其他行業(yè)領(lǐng)導(dǎo)者那樣,Chintala預(yù)測(cè)AI社區(qū)將在2020年之前將更多的價(jià)值放在AI模型性能上,而不僅僅是準(zhǔn)確性,并開(kāi)始將注意力轉(zhuǎn)向其他重要因素,例如創(chuàng)建模型所需的權(quán)重,如何向人類解釋輸出,以及AI如何更好地反映人們想要建立的社會(huì)類型。
“如果思考一下過(guò)去的五、六年,我們只是關(guān)注準(zhǔn)確性,而原始數(shù)據(jù)如英偉達(dá)的模型是否更準(zhǔn)確? Facebook的模型更準(zhǔn)確嗎?'”他說(shuō), “我實(shí)際上認(rèn)為2020年將是我們開(kāi)始(以更復(fù)雜的方式)進(jìn)行思考的一年,如果你的模型……沒(méi)有良好的互操作性機(jī)制(或滿足其他標(biāo)準(zhǔn)),你的模型是否比現(xiàn)在精確3%并不重要。”
塞萊斯特·基德(Celeste Kidd)
加州大學(xué)伯克利分校的發(fā)展心理學(xué)家
塞萊斯特·基德(Celeste Kidd)是加州大學(xué)伯克利分校基德實(shí)驗(yàn)室的主任,她和她的團(tuán)隊(duì)在這里探索孩子們的學(xué)習(xí)方式。他們的見(jiàn)解可以幫助神經(jīng)網(wǎng)絡(luò)的創(chuàng)建者,這些人正試圖以一種與養(yǎng)育孩子差不多的方式來(lái)訓(xùn)練模型。
她說(shuō):“人類嬰兒沒(méi)有被標(biāo)記的數(shù)據(jù)集,但它們管理得很好,對(duì)我們來(lái)說(shuō)重要的是要了解這種情況。”
讓基德在2019年感到驚訝的一件事是,神經(jīng)網(wǎng)絡(luò)創(chuàng)建者的數(shù)量隨隨便便救貶低了自己或其他研究人員的工作,因?yàn)樗麄儫o(wú)法做嬰兒可以做的事情。
她說(shuō),當(dāng)你將嬰兒的行為平均化時(shí),您會(huì)看到有證據(jù)表明他們了解某些東西,但他們絕對(duì)不是完美的學(xué)習(xí)者,而這種談話對(duì)嬰兒的能力描繪得過(guò)于樂(lè)觀。
她說(shuō):“人類嬰兒很棒,但他們犯了很多錯(cuò)誤,而且我經(jīng)常看到人們隨便進(jìn)行的許多比較,都是把嬰兒行為在人口層面上理想化了。” “我認(rèn)為,對(duì)于目前了解的內(nèi)容與你接下來(lái)想要了解的內(nèi)容之間的聯(lián)系,人們很可能會(huì)越來(lái)越有辨別力。”
在人工智能中,“黑匣子”這個(gè)詞已經(jīng)存在多年了。它曾經(jīng)用來(lái)批評(píng)神經(jīng)網(wǎng)絡(luò)缺乏可解釋性,但基德認(rèn)為2020年可能意味著神經(jīng)網(wǎng)絡(luò)不可解釋的觀念的終結(jié)。
她說(shuō):“黑匣子的論點(diǎn)是虛假的……大腦也是黑匣子,我們?cè)诶斫獯竽X如何工作方面取得了很大進(jìn)步。”
在揭開(kāi)這種對(duì)神經(jīng)網(wǎng)絡(luò)的認(rèn)識(shí)的神秘面紗時(shí),基德研究了像麻省理工學(xué)院- IBM沃森人工智能實(shí)驗(yàn)室(MIT-IBM Watson AI Lab)執(zhí)行主任奧德·奧利瓦(Aude Oliva)這樣的人的工作。
“我們當(dāng)時(shí)在談?wù)撨@個(gè)問(wèn)題,我說(shuō)了有關(guān)該系統(tǒng)是黑匣子的事情,她合理地譴責(zé)了我,說(shuō)他們當(dāng)然不是黑匣子。當(dāng)然,你可以將它們分解并將它們拆開(kāi),看看它們?nèi)绾喂ぷ鞑?duì)其進(jìn)行實(shí)驗(yàn),就像我們?yōu)槔斫庹J(rèn)知所做的一樣。”基德說(shuō)。
上個(gè)月,基德在神經(jīng)信息處理系統(tǒng)(NeurIPS)會(huì)議上發(fā)表了開(kāi)幕式主題演講,這是世界上最大的年度AI研究會(huì)議。她的演講重點(diǎn)關(guān)注人腦如何固守頑固的信念,注意力系統(tǒng)和貝葉斯統(tǒng)計(jì)。
她說(shuō),信息傳遞的“舒適區(qū)”介于一個(gè)人之前的興趣和理解與他們感到驚訝的東西之間。人們傾向于較少接觸那些過(guò)于令人驚訝的內(nèi)容。
然后她說(shuō),不存在中立的技術(shù)平臺(tái),于是她把注意力轉(zhuǎn)向內(nèi)容推薦系統(tǒng)的制造商如何操縱人們的信念。為了追求最大程度的參與而構(gòu)建的系統(tǒng)會(huì)對(duì)人們?nèi)绾涡纬尚拍詈陀^點(diǎn)產(chǎn)生重大影響。
基德在演講中談到了機(jī)器學(xué)習(xí)中男性的誤解,即與女性同事獨(dú)自一人會(huì)導(dǎo)致性騷擾指控并結(jié)束男性職業(yè)。她說(shuō),這種誤解反而會(huì)損害女性在該領(lǐng)域的職業(yè)。
由于在羅切斯特大學(xué)發(fā)表有關(guān)性行為不端的言論,基德與其他女性一起被評(píng)為2017年度“年度人物”,這些女性幫助實(shí)現(xiàn)了我們現(xiàn)在所說(shuō)的“平等對(duì)待婦女運(yùn)動(dòng)”。當(dāng)時(shí),基德認(rèn)為大聲疾呼將結(jié)束她的職業(yè)生涯。
她希望在2020年看到人們?cè)絹?lái)越意識(shí)到技術(shù)工具和技術(shù)決策對(duì)現(xiàn)實(shí)生活的影響,并拒絕認(rèn)為工具制造商對(duì)人們的使用行為不負(fù)責(zé)任的觀點(diǎn)。
她說(shuō):“我聽(tīng)到很多人試圖說(shuō)'‘我不是真理的審判人’來(lái)為自己辯護(hù)。” “我認(rèn)為必須提高對(duì)這是不誠(chéng)實(shí)立場(chǎng)的認(rèn)識(shí)。”
“在一個(gè)社會(huì),尤其是作為使用這些工具的人們,我們真的需要直接意識(shí)到隨之而來(lái)的責(zé)任。”
杰夫·迪恩(Jeff Dean)
谷歌AI總監(jiān)
迪恩領(lǐng)導(dǎo)Google AI已有近兩年時(shí)間,但他已經(jīng)在谷歌工作了二十年,是谷歌早期搜索和分布式網(wǎng)絡(luò)算法的架構(gòu)師,也是Google Brain的早期成員。
迪恩上個(gè)月在NeurIPS上與VentureBeat進(jìn)行了交談,在那里他就ASIC半導(dǎo)體設(shè)計(jì)的機(jī)器學(xué)習(xí)以及AI社區(qū)應(yīng)對(duì)氣候變化的方式進(jìn)行了演講,他說(shuō)這是我們時(shí)代最重要的問(wèn)題。在關(guān)于氣候變化的討論中,迪恩討論了AI可以努力成為零碳行業(yè)以及AI可以用來(lái)幫助改變?nèi)祟愋袨榈南敕ā?/p>
他預(yù)計(jì)到2020年,多模式學(xué)習(xí)領(lǐng)域?qū)⑷〉眠M(jìn)展,這是一種依靠多種媒體進(jìn)行訓(xùn)練的AI,而多任務(wù)學(xué)習(xí)則涉及旨在一次完成多個(gè)任務(wù)的網(wǎng)絡(luò)。
毫無(wú)疑問(wèn),2019年最大的機(jī)器學(xué)習(xí)趨勢(shì)之一是基于Transformer的自然語(yǔ)言模型的持續(xù)增長(zhǎng)和擴(kuò)散,此前模型Chintala被稱為近年來(lái)人工智能最大的突破之一。 谷歌于2018年開(kāi)源了基于Transformer的模型BERT。根據(jù)GLUE排行榜,今年發(fā)布的許多性能最高的模型(例如Google的XLNet,微軟的MT-DNN和Facebook的RoBERTa)都基于Transformer。公司發(fā)言人告訴VentureBeat,XLNet 2將于本月晚些時(shí)候發(fā)布。
迪恩指出了已經(jīng)取得的進(jìn)展,他說(shuō):“ ...我認(rèn)為整個(gè)研究線程在實(shí)際產(chǎn)生機(jī)器學(xué)習(xí)模型方面非常富有成效,[現(xiàn)在讓我們]做的機(jī)器學(xué)習(xí)模型比過(guò)去能夠完成的復(fù)雜得多。但是他補(bǔ)充說(shuō),仍有增長(zhǎng)空間。“我們?nèi)匀幌M軌騽?chuàng)建更多情境的模型。像現(xiàn)在這樣,BERT和其他模型可以很好地處理數(shù)百個(gè)單詞,但不能作為處理上下文的10,000個(gè)單詞。因此,這是[有趣的方向。”
迪恩說(shuō),他希望少?gòu)?qiáng)調(diào)一些最新技術(shù),而傾向于創(chuàng)建更強(qiáng)大的模型。
Google AI還將努力推進(jìn)新的舉措,例如Everyday Robot,這是一個(gè)于2019年11月推出的內(nèi)部項(xiàng)目,旨在制造能夠在家庭和工作場(chǎng)所完成常見(jiàn)任務(wù)的機(jī)器人。
Anima Anandkumar
英偉達(dá)機(jī)器學(xué)習(xí)研究總監(jiān)
Anandkumar在擔(dān)任AWS首席科學(xué)家后加入了GPU制造商英偉達(dá)。在英偉達(dá),人工智能研究在多個(gè)領(lǐng)域進(jìn)行,從醫(yī)療保健的聯(lián)合學(xué)習(xí)到自動(dòng)駕駛,超級(jí)計(jì)算機(jī)和圖形學(xué)。
英偉達(dá)和Anandkumar在2019年的重點(diǎn)領(lǐng)域之一是強(qiáng)化學(xué)習(xí)的仿真框架,這些框架越來(lái)越受歡迎且成熟。
在2019年,我們看到了英偉達(dá)的Drive autonomus駕駛平臺(tái)和Isaac機(jī)器人模擬器的興起,以及從模擬和生成對(duì)抗網(wǎng)絡(luò)或GAN生成綜合數(shù)據(jù)的模型的興起。
去年還迎來(lái)了AI的興起,例如StyleGAN(一種可以使人們分辨不出自己看到的是計(jì)算機(jī)生成的人臉還是真實(shí)的人的網(wǎng)絡(luò))和GauGAN(可以用畫筆生成風(fēng)景的網(wǎng)絡(luò))。 StyleGAN2上個(gè)月首次亮相。
GAN是可以模糊現(xiàn)實(shí)界限的技術(shù),Anandkumar認(rèn)為,它們可以幫助AI社區(qū)嘗試解決的主要挑戰(zhàn),例如抓握機(jī)械臂和自動(dòng)駕駛。
Anandkumar還希望未來(lái)一年通過(guò)迭代算法、自我監(jiān)督和訓(xùn)練模型的自訓(xùn)練方法取得進(jìn)展,這些模型可以通過(guò)對(duì)未標(biāo)記數(shù)據(jù)進(jìn)行自我訓(xùn)練來(lái)改進(jìn)。
“我認(rèn)為各種不同的迭代算法都是未來(lái),因?yàn)槿绻阒蛔鲆粋€(gè)前饋網(wǎng)絡(luò),那么魯棒性就成為問(wèn)題。”她說(shuō):“如果你嘗試進(jìn)行多次迭代,并根據(jù)所需的數(shù)據(jù)類型或精度要求對(duì)迭代進(jìn)行調(diào)整,那么實(shí)現(xiàn)這一目標(biāo)的機(jī)會(huì)就更多了。”
Anandkumar看到了2020年AI社區(qū)面臨的眾多挑戰(zhàn),例如需要與各領(lǐng)域?qū)<乙坏绖?chuàng)建專門針對(duì)特定行業(yè)的模型。決策者、個(gè)人和AI社區(qū)也將需要解決代表性問(wèn)題,以及確保用于訓(xùn)練模型的數(shù)據(jù)集能夠涵蓋不同人群的挑戰(zhàn)。
她說(shuō):“我認(rèn)為[面部識(shí)別問(wèn)題]很容易掌握,但是在很多[其他領(lǐng)域]……人們沒(méi)有意識(shí)到使用數(shù)據(jù)存在隱私問(wèn)題。”
Anandkumar說(shuō),面部識(shí)別得到了最大的關(guān)注,因?yàn)楹苋菀桌斫饷娌孔R(shí)別如何侵犯?jìng)€(gè)人隱私,但是AI社區(qū)在2020年還面臨許多其他道德問(wèn)題。
“我們將在數(shù)據(jù)收集方式和使用方式方面進(jìn)行越來(lái)越嚴(yán)格的審查。這種情況正在歐洲發(fā)生,但是在美國(guó),我們肯定會(huì)看到更多這樣的情況,而且出于正確的理由,我們會(huì)看到更多這樣的情況,比如國(guó)家運(yùn)輸安全委員會(huì)和聯(lián)邦運(yùn)輸管理局。”她說(shuō)。
在Anandkumar看來(lái),2019年的一大驚喜是文本生成模型的發(fā)展速度。
“ 2019年是語(yǔ)言模型之年,對(duì)嗎?現(xiàn)在,我們第一次在段落長(zhǎng)度上達(dá)到了更加連貫的文本生成,這在以前是不可能的,但現(xiàn)在已經(jīng)很好了。”Anandkumar說(shuō)。
2019年8月,英偉達(dá)推出了Megatron自然語(yǔ)言模型。Megatron擁有80億個(gè)參數(shù),是全球最大的基于Transformer的AI模型。 Anandkumar說(shuō),她對(duì)人們開(kāi)始將模型表征為具有個(gè)性或字符的方式感到驚訝,并且她希望看到更多針對(duì)特定行業(yè)的文本模型。
“我們還沒(méi)有達(dá)到產(chǎn)生對(duì)話的階段,這種對(duì)話是互動(dòng)的,可以跟蹤并進(jìn)行自然的對(duì)話。所以我認(rèn)為,到2020年,在這個(gè)方向上將會(huì)有更多認(rèn)真的嘗試。”她說(shuō)。
例如,開(kāi)發(fā)用于控制文本生成的框架要比開(kāi)發(fā)用于識(shí)別人或?qū)ο蟮膱D像的框架更具挑戰(zhàn)性。文本生成模型還可能面臨例如為神經(jīng)模型定義事實(shí)的挑戰(zhàn)。
最后,Anandkumar說(shuō),她很高興看到基德在NeurIPS上的演講獲得了起立鼓掌,并且被機(jī)器學(xué)習(xí)社區(qū)中越來(lái)越成熟和包容的跡象所鼓舞。
“我覺(jué)得現(xiàn)在是分水嶺。” 她說(shuō), “一開(kāi)始甚至很難做些小改動(dòng),然后大壩就破裂了。我希望是這樣,因?yàn)樵谖铱磥?lái),我希望保持這種勢(shì)頭,并進(jìn)行更大的結(jié)構(gòu)改革,并使所有小組,這里的每個(gè)人都蓬勃發(fā)展。”
達(dá)里奧·吉爾(Dario Gil)
IBM研究總監(jiān)
吉爾領(lǐng)導(dǎo)的一組研究人員積極為白宮和世界各地的企業(yè)提供咨詢服務(wù)。他認(rèn)為,2019年的重大飛躍包括圍繞生成模型的進(jìn)步,以及生成可信語(yǔ)言的質(zhì)量不斷提高。
他預(yù)測(cè),在降低精度的體系結(jié)構(gòu)上,更有效的培訓(xùn)將繼續(xù)取得進(jìn)展。更高效的AI模型的開(kāi)發(fā)是NeurIPS的重點(diǎn),IBM Research在此引入了具有8位精度模型的深度學(xué)習(xí)技術(shù)。
他說(shuō):“我們用現(xiàn)有的硬件和GPU架構(gòu)來(lái)訓(xùn)練深度神經(jīng)網(wǎng)絡(luò),其效率仍然很低。”因此,對(duì)這個(gè)問(wèn)題進(jìn)行根本性的反思是非常重要的。我們必須提高人工智能的計(jì)算效率,這樣我們才能做得更多。”
吉爾引用研究表明,對(duì)機(jī)器學(xué)習(xí)訓(xùn)練的需求每三個(gè)半月翻一番,這比摩爾定律所預(yù)測(cè)的增長(zhǎng)快得多。
吉爾也對(duì)AI如何幫助加速科學(xué)發(fā)現(xiàn)感到興奮,但是IBM Research將主要專注于機(jī)器學(xué)習(xí)的神經(jīng)符號(hào)方法。
吉爾希望AI從業(yè)者和研究人員將專注于準(zhǔn)確性以外的指標(biāo),以考慮生產(chǎn)中部署的模型的價(jià)值。將該領(lǐng)域轉(zhuǎn)向構(gòu)建受信任的系統(tǒng),而不是把準(zhǔn)確性放在首位,這將是繼續(xù)采用AI的中心支柱。
“社區(qū)中有些人可能會(huì)繼續(xù)說(shuō),‘不用擔(dān)心,只要提供準(zhǔn)確性。沒(méi)關(guān)系,人們會(huì)習(xí)慣這個(gè)東西有點(diǎn)像黑匣子,”或者他們會(huì)提出這樣的論點(diǎn),即人們有時(shí)不會(huì)對(duì)我們做出的某些決定產(chǎn)生解釋。我認(rèn)為,非常重要的一點(diǎn)是,我們要集中社區(qū)的知識(shí)力量,在此方面做得更好。人工智能系統(tǒng)不能成為關(guān)鍵任務(wù)應(yīng)用程序的黑匣子。”
吉爾相信要擺脫這樣的觀念,即只有少數(shù)機(jī)器學(xué)習(xí)向?qū)Р拍茏龅紸I,以確保更多的具有數(shù)據(jù)科學(xué)和軟件工程技能的人采用AI。
他說(shuō):“如果我們把它作為一個(gè)神秘領(lǐng)域,那就是AI的領(lǐng)域,只對(duì)從事這方面研究的博士開(kāi)放,它并不能真正促進(jìn)人工智能的應(yīng)用。”
在來(lái)年,吉爾對(duì)神經(jīng)符號(hào)AI特別感興趣。 IBM將尋求神經(jīng)符號(hào)方法來(lái)增強(qiáng)諸如概率性編程之類的功能,其中AI將學(xué)習(xí)如何操作程序以及可共享其決策背后原因的模型。
他說(shuō):“通過(guò)采用這種混合的方法,一種新的當(dāng)代方法,通過(guò)這些神經(jīng)符號(hào)方法,把學(xué)習(xí)和推理結(jié)合在一起。在這種方法中,符號(hào)維度嵌入到學(xué)習(xí)程序中。我們已經(jīng)證明,你可用所需數(shù)據(jù)的一小部分來(lái)學(xué)習(xí)。”“因?yàn)槟銓W(xué)了一個(gè)程序,你最終得到了一些可解釋的東西,并且因?yàn)槟阌辛艘恍┛山忉尩臇|西,你得到了一些更可信的東西。”
他說(shuō),公平性,數(shù)據(jù)完整性和數(shù)據(jù)集選擇等問(wèn)題將繼續(xù)引起人們的廣泛關(guān)注,“與生物識(shí)別技術(shù)有關(guān)的任何事情也將如此”。面部識(shí)別得到了很多關(guān)注,但這僅僅是開(kāi)始。語(yǔ)音數(shù)據(jù)以及其他形式的生物識(shí)別技術(shù)將越來(lái)越具有敏感性。他繼續(xù)引用了哥倫比亞大學(xué)教授Rafael Yuste的話,他從事神經(jīng)技術(shù)研究,并正在探索提取視覺(jué)皮層上神經(jīng)模式的方法。
吉爾說(shuō):“我以這個(gè)例子為例,所有與身份、人的生物特征以及人工智能在分析方面取得的進(jìn)步,將繼續(xù)處于前沿和中心位置。”
除了神經(jīng)符號(hào)和常識(shí)推理(MIT-IBM沃森實(shí)驗(yàn)室的一項(xiàng)旗艦計(jì)劃外),吉爾于2020年表示,IBM Research還將探索AI量子計(jì)算,以及AI模擬硬件,而不僅僅是降低精度的架構(gòu)。
總結(jié)
機(jī)器學(xué)習(xí)正在繼續(xù)塑造商業(yè)和社會(huì),VentureBeat采訪的研究人員和專家看到了一些即將出現(xiàn)的趨勢(shì):
隨著Transformers推動(dòng)了巨大的飛躍,自然語(yǔ)言模型的進(jìn)步是2019年的主要故事。在2020年尋找更多基于BERT和基于Transformer的模型的變體。
人工智能行業(yè)應(yīng)該尋找方法來(lái)評(píng)估模型輸出的準(zhǔn)確性。
諸如半監(jiān)督學(xué)習(xí),機(jī)器學(xué)習(xí)的神經(jīng)符號(hào)方法之類的方法以及諸如多任務(wù)和多模式學(xué)習(xí)之類的子領(lǐng)域可能會(huì)在明年出現(xiàn)。
與生物統(tǒng)計(jì)數(shù)據(jù)(如語(yǔ)音記錄)相關(guān)的倫理挑戰(zhàn)可能會(huì)繼續(xù)引起爭(zhēng)議。