成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

2020年人工智能將如何發(fā)展?機(jī)器學(xué)習(xí)領(lǐng)域頂尖人物預(yù)測(cè)有這些趨勢(shì)

人工智能 機(jī)器學(xué)習(xí)
人工智能不再準(zhǔn)備著有朝一日改變世界,而是正在改變世界。在我們買入新的一年和十年之際,VentureBeat邀請(qǐng)了人工智能領(lǐng)域最敏銳的一些人,重新審視了2019年取得的成就,并展望了機(jī)器學(xué)習(xí)在2020年將如何成熟。

[[311763]]

人工智能不再準(zhǔn)備著有朝一日改變世界,而是正在改變世界。在我們買入新的一年和十年之際,VentureBeat邀請(qǐng)了人工智能領(lǐng)域最敏銳的一些人,重新審視了2019年取得的成就,并展望了機(jī)器學(xué)習(xí)在2020年將如何成熟。

每個(gè)人都有對(duì)未來(lái)一年的預(yù)測(cè),但這些人——在人工智能領(lǐng)域擁有權(quán)威的個(gè)人——正在塑造今天的未來(lái),他們珍視科學(xué)追求,他們的經(jīng)歷為其贏得了信譽(yù)。盡管一些人預(yù)測(cè)在諸如半監(jiān)督學(xué)習(xí)和神經(jīng)符號(hào)方法等子領(lǐng)域會(huì)有進(jìn)步,但幾乎所有ML領(lǐng)域的杰出人士都表示,在2019年基于Transformer的自然語(yǔ)言模型方面取得了巨大進(jìn)步,并預(yù)計(jì)在面部識(shí)別等技術(shù)方面會(huì)繼續(xù)存在爭(zhēng)議。他們還希望看到人工智能領(lǐng)域發(fā)展出比準(zhǔn)確性更有價(jià)值的東西。

Soumith Chintala

PyTorch的負(fù)責(zé)人、首席工程師和創(chuàng)建者

不管你如何評(píng)價(jià),PyTorch是當(dāng)今世界上最受歡迎的機(jī)器學(xué)習(xí)框架。 PyTorch是2002年引入的Torch開(kāi)源框架的衍生產(chǎn)品,于2015年可用,并且在擴(kuò)展和庫(kù)中穩(wěn)步增長(zhǎng)。

今年秋天,F(xiàn)acebook發(fā)布了帶有量化和TPU支持的PyTorch 1.3,以及深度學(xué)習(xí)可解釋性工具Captum和PyTorch Mobile。還有諸如PyRobot和PyTorch Hub之類的東西,用于共享代碼并鼓勵(lì)ML從業(yè)者支持可重復(fù)性。

今年秋天在PyTorch開(kāi)發(fā)大會(huì)上,Chintala在與VentureBeat的一次對(duì)話中表示,他在2019年的機(jī)器學(xué)習(xí)中幾乎沒(méi)有突破性進(jìn)展。

“實(shí)際上,我認(rèn)為我們沒(méi)有開(kāi)創(chuàng)性的東西……基本上是從Transformer開(kāi)始的。我們的ConvNets在2012年達(dá)到黃金時(shí)段,而Transformer在2017年左右。這是我的個(gè)人看法。”他說(shuō)。

他繼續(xù)稱DeepMind的AlphaGo在強(qiáng)化學(xué)習(xí)方面的貢獻(xiàn)是開(kāi)創(chuàng)性的,但是他說(shuō),這些成果很難應(yīng)用到現(xiàn)實(shí)世界的實(shí)際任務(wù)中。

Chintala還認(rèn)為,機(jī)器學(xué)習(xí)框架(如PyTorch和谷歌的TensorFlow)的發(fā)展已改變了研究人員探索思想和開(kāi)展工作的方式,這些機(jī)器學(xué)習(xí)框架在當(dāng)今的ML從業(yè)者中廣受歡迎。

他說(shuō):“從某種意義上說(shuō),這是一個(gè)突破,它使他們移動(dòng)的速度比以前快了一兩個(gè)數(shù)量級(jí)。”

今年,谷歌和Facebook的開(kāi)源框架引入了量化,以提高模型訓(xùn)練的速度。在未來(lái)的幾年中,Chintala希望PyTorch的JIT編譯器和Glow等神經(jīng)網(wǎng)絡(luò)硬件加速器的重要性和采用率“爆炸式增長(zhǎng)”。

“借助PyTorch和TensorFlow,你已經(jīng)看到了框架的融合。出現(xiàn)量化的原因,以及其他一系列較低級(jí)別的效率,是因?yàn)橄乱粓?chǎng)戰(zhàn)爭(zhēng)是框架的編譯器——XLA,TVM,PyTorch擁有Glow,許多創(chuàng)新正在等待發(fā)生。”他說(shuō),“在接下來(lái)的幾年中,你將看到……如何更智能地量化,如何更好地融合,如何更有效地使用GPU,以及如何自動(dòng)為新硬件進(jìn)行編譯。”

像大多數(shù)其他行業(yè)領(lǐng)導(dǎo)者那樣,Chintala預(yù)測(cè)AI社區(qū)將在2020年之前將更多的價(jià)值放在AI模型性能上,而不僅僅是準(zhǔn)確性,并開(kāi)始將注意力轉(zhuǎn)向其他重要因素,例如創(chuàng)建模型所需的權(quán)重,如何向人類解釋輸出,以及AI如何更好地反映人們想要建立的社會(huì)類型。

“如果思考一下過(guò)去的五、六年,我們只是關(guān)注準(zhǔn)確性,而原始數(shù)據(jù)如英偉達(dá)的模型是否更準(zhǔn)確? Facebook的模型更準(zhǔn)確嗎?'”他說(shuō), “我實(shí)際上認(rèn)為2020年將是我們開(kāi)始(以更復(fù)雜的方式)進(jìn)行思考的一年,如果你的模型……沒(méi)有良好的互操作性機(jī)制(或滿足其他標(biāo)準(zhǔn)),你的模型是否比現(xiàn)在精確3%并不重要。”

塞萊斯特·基德(Celeste Kidd)

加州大學(xué)伯克利分校的發(fā)展心理學(xué)家

塞萊斯特·基德(Celeste Kidd)是加州大學(xué)伯克利分校基德實(shí)驗(yàn)室的主任,她和她的團(tuán)隊(duì)在這里探索孩子們的學(xué)習(xí)方式。他們的見(jiàn)解可以幫助神經(jīng)網(wǎng)絡(luò)的創(chuàng)建者,這些人正試圖以一種與養(yǎng)育孩子差不多的方式來(lái)訓(xùn)練模型。

她說(shuō):“人類嬰兒沒(méi)有被標(biāo)記的數(shù)據(jù)集,但它們管理得很好,對(duì)我們來(lái)說(shuō)重要的是要了解這種情況。”

讓基德在2019年感到驚訝的一件事是,神經(jīng)網(wǎng)絡(luò)創(chuàng)建者的數(shù)量隨隨便便救貶低了自己或其他研究人員的工作,因?yàn)樗麄儫o(wú)法做嬰兒可以做的事情。

她說(shuō),當(dāng)你將嬰兒的行為平均化時(shí),您會(huì)看到有證據(jù)表明他們了解某些東西,但他們絕對(duì)不是完美的學(xué)習(xí)者,而這種談話對(duì)嬰兒的能力描繪得過(guò)于樂(lè)觀。

她說(shuō):“人類嬰兒很棒,但他們犯了很多錯(cuò)誤,而且我經(jīng)常看到人們隨便進(jìn)行的許多比較,都是把嬰兒行為在人口層面上理想化了。” “我認(rèn)為,對(duì)于目前了解的內(nèi)容與你接下來(lái)想要了解的內(nèi)容之間的聯(lián)系,人們很可能會(huì)越來(lái)越有辨別力。”

在人工智能中,“黑匣子”這個(gè)詞已經(jīng)存在多年了。它曾經(jīng)用來(lái)批評(píng)神經(jīng)網(wǎng)絡(luò)缺乏可解釋性,但基德認(rèn)為2020年可能意味著神經(jīng)網(wǎng)絡(luò)不可解釋的觀念的終結(jié)。

她說(shuō):“黑匣子的論點(diǎn)是虛假的……大腦也是黑匣子,我們?cè)诶斫獯竽X如何工作方面取得了很大進(jìn)步。”

在揭開(kāi)這種對(duì)神經(jīng)網(wǎng)絡(luò)的認(rèn)識(shí)的神秘面紗時(shí),基德研究了像麻省理工學(xué)院- IBM沃森人工智能實(shí)驗(yàn)室(MIT-IBM Watson AI Lab)執(zhí)行主任奧德·奧利瓦(Aude Oliva)這樣的人的工作。

“我們當(dāng)時(shí)在談?wù)撨@個(gè)問(wèn)題,我說(shuō)了有關(guān)該系統(tǒng)是黑匣子的事情,她合理地譴責(zé)了我,說(shuō)他們當(dāng)然不是黑匣子。當(dāng)然,你可以將它們分解并將它們拆開(kāi),看看它們?nèi)绾喂ぷ鞑?duì)其進(jìn)行實(shí)驗(yàn),就像我們?yōu)槔斫庹J(rèn)知所做的一樣。”基德說(shuō)。

上個(gè)月,基德在神經(jīng)信息處理系統(tǒng)(NeurIPS)會(huì)議上發(fā)表了開(kāi)幕式主題演講,這是世界上最大的年度AI研究會(huì)議。她的演講重點(diǎn)關(guān)注人腦如何固守頑固的信念,注意力系統(tǒng)和貝葉斯統(tǒng)計(jì)。

她說(shuō),信息傳遞的“舒適區(qū)”介于一個(gè)人之前的興趣和理解與他們感到驚訝的東西之間。人們傾向于較少接觸那些過(guò)于令人驚訝的內(nèi)容。

然后她說(shuō),不存在中立的技術(shù)平臺(tái),于是她把注意力轉(zhuǎn)向內(nèi)容推薦系統(tǒng)的制造商如何操縱人們的信念。為了追求最大程度的參與而構(gòu)建的系統(tǒng)會(huì)對(duì)人們?nèi)绾涡纬尚拍詈陀^點(diǎn)產(chǎn)生重大影響。

基德在演講中談到了機(jī)器學(xué)習(xí)中男性的誤解,即與女性同事獨(dú)自一人會(huì)導(dǎo)致性騷擾指控并結(jié)束男性職業(yè)。她說(shuō),這種誤解反而會(huì)損害女性在該領(lǐng)域的職業(yè)。

由于在羅切斯特大學(xué)發(fā)表有關(guān)性行為不端的言論,基德與其他女性一起被評(píng)為2017年度“年度人物”,這些女性幫助實(shí)現(xiàn)了我們現(xiàn)在所說(shuō)的“平等對(duì)待婦女運(yùn)動(dòng)”。當(dāng)時(shí),基德認(rèn)為大聲疾呼將結(jié)束她的職業(yè)生涯。

她希望在2020年看到人們?cè)絹?lái)越意識(shí)到技術(shù)工具和技術(shù)決策對(duì)現(xiàn)實(shí)生活的影響,并拒絕認(rèn)為工具制造商對(duì)人們的使用行為不負(fù)責(zé)任的觀點(diǎn)。

她說(shuō):“我聽(tīng)到很多人試圖說(shuō)'‘我不是真理的審判人’來(lái)為自己辯護(hù)。” “我認(rèn)為必須提高對(duì)這是不誠(chéng)實(shí)立場(chǎng)的認(rèn)識(shí)。”

“在一個(gè)社會(huì),尤其是作為使用這些工具的人們,我們真的需要直接意識(shí)到隨之而來(lái)的責(zé)任。”

杰夫·迪恩(Jeff Dean)

谷歌AI總監(jiān)

迪恩領(lǐng)導(dǎo)Google AI已有近兩年時(shí)間,但他已經(jīng)在谷歌工作了二十年,是谷歌早期搜索和分布式網(wǎng)絡(luò)算法的架構(gòu)師,也是Google Brain的早期成員。

迪恩上個(gè)月在NeurIPS上與VentureBeat進(jìn)行了交談,在那里他就ASIC半導(dǎo)體設(shè)計(jì)的機(jī)器學(xué)習(xí)以及AI社區(qū)應(yīng)對(duì)氣候變化的方式進(jìn)行了演講,他說(shuō)這是我們時(shí)代最重要的問(wèn)題。在關(guān)于氣候變化的討論中,迪恩討論了AI可以努力成為零碳行業(yè)以及AI可以用來(lái)幫助改變?nèi)祟愋袨榈南敕ā?/p>

他預(yù)計(jì)到2020年,多模式學(xué)習(xí)領(lǐng)域?qū)⑷〉眠M(jìn)展,這是一種依靠多種媒體進(jìn)行訓(xùn)練的AI,而多任務(wù)學(xué)習(xí)則涉及旨在一次完成多個(gè)任務(wù)的網(wǎng)絡(luò)。

毫無(wú)疑問(wèn),2019年最大的機(jī)器學(xué)習(xí)趨勢(shì)之一是基于Transformer的自然語(yǔ)言模型的持續(xù)增長(zhǎng)和擴(kuò)散,此前模型Chintala被稱為近年來(lái)人工智能最大的突破之一。 谷歌于2018年開(kāi)源了基于Transformer的模型BERT。根據(jù)GLUE排行榜,今年發(fā)布的許多性能最高的模型(例如Google的XLNet,微軟的MT-DNN和Facebook的RoBERTa)都基于Transformer。公司發(fā)言人告訴VentureBeat,XLNet 2將于本月晚些時(shí)候發(fā)布。

迪恩指出了已經(jīng)取得的進(jìn)展,他說(shuō):“ ...我認(rèn)為整個(gè)研究線程在實(shí)際產(chǎn)生機(jī)器學(xué)習(xí)模型方面非常富有成效,[現(xiàn)在讓我們]做的機(jī)器學(xué)習(xí)模型比過(guò)去能夠完成的復(fù)雜得多。但是他補(bǔ)充說(shuō),仍有增長(zhǎng)空間。“我們?nèi)匀幌M軌騽?chuàng)建更多情境的模型。像現(xiàn)在這樣,BERT和其他模型可以很好地處理數(shù)百個(gè)單詞,但不能作為處理上下文的10,000個(gè)單詞。因此,這是[有趣的方向。”

迪恩說(shuō),他希望少?gòu)?qiáng)調(diào)一些最新技術(shù),而傾向于創(chuàng)建更強(qiáng)大的模型。

Google AI還將努力推進(jìn)新的舉措,例如Everyday Robot,這是一個(gè)于2019年11月推出的內(nèi)部項(xiàng)目,旨在制造能夠在家庭和工作場(chǎng)所完成常見(jiàn)任務(wù)的機(jī)器人。

Anima Anandkumar

英偉達(dá)機(jī)器學(xué)習(xí)研究總監(jiān)

Anandkumar在擔(dān)任AWS首席科學(xué)家后加入了GPU制造商英偉達(dá)。在英偉達(dá),人工智能研究在多個(gè)領(lǐng)域進(jìn)行,從醫(yī)療保健的聯(lián)合學(xué)習(xí)到自動(dòng)駕駛,超級(jí)計(jì)算機(jī)和圖形學(xué)。

英偉達(dá)和Anandkumar在2019年的重點(diǎn)領(lǐng)域之一是強(qiáng)化學(xué)習(xí)的仿真框架,這些框架越來(lái)越受歡迎且成熟。

在2019年,我們看到了英偉達(dá)的Drive autonomus駕駛平臺(tái)和Isaac機(jī)器人模擬器的興起,以及從模擬和生成對(duì)抗網(wǎng)絡(luò)或GAN生成綜合數(shù)據(jù)的模型的興起。

去年還迎來(lái)了AI的興起,例如StyleGAN(一種可以使人們分辨不出自己看到的是計(jì)算機(jī)生成的人臉還是真實(shí)的人的網(wǎng)絡(luò))和GauGAN(可以用畫筆生成風(fēng)景的網(wǎng)絡(luò))。 StyleGAN2上個(gè)月首次亮相。

GAN是可以模糊現(xiàn)實(shí)界限的技術(shù),Anandkumar認(rèn)為,它們可以幫助AI社區(qū)嘗試解決的主要挑戰(zhàn),例如抓握機(jī)械臂和自動(dòng)駕駛。

Anandkumar還希望未來(lái)一年通過(guò)迭代算法、自我監(jiān)督和訓(xùn)練模型的自訓(xùn)練方法取得進(jìn)展,這些模型可以通過(guò)對(duì)未標(biāo)記數(shù)據(jù)進(jìn)行自我訓(xùn)練來(lái)改進(jìn)。

“我認(rèn)為各種不同的迭代算法都是未來(lái),因?yàn)槿绻阒蛔鲆粋€(gè)前饋網(wǎng)絡(luò),那么魯棒性就成為問(wèn)題。”她說(shuō):“如果你嘗試進(jìn)行多次迭代,并根據(jù)所需的數(shù)據(jù)類型或精度要求對(duì)迭代進(jìn)行調(diào)整,那么實(shí)現(xiàn)這一目標(biāo)的機(jī)會(huì)就更多了。”

Anandkumar看到了2020年AI社區(qū)面臨的眾多挑戰(zhàn),例如需要與各領(lǐng)域?qū)<乙坏绖?chuàng)建專門針對(duì)特定行業(yè)的模型。決策者、個(gè)人和AI社區(qū)也將需要解決代表性問(wèn)題,以及確保用于訓(xùn)練模型的數(shù)據(jù)集能夠涵蓋不同人群的挑戰(zhàn)。

她說(shuō):“我認(rèn)為[面部識(shí)別問(wèn)題]很容易掌握,但是在很多[其他領(lǐng)域]……人們沒(méi)有意識(shí)到使用數(shù)據(jù)存在隱私問(wèn)題。”

Anandkumar說(shuō),面部識(shí)別得到了最大的關(guān)注,因?yàn)楹苋菀桌斫饷娌孔R(shí)別如何侵犯?jìng)€(gè)人隱私,但是AI社區(qū)在2020年還面臨許多其他道德問(wèn)題。

“我們將在數(shù)據(jù)收集方式和使用方式方面進(jìn)行越來(lái)越嚴(yán)格的審查。這種情況正在歐洲發(fā)生,但是在美國(guó),我們肯定會(huì)看到更多這樣的情況,而且出于正確的理由,我們會(huì)看到更多這樣的情況,比如國(guó)家運(yùn)輸安全委員會(huì)和聯(lián)邦運(yùn)輸管理局。”她說(shuō)。

在Anandkumar看來(lái),2019年的一大驚喜是文本生成模型的發(fā)展速度。

“ 2019年是語(yǔ)言模型之年,對(duì)嗎?現(xiàn)在,我們第一次在段落長(zhǎng)度上達(dá)到了更加連貫的文本生成,這在以前是不可能的,但現(xiàn)在已經(jīng)很好了。”Anandkumar說(shuō)。

2019年8月,英偉達(dá)推出了Megatron自然語(yǔ)言模型。Megatron擁有80億個(gè)參數(shù),是全球最大的基于Transformer的AI模型。 Anandkumar說(shuō),她對(duì)人們開(kāi)始將模型表征為具有個(gè)性或字符的方式感到驚訝,并且她希望看到更多針對(duì)特定行業(yè)的文本模型。

“我們還沒(méi)有達(dá)到產(chǎn)生對(duì)話的階段,這種對(duì)話是互動(dòng)的,可以跟蹤并進(jìn)行自然的對(duì)話。所以我認(rèn)為,到2020年,在這個(gè)方向上將會(huì)有更多認(rèn)真的嘗試。”她說(shuō)。

例如,開(kāi)發(fā)用于控制文本生成的框架要比開(kāi)發(fā)用于識(shí)別人或?qū)ο蟮膱D像的框架更具挑戰(zhàn)性。文本生成模型還可能面臨例如為神經(jīng)模型定義事實(shí)的挑戰(zhàn)。

最后,Anandkumar說(shuō),她很高興看到基德在NeurIPS上的演講獲得了起立鼓掌,并且被機(jī)器學(xué)習(xí)社區(qū)中越來(lái)越成熟和包容的跡象所鼓舞。

“我覺(jué)得現(xiàn)在是分水嶺。” 她說(shuō), “一開(kāi)始甚至很難做些小改動(dòng),然后大壩就破裂了。我希望是這樣,因?yàn)樵谖铱磥?lái),我希望保持這種勢(shì)頭,并進(jìn)行更大的結(jié)構(gòu)改革,并使所有小組,這里的每個(gè)人都蓬勃發(fā)展。”

達(dá)里奧·吉爾(Dario Gil)

IBM研究總監(jiān)

吉爾領(lǐng)導(dǎo)的一組研究人員積極為白宮和世界各地的企業(yè)提供咨詢服務(wù)。他認(rèn)為,2019年的重大飛躍包括圍繞生成模型的進(jìn)步,以及生成可信語(yǔ)言的質(zhì)量不斷提高。

他預(yù)測(cè),在降低精度的體系結(jié)構(gòu)上,更有效的培訓(xùn)將繼續(xù)取得進(jìn)展。更高效的AI模型的開(kāi)發(fā)是NeurIPS的重點(diǎn),IBM Research在此引入了具有8位精度模型的深度學(xué)習(xí)技術(shù)。

他說(shuō):“我們用現(xiàn)有的硬件和GPU架構(gòu)來(lái)訓(xùn)練深度神經(jīng)網(wǎng)絡(luò),其效率仍然很低。”因此,對(duì)這個(gè)問(wèn)題進(jìn)行根本性的反思是非常重要的。我們必須提高人工智能的計(jì)算效率,這樣我們才能做得更多。”

吉爾引用研究表明,對(duì)機(jī)器學(xué)習(xí)訓(xùn)練的需求每三個(gè)半月翻一番,這比摩爾定律所預(yù)測(cè)的增長(zhǎng)快得多。

吉爾也對(duì)AI如何幫助加速科學(xué)發(fā)現(xiàn)感到興奮,但是IBM Research將主要專注于機(jī)器學(xué)習(xí)的神經(jīng)符號(hào)方法。

吉爾希望AI從業(yè)者和研究人員將專注于準(zhǔn)確性以外的指標(biāo),以考慮生產(chǎn)中部署的模型的價(jià)值。將該領(lǐng)域轉(zhuǎn)向構(gòu)建受信任的系統(tǒng),而不是把準(zhǔn)確性放在首位,這將是繼續(xù)采用AI的中心支柱。

“社區(qū)中有些人可能會(huì)繼續(xù)說(shuō),‘不用擔(dān)心,只要提供準(zhǔn)確性。沒(méi)關(guān)系,人們會(huì)習(xí)慣這個(gè)東西有點(diǎn)像黑匣子,”或者他們會(huì)提出這樣的論點(diǎn),即人們有時(shí)不會(huì)對(duì)我們做出的某些決定產(chǎn)生解釋。我認(rèn)為,非常重要的一點(diǎn)是,我們要集中社區(qū)的知識(shí)力量,在此方面做得更好。人工智能系統(tǒng)不能成為關(guān)鍵任務(wù)應(yīng)用程序的黑匣子。”

吉爾相信要擺脫這樣的觀念,即只有少數(shù)機(jī)器學(xué)習(xí)向?qū)Р拍茏龅紸I,以確保更多的具有數(shù)據(jù)科學(xué)和軟件工程技能的人采用AI。

他說(shuō):“如果我們把它作為一個(gè)神秘領(lǐng)域,那就是AI的領(lǐng)域,只對(duì)從事這方面研究的博士開(kāi)放,它并不能真正促進(jìn)人工智能的應(yīng)用。”

在來(lái)年,吉爾對(duì)神經(jīng)符號(hào)AI特別感興趣。 IBM將尋求神經(jīng)符號(hào)方法來(lái)增強(qiáng)諸如概率性編程之類的功能,其中AI將學(xué)習(xí)如何操作程序以及可共享其決策背后原因的模型。

他說(shuō):“通過(guò)采用這種混合的方法,一種新的當(dāng)代方法,通過(guò)這些神經(jīng)符號(hào)方法,把學(xué)習(xí)和推理結(jié)合在一起。在這種方法中,符號(hào)維度嵌入到學(xué)習(xí)程序中。我們已經(jīng)證明,你可用所需數(shù)據(jù)的一小部分來(lái)學(xué)習(xí)。”“因?yàn)槟銓W(xué)了一個(gè)程序,你最終得到了一些可解釋的東西,并且因?yàn)槟阌辛艘恍┛山忉尩臇|西,你得到了一些更可信的東西。”

他說(shuō),公平性,數(shù)據(jù)完整性和數(shù)據(jù)集選擇等問(wèn)題將繼續(xù)引起人們的廣泛關(guān)注,“與生物識(shí)別技術(shù)有關(guān)的任何事情也將如此”。面部識(shí)別得到了很多關(guān)注,但這僅僅是開(kāi)始。語(yǔ)音數(shù)據(jù)以及其他形式的生物識(shí)別技術(shù)將越來(lái)越具有敏感性。他繼續(xù)引用了哥倫比亞大學(xué)教授Rafael Yuste的話,他從事神經(jīng)技術(shù)研究,并正在探索提取視覺(jué)皮層上神經(jīng)模式的方法。

吉爾說(shuō):“我以這個(gè)例子為例,所有與身份、人的生物特征以及人工智能在分析方面取得的進(jìn)步,將繼續(xù)處于前沿和中心位置。”

除了神經(jīng)符號(hào)和常識(shí)推理(MIT-IBM沃森實(shí)驗(yàn)室的一項(xiàng)旗艦計(jì)劃外),吉爾于2020年表示,IBM Research還將探索AI量子計(jì)算,以及AI模擬硬件,而不僅僅是降低精度的架構(gòu)。

總結(jié)

機(jī)器學(xué)習(xí)正在繼續(xù)塑造商業(yè)和社會(huì),VentureBeat采訪的研究人員和專家看到了一些即將出現(xiàn)的趨勢(shì):

隨著Transformers推動(dòng)了巨大的飛躍,自然語(yǔ)言模型的進(jìn)步是2019年的主要故事。在2020年尋找更多基于BERT和基于Transformer的模型的變體。

人工智能行業(yè)應(yīng)該尋找方法來(lái)評(píng)估模型輸出的準(zhǔn)確性。

諸如半監(jiān)督學(xué)習(xí),機(jī)器學(xué)習(xí)的神經(jīng)符號(hào)方法之類的方法以及諸如多任務(wù)和多模式學(xué)習(xí)之類的子領(lǐng)域可能會(huì)在明年出現(xiàn)。

與生物統(tǒng)計(jì)數(shù)據(jù)(如語(yǔ)音記錄)相關(guān)的倫理挑戰(zhàn)可能會(huì)繼續(xù)引起爭(zhēng)議。

量化之類的編譯器和方法可能會(huì)在諸如PyTorch和TensorFlow之類的機(jī)器學(xué)習(xí)框架中作為優(yōu)化模型性能的方式而流行。  

 

責(zé)任編輯:龐桂玉 來(lái)源: 今日頭條
相關(guān)推薦

2023-03-06 07:40:23

人工智能流程合成數(shù)據(jù)

2019-12-24 14:05:09

人工智能機(jī)器學(xué)習(xí)技術(shù)

2021-02-19 09:25:44

人工智能AI機(jī)器學(xué)習(xí)

2023-04-06 14:56:03

2021-03-22 11:04:50

人工智能邊緣人工智能

2024-04-22 16:33:58

2024-02-21 11:59:27

人工智能AI

2022-03-16 17:09:00

人工智能應(yīng)用

2020-03-17 09:00:00

人工智能AI

2020-01-07 17:05:49

人工智能機(jī)器學(xué)習(xí)數(shù)據(jù)

2020-07-15 11:51:16

人工智能機(jī)器學(xué)習(xí)技術(shù)

2019-01-03 14:22:10

人工智能算法機(jī)器學(xué)習(xí)

2021-01-03 10:29:58

人工智能AI語(yǔ)言模型

2022-02-23 19:50:41

人工智能AI

2020-01-09 11:24:37

人工智能技術(shù)機(jī)器人

2025-01-02 11:39:32

人工智能大型語(yǔ)言模型數(shù)據(jù)隱私

2019-04-12 15:43:50

人工智能AI發(fā)展趨勢(shì)

2020-12-29 15:39:23

人工智能人工智能趨勢(shì)

2018-09-18 09:00:28

人工智能機(jī)器學(xué)習(xí)

2024-01-23 10:31:49

人工智能深度學(xué)習(xí)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)

主站蜘蛛池模板: 高清人人天天夜夜曰狠狠狠狠 | www.久草.com | 一区二区在线免费播放 | 在线观看第一区 | 久久久国产精品 | 91在线网| 国产视频久久 | 欧美黑人体内she精在线观看 | 日韩国产一区二区 | 欧美区在线| 一区二区国产精品 | 国产人成在线观看 | 成人免费黄色片 | 国产91网站在线观看 | 在线观看国产网站 | 久草视频网站 | 国产精品视频一区二区三区 | 国产精品久久久久久久久久久久 | 欧美日韩中文字幕在线播放 | 亚洲最大av网站 | 中文字幕日本一区二区 | 男女午夜免费视频 | 人人澡视频 | 色综合视频在线 | 99精品在线观看 | 国产精品九九九 | 91麻豆精品国产91久久久更新资源速度超快 | 日本偷偷操 | 亚洲视频在线观看 | 在线国产99 | 久久日韩精品一区二区三区 | 亚洲永久 | 国产精品久久久久久久久久久久 | 国产精品国产成人国产三级 | 黄网在线观看 | 成人性视频在线播放 | 性一交一乱一透一a级 | 国产一二三区免费视频 | 国产成人免费视频 | 国产欧美一区二区三区日本久久久 | 天天躁日日躁xxxxaaaa |