AI治理成兩會熱點,看科技大佬的提案都說了什么
當(dāng)前,以大模型為代表的人工智能技術(shù)正加速重塑人類社會。據(jù)工業(yè)和信息化部公布的數(shù)據(jù)顯示,截至2024年9月底,我國人工智能核心產(chǎn)業(yè)規(guī)模接近6000億元,相關(guān)企業(yè)超過4500家。但與此同時,伴隨著技術(shù)的突破,AI生成內(nèi)容的真實性、倫理風(fēng)險等問題日漸凸顯。
日前,科技領(lǐng)域的代表們圍繞AI治理、技術(shù)規(guī)范與倫理風(fēng)險防范提出了一系列針對性的建議。
包容創(chuàng)新與安全監(jiān)管并重
360集團創(chuàng)始人周鴻祎關(guān)注大模型安全和幻覺,他指出,大模型存在“幻覺”,偶爾會生成看似不合理、與事實不符的情況。“幻覺”是一把雙刃劍,是大模型與生俱來的特點,不可消除,也決定其創(chuàng)造力和想象力,對于實現(xiàn)AGI(通用人工智能)極其重要。如果大模型沒有“幻覺”,就失去了想象力和創(chuàng)造力。并且越是能力強的模型,一般幻覺也越多。
他建議,借鑒“避風(fēng)港原則”成功經(jīng)驗,對大模型以及相關(guān)的產(chǎn)品和服務(wù)實施柔性監(jiān)管,適度包容大模型的“幻覺”,對于“幻覺”導(dǎo)致的一般性失誤,避免直接關(guān)停下架,給予企業(yè)自我糾正的機會,促進企業(yè)大膽創(chuàng)新、放手競爭,爭取讓更多企業(yè)“復(fù)制”DeepSeek的成功。
破解大模型“幻覺”難題
科大訊飛董事長劉慶峰也針對大模型幻覺提出了建議。他指出,應(yīng)預(yù)防大模型生成“幻覺數(shù)據(jù)”充斥互聯(lián)網(wǎng)帶來的危害,從技術(shù)研發(fā)和管理機制上構(gòu)建可信的信息環(huán)境。為此,他提出兩點建議:一是構(gòu)建安全可信數(shù)據(jù)標(biāo)簽體系,提升內(nèi)容可靠性;二是研發(fā)AIGC幻覺治理技術(shù)和平臺,定期清理幻覺數(shù)據(jù)。
加強AI深度偽造欺詐管理
TCL創(chuàng)始人兼董事長李東生建議從四個方面采取措施,加強AI深度偽造欺詐管理:一是加快人工智能深度合成內(nèi)容標(biāo)識管理規(guī)章制度的出臺,確保所有AI生成內(nèi)容能被清晰識別;二是明確人工智能深度合成服務(wù)商的責(zé)任,若未履行標(biāo)識義務(wù),應(yīng)承擔(dān)相應(yīng)處罰;三是推動AI深度合成標(biāo)識技術(shù)標(biāo)準(zhǔn)的制定,從源頭管理風(fēng)險;四是加強國際合作,共同建立AI治理框架,形成全球有效監(jiān)管體系。
整治AI換臉侵權(quán)
小米集團創(chuàng)始人、董事長兼CEO雷軍建議,加強“AI換臉擬聲”違法侵權(quán)重災(zāi)區(qū)治理:一是針對“AI換臉擬聲”等某一代表性問題,探索推出人工智能單行法,提高立法位階及其效力,分級分類的基礎(chǔ)上進行務(wù)實治理,明確“AI換臉擬聲”應(yīng)用邊界紅線,完善侵權(quán)證據(jù)規(guī)則,加大對利用人工智能技術(shù)實施犯罪行為的刑事處罰力度。二是強化行業(yè)自律共治,壓實平臺等各方的責(zé)任。支持平臺企業(yè)開發(fā)可精準(zhǔn)識別人工智能深度合成內(nèi)容的技術(shù)能力,優(yōu)化升級通信軟件和內(nèi)容平臺巡查審核機制、投訴舉報機制、應(yīng)急處理機制,確保及時阻斷問題內(nèi)容傳播。三是建議加強人工智能方面的法制宣傳教育,增強民眾的警惕性和鑒別力,聚焦重點人群,在中小學(xué)人工智能教材中加入倫理規(guī)范內(nèi)容,深入老年人聚居的社區(qū)開展相關(guān)知識普及活動,在全社會夯實“以人為本、智能向善”的人工智能發(fā)展生態(tài)。
寫在最后:
從包容審慎到動態(tài)治理,從技術(shù)防控到倫理建構(gòu),科技大佬們的建言共同勾勒出AI治理的新范式。隨著《人工智能法》立法進程的加快,將構(gòu)建起更加完善的法律法規(guī)體系,以適應(yīng)快速發(fā)展的AI技術(shù),并為AI產(chǎn)業(yè)提供明確的行為準(zhǔn)則和發(fā)展方向。