出品 | 51CTO技術棧(微信號:blog51cto)
B站真的啥也能學到!
11月B站的嗶哩嗶哩超級科學晚活動,竟然請來了OpenAI的研究副總裁(安全)——翁荔!
她是OpenAI的華人科學家,也是ChatGPT的貢獻者之一。
她畢業于北京大學信息管理系,即現在的北京大學數字人文實驗室,是2005級本科生。
畢業后,她赴美攻讀博士學位,并曾在Facebook工作。
自2018年起,翁荔加入了OpenAI,并在GPT-4項目中主要參與預訓練、強化學習&對齊、模型安全等方面的工作。
翁荔還提出過著名的Agent 公式:Agent = 大模型 + 記憶 + 主動規劃 + 工具使用。
圖片
她超高質量的blog,得到了很多AI圈人士的追更。
今年7月,她利用一天休息日,寫了萬字 blog,提出了大模型的“外在幻覺”概念。
圖片
上下文幻覺:模型輸出應與源內容在上下文中保持一致。
外部幻覺:模型輸出應以預訓練數據集為依據。然而,考慮到預訓練數據集的規模,逐個生成并檢索以識別沖突的成本太高。如果我們將預訓練數據集視為世界知識的代理,我們實際上是在努力確保模型輸出是基于事實且可由外部世界知識驗證的。
圖片
在這場B站首秀中,翁荔站在舞臺上,以《AI安全與“培養”之道》為主題進行了演講分享。
圖片
“AI技術是一個雙刃劍,它帶來了便利與挑戰并行,我們的參與至關重要。讓我們攜手培養出一個既聰明又負責的AI伙伴。”她說。
以下是經過整理的演講全文:
大家好,我是翁荔。今天我想與大家探討一個既深刻又有趣的話題:AI安全,以及我們如何像培養下一代一樣,培育出既聰明又安全的人工智能。
繼ChatGPT橫空出世以來,AI技術如同搭乘了高速列車,迅速滲透并影響著我們的日常。
AI每天都在進化,需要我們用心引導與教育,以確保其更好地服務于人類,同時確保安全無虞。一個既安全又智能的AI無疑將為我們的生活帶來諸多裨益。
試想,一個能洞察你生活習慣的智能家居系統,能根據你的需求自動調節室內溫度風險。或是一個時刻關注你健康狀況的AI助手,能為你提供量身定制的健康建議。
AI不僅能顯著提升我們的生活質量,還能開辟新的就業領域,提升工作效率。然而這一切均建立在AI安全的基礎之上。正如自動駕駛技術一樣,它能極大的提升生活便利性,但是一旦出錯,后果可能不堪設想。
隨著AI應用日益智能化與自主化,如何確保AI的行為符合人類價值觀,真正做到以人為本,成為了AI安全與對齊研究的核心議題。
1.AI安全的強化學習
人類在成長過程中會不斷學習進步,但也會遇到成長的煩惱。AI同樣如此,它可能會因為數據偏見而變得狹隘,也可能因為對抗性攻擊而被惡意利用。悉心教育,也就是AI安全和對齊研究,才能使AI成長過程更加順利。
讓我們以健康領域的應用為例,很多疾病研究的數據往往以男性群體為主,這可能導致AI在處理女性的健康問題時風險評估不準確。此外,數據本身也有可能存在偏見,比如有研究表明,女性心臟病癥狀更容易被歸結成焦慮等心理問題而造成診斷遺漏。因此我們需要通過對AI安全和對齊的研究來減少這種偏見。
AI學習的基礎是數據,數據是它的實物。要想讓AI變得聰明可靠,我們必須確保它營養均衡,也就是提供他多樣、全面、正確的數據,幫助他能夠正確的理解這個復雜的世界并減少偏差。
在使用人類標注的數據時,我們可以依賴于群體智慧,也就是the wisdom of the crowd,即同一個數據點被多人標注多數票獲勝,這種方法簡單而有效。
有意思的是,1907年的一篇自然科學雜志中的文章,作者追蹤了一場年度展覽會上的一個有趣的競有獎競猜。展覽會上人們選出一頭肥牛,讓大家來猜測牛的重量。最接近真實數據的人將獲得大額的獎金。作者發現最中間值往往是最接近真實的the medium value。而這個數估計值也被稱為vox popular,它是拉丁語中the voice of the people,也就是人民的聲音的意思。在這篇將近120年前的科學文章中,作者總結道,我認為這個結果比人們預期的更能證明民主判斷的可信度。這也是最早提到群體智慧如何發生作用的科學文獻。
而至于如何把高質量標注的數據喂給AI,基于人類反饋的強化學習,也就是reinforcement learning from human feed back (RLHF)技術起到了關鍵作用。在了解RLHF之前,讓我們快速了解一下什么是RL reinforce learning。
強化學習是一種機器學習方法,它主要通過獎懲機制來讓模型學會完成任務,而不是依靠直接告訴模型如何去做這件任務。想象一下它就好像你需要訓練小狗,如果小狗做對了一個動作,比如坐下你就給它一塊骨頭餅干,錯了就不給獎勵。這樣小狗就會因為想吃到更多的餅干,而學會如何正確的做下。同理AI也在這種獎懲機制中學習,通過不斷的嘗試并得到反饋,找到最佳的行動策略。
一個早期的研究表明,強化學習能利用少量人類反饋,快速有效的教會智能體做復雜的動作,比如學會如何后空翻。同樣的方法也可以用于訓練大語言模型。當我們看到針對同一問題的不同AI回答時,我們可以告訴模型哪一個回答更好、更正確、更符合人類價值觀。這樣我們就像家長糾正孩子一樣,能夠調節AI的學習過程。
此外我們還可以使用模型本身作為輸出I輸出質量的評分者。比如在Antropic發表的《Constitutional AI》中,模型就通過對自己行為的自我評價進行改進。或者在對其強化學習中,我們可以制定非常詳細的行為規則來告訴AI,何時拒絕用戶的請求,如何表達同理心等等。
然后我們在強化學習的獎勵機制中,非常精準的來給予相應的評分和獎勵。這個過程中一個更加強大的AI有能力更精準的判斷他是否有在遵循人類的價值觀和行為準則。總之強化學習技術就像一把鑰匙,幫助我們打開AI高質量學習和發展的大門。在培養AI更懂我們的過程中,普通人也能發揮重要的作用。
在文檔寫作上我們可以采用兩個小技巧:
首先設定詳細的背景和角色,就像導演為演員準備劇本一樣,讓AI在豐富的情境中捕捉我們的意圖。
其次,精心挑選關鍵詞,構建邏輯清晰的文檔結構,使文檔既美觀又實用。在視頻音樂制作領域,我們可以通過使用專業術語來引導AI比如黃金分割構圖或和弦進行,將創意轉化為現實。同時別忘了感情的投入,因為這是賦予靈作品靈魂的關鍵。簡而言之,通過細致的指導和情感的融入,我們可以幫助AI創作出既豐富又富有感染力的作品。
2.對齊——AI模型的“緊箍咒”
在西游記中,孫悟空有緊箍咒約束行為,我們應該給AI模型也帶上緊箍咒,也就是教會AI安全基本準則約束和道德標準,讓其遵守行為規范,以人類利益為先,成為我們貼心的伙伴,而不是冰冷的機器人。
讓AI學習基本原則和道德準則,可以使模型在面對復雜問題時運用推理得出正確的結論。比如在open AI最近發表的o1 preview模型中,我們通過思維鏈推理加強了模型的魯棒性(robustness), 使得模型可以更好的抵抗越獄攻擊。
擴展性監督(scalable overside)在AI對其研究中也非常重要。隨著AI模型擴大,需要結合自動化工具和人類監督,有效的監督其行為,確保它朝著正確的方向發展。
在一組研究中,我們用監督學習訓練語言模型,對網絡文本摘要進行批評,比如提供這個摘要非常準確,或者這個摘要遺漏了要點等等。評論相比對照組,我們發現有AI幫助的標注員比沒有幫助的能多。導出摘要中約50%的問題,而且多數批評都參考了模型提供的內容。總之給AI設定標準并進行有效監督,可以提升它對人們的幫助。
其實AI的安全不僅僅是研究者的責任,它需要每一個人的參與。
以B站為例,這個充滿活力的社區聚集了眾多AI愛好者和創作者,我們在這里分享見解、討論問題,甚至監督AI的表現,共同影響著AI的成長。
我們每個人都應該成為AI的大家長,不僅監督和反饋AI的表現,還參與塑造一個安全可信的人工智能世界。
AI技術是一個雙刃劍,它帶來了便利與挑戰并行,我們的參與至關重要。讓我們攜手培養出一個既聰明又負責的AI伙伴。
感謝大家的聆聽,希望今天的分享能激發大家對于安全的熱情和興趣。也感謝B站提供這個平臺,讓我們共同為AI的未來貢獻力量。