對于AIGC,李飛飛有這些看法|斯坦福HAI觀點報告
近日,李飛飛領導的斯坦福HAI研究院發布了關于「生成式AI」的觀點報告。
報告指出,當前大多數生成式人工智能都是由基礎模型驅動的。
這些模型為我們的生活、社區以及社會帶來的機會是巨大的,與此同時帶來的風險也一樣。
一方面,生成式AI可以讓人類更有生產力和創造力。另一方面,它們可能會放大社會偏見,甚至破壞我們對信息的信任。
我們相信,跨學科的合作對于確保這些 技術惠及我們所有人。以下是斯坦福大學的觀點 醫學、科學、工程、人文學科和社會科學領域的領導人關于「生成式人工智能」如何影響其領域和我們世界的觀點。
本文,我們選取了李飛飛和Percy Liang對當前生成式AI的見解。
完整觀點報告請參見:
?https://hai.stanford.edu/generative-ai-perspectives-stanford-hai?
李飛飛:人工智能的偉大拐點
斯坦福HAI聯合主任李飛飛發文:「人工智能的偉大拐點」。
人類大腦可以識別世界上的所有模式,并且據此構建模型或生成概念。幾代人工智能科學家的夢想,就是將這種生成能力賦予機器,他們在生成模型算法開發這一領域做過很長時間的努力。
1966年,麻省理工學院的研究人員發起了 「夏季視覺項目」(Summer Vision Project),旨在用技術有效搭建視覺系統的一個重要部分。這就是計算機視覺和圖像生成領域研究的開端。
近期,得益于深度學習和大數據的密切關聯,人們似乎已經到達了一個重要拐點,即將讓機器具備生成語言、圖像、音頻等的能力。
盡管計算機視覺的靈感來源是打造能看到人類所能看到東西的AI,但現在這一學科的目標遠不限于此,未來要打造的AI應當看到人類所不能看到的東西。
如何使用生成式人工智能來增強人類的視覺呢?
比如,在美國醫療錯誤造成的死亡是一個令人擔憂的問題。生成式AI可以協助醫療保健提供者看到潛在的問題。
如果錯誤產生于罕見情況,生成式AI可以創建模擬版本的類似數據,來進一步訓練AI模型,或者是為醫療人員提供訓。
在開始開發新的生成式工具之前,應當關注人們希望通過工具獲得什么。
在近期的一個為機器人任務制定基準的項目中,研究團隊在開始工作前進行了一次大規模的用戶研究,詢問人們如果由機器人來完成某些任務,他們會受益多少,使人受益最多的任務成為項目研究的重點。
為了抓住生成式人工智能創造的重大機遇,相關風險也需要合理評估。
Joy Buolamwini領導了一項名為「性別陰影」的研究,發現AI經常在識別女性和有色人種時出現問題。類似這樣對缺乏代表性群體的偏見,在生成式AI中還會繼續出現。
判斷一張圖片是否是使用AI生成的,也是十分重要的能力。人類社會是建立在在對公民身份的信任之上,如果缺乏這種能力,我們的信任感就會降低。
機器生成能力方面的進展是非常令人振奮的,發掘人工智能看到人類無法看到的東西的潛力也是如此。
然而,我們需要警惕,這些能力可能擾亂我們的日常生活、我們所處的環境,破壞我們作為世界公民的角色。
Percy Liang:「新寒武紀時代:科學的興奮、焦慮」
斯坦福大學人類中心人工智能研究所主任,計算機副教授Percy Liang發文「新寒武紀時代:科學的興奮、焦慮」
在人類史上,創造新鮮事物總是很困難的,而且這種能力幾乎只有專家才具備。
但隨著近期基礎模型的進步,人工智能的「寒武紀爆炸」正在發生,人工智能將可以創造任何東西,從視頻到蛋白質再到代碼。
這種能力降低了創造的門檻,但它也剝奪了我們辨認真實的能力。
基于深度神經網絡和自我監督學習而建立的基礎模型已經存在有幾十年了。然而,最近這些模型所能訓練的龐大數據量使模型的能力突飛猛進。
2021年發布的一篇論文詳細介紹了基礎模型的機會和風險,這些新出現的能力會成為「科學界興奮的來源」,也會導致「意料之外的后果」。
論文中還討論了同質化問題。同樣的幾個模型被重復使用作為許多應用的基礎,這樣能使研究人員集中精力在一小部分模型上。但集中化也使這些模型成為單一的故障點,潛在的危害會影響到諸多下游應用。
對基礎模型進行基準測試也是十分重要的,以便研究人員更好地了解其能力與缺陷,制定更合理的發展戰略。
HELM(語言模型的整體評估)的開發就是為了這個目的。HELM以準確性、穩健性、公平性等多種指標,對30多個著名的語言模型在一系列場景中的表現做出了評估。
新的模型、新的應用場景和新的評價指標還會出現,我們歡迎大家為HELM的發展添磚加瓦。