有關通用人工智能需要知道的事項
最近,關于生成式人工智能工具的討論越來越多,特別是在多個大型語言模型和圖像生成器(如DALL-E或Midjourney)發布之后。
這些發明再次將通用人工智能(GPAI)置于人們的關注的目光下,并再次提出了諸如GPAI是否應該受到監管等假設性問題。
在人們進一步探索可能性之前,首先了解GPAI的概念,它的含義,它是什么時候引入的等等。
什么是通用人工智能?
兩年前,也就是2021年4月,歐盟委員會推出了通用人工智能。最初的人工智能法案提案免除了通用人工智能創建者遵守一些法律文書和其他責任標準的責任。
原因是它只適用于高風險的人工智能,在法案中根據它們的用途和背景明確提到和解釋了這一點。
另一項規定,即第28條,支持了這一主張,并建議通用人工智能開發人員只有在對人工智能系統進行重大調整或發展以用于高風險用途時才對合規負責。
但根據最近的報道,歐洲議會也在考慮對原始通用人工智能提供商的某些“義務”。
歐盟人工智能法案的基本目的是對使用人工智能開發和部署系統時所涉及的各種行為者鏈進行分類和分類。
以下是指導通用人工智能監管的5個考慮因素
《人工智能法案》對通用人工智能的做法是為解決全球人工智能危害建立監管基調的理想選擇。隨著最近公眾對生成式人工智能的興趣增加,監管立場也有可能過度適應當前的問題。
令人驚訝的是,ChatGPT、dall-e2和Bard等較新的創新甚至都不是真正的問題;事實上,它們只是冰山一角。
推薦:負責任的人工智能-如何在監管環境中采用道德模式
通用人工智能是一個龐大的類別
首先要理解的是,通用人工智能是一個巨大的類別,因此,將其應用于廣泛的技術領域是合乎邏輯的,而不是將其局限于聊天機器人和法學碩士。
為了確保歐盟人工智能法案具有未來主義的性質,它必須涉及更大的規模。首先,GPAI的正確描述應該包括許多可以作為其他人工智能系統基礎的技術(“任務”)。
歐盟理事會將其定義為:
“提供商打算執行一般適用的功能,如圖像和語音識別、音頻和視頻生成、模式檢測、問題回答、翻譯等;通用人工智能系統可以在多個場景中使用,并且可以集成到多個其他AI系統中。”
通用人工智能可能造成廣泛的危害
雖然這些風險不能在應用層中完全克服,但我們可以否認它們可能對各種應用程序和參與者產生影響的事實。我們應該在制定通用人工智能監管方法的同時,考慮人工智能技術的現狀、應用及其工作方式。
例如,通用人工智能模型冒著產生反民主話語的風險,例如針對性、種族和宗教少數群體的仇恨言論。這些模型的風險在于,在它們的基礎數據中固化了受約束或扭曲的觀點。
通用人工智能應在整個產品生命周期內進行調節
為了讓通用人工智能考慮到涉眾的多樣性,它必須在整個產品周期中進行治理,而不僅僅是在應用層。開發的第一個階段是至關重要的,創建這些模型的業務必須對他們利用的信息和他們做出的體系結構決策負責。人工智能供應網絡的現有架構有效地使參與者能夠從遠程下游應用程序中獲利,同時避免因開發層缺乏監管而承擔任何相應的責任。這包括數據的收集、清理和注釋過程,以及模型的創建、測試和評估過程。
一個標準的法律免責聲明是不夠的
通用人工智能的創建者不可能使用基本的法律免責聲明來免除他們的責任。這種方法可能導致一個危險的漏洞,它將釋放原始開發人員的所有責任,而將責任放在下游參與者身上,他們沒有能力管理所有風險。理事會的一般方法確實有一個例外,即允許通用人工智能開發人員免除自己的任何責任,只要他們在說明中排除所有高風險用途并確保系統不會被濫用。
推薦:發現、解決和揭穿隱藏的人工智能偏見
使非工業參與者、社會和研究人員參與更廣泛的咨詢
一個基本的、統一的文檔實踐來評估通用人工智能模型,特別是生成人工智能模型,跨越各種危害是一個正在進行的研究領域。為了避免膚淺的復選框練習,監管應防止狹隘的評估方法。
在實施或向公眾提供通用人工智能系統之前,必須經過細致的警惕、驗證和檢查。最近的建議將通用人工智能模型納入人工智能法案的范圍,要么推遲制定未來的具體標準(由委員會決定),要么試圖在人工智能法案的措辭中這樣做。
例如,在一個達成一致的社會中,可能產生的影響的分布可能會有所不同,這取決于一個原型是為整個社區構建和使用的,還是為一個小社區使用的。
歐盟人工智能法案即將成為第一個廣泛的人工智能法律,總有一天,它將成為所有國家的統一標準。這就是為什么處理人工智能領域并將其轉化為每個人都可以遵循的全球模板至關重要的原因。