GPT會涼嗎?巴菲特、馬斯克等大佬呼吁暫停
ChatGPT 迅速“風靡”全球,無疑成為了人工智能領域備受矚目的“明星產品”,然而隨著 ChatGPT 應用越來越廣泛,陸續爆出被用于學術造假、制作黑客武器以及泄露用戶敏感聊天信息等一系列負面新聞。至此,社會開始重新審視類似 ChatGPT 的人工智能技術。
相較于以往服務于工業領域的智能機器人,僅能代替人類從事繁雜、機械、危險的體力勞動,類似 ChatGPT 人工智能技術具有更強的可對話性,靈活性以及不俗的“獨立思考能力” ,重新塑造了社會對人工智能領域的認知。目前,科技巨頭發布的人工智能產品已經融入文字工作、編程、繪畫等各類型的產業中,引起了新一輪科技變革。
無可爭議,一旦類似 Chat GPT 人工智能技術發展完備,便能夠很好服務社會,造福人類。與此同時,Chat GPT 人工智能技術也是一把“雙刃劍”,其安全問題、合規問題以及對社會人員工作分配的沖擊,受到許多行業領軍人物以及各國的重視。
多位知名人士呼吁思考類 似ChatGPT人工智能的研發
當全社會沉浸于類似 ChatGPT 人工智能技術將掀起第四次工業革命的“幻想”中,許多科技界大佬提出相左的意見,甚至對類 ChatGPT人工智能技術的快速發展表現出隱隱擔憂。
巴菲特對人工智能技術是否有益社會表示存疑
近日,投資行業教父級人物巴菲特接受媒體采訪時談到自身對 ChatGPT 類人工智能迅速發展的想法。巴菲特向記者表示,毋庸置疑人工智能技術在技術能力方面確實有了令人難以置信的進步,但基于對整個社會的影響來看,目前尚沒有大規模的實驗結果來支撐人工智能發展對人類有益這一觀點,因此對于人工智能的發展應該謹慎、理智。
巴菲特的擔憂不無道理,ChatGPT 迅速火爆掩蓋了其背后的安全、合規等問題,人類對這類技術產生的直面感受僅僅是先進、高效,對其潛在威脅了解并不深刻。
從媒體目前披露的信息來看,已經有證據表明部分黑客正在利用類似 ChatGPT 的人工智能產品來編寫惡意代碼,釣魚攻擊郵件,更不用說 ChatGPT 自身的安全問題。(此前,三星曾因員工在 ChatGPT 上訓練數據,導致信息泄露;ChatGPT 用戶聊天信息列表泄露等)。
馬斯克聯名呼吁暫停更強大人工智能系統的訓練
在巴菲特表達出對人工智能技術發展擔憂前,特斯拉創始人馬斯克曾聯合上千名科技人士發表公開信呼吁暫停訓練比 GPT-4 更強大的人工智能系統。
3 月 29 日,馬斯克付出行動,在數千名業界和學界知名人士聯署公開信簽上姓名,呼吁所有人工智能實驗室至少暫停 6 個月訓練比 GPT-4 更強大的 人工智能系統,以便制定和實施安全協議。
對于這一舉動,馬斯克表示考慮到 ChatGPT 展現的強大技術能力,需要對其安全問題進行監管。此外,埃隆·馬斯克一再強調人工智能具備強大能力的同時也伴隨巨大的風險,無疑是一柄雙刃劍,甚至悲觀的認為人工智能技術是未來人類文明面臨的最大風險之一。
值得一提的是,不同于巴菲特,馬斯克等對于人工智能技術發展持“消極”態度,前世界首富比爾蓋茨對此相對樂觀,并表示暫停開發并不能徹底解決問題,搞清楚采用哪些方式,合理利用人工智能技術的發展才是最優解。
各國認真審視類 ChatGPT 人工智能技術的發展
許多電影、電視劇、小說中曾暢想人工智能機器人服務社會,造福人類,也對人工智能的安全性、可靠性、忠誠度、是否取代人類統治世界進行過深度探討,類似 ChatGPT 的產品正在將這一構想慢慢推向現實,當人類開始真正直面人工智能發展這一“雙刃劍”時,需要認真考慮其安全、合規等問題。
意大利打響 ChatGPT 的安全問題“第一槍”。
十幾天前,意大利政府以 OpenAI 公司非法收集大量意大利用戶個人數據,未設立檢查 ChatGPT 用戶年齡的機制防止未成年人接觸非法材料為由,封禁了Chat GPT 在意大利的運營。經過幾天緩沖,意大利數據保護機構稍微作出讓步,向 OpenAI 提出了一系列要求,如果能夠滿足的話,意大利便允許 ChatGPT 繼續在該國運營 。
至此,意大利打響了 ChatGPT 安全合規問題的“ 第一槍”。
意大利對 ChatGPT 采取的安全措施,引起了歐洲國家注意,目前,歐洲諸國正在研究是否需要對類似 ChatGPT 人工智能技術采取嚴格的限制措施。其中,西班牙數據保護機構已經要求歐盟隱私監管機構評估圍繞 ChatGPT 使用帶來的隱私合規問題。
緊接著,德國監管機構也宣布禁止使用 ChatGPT,法國、愛爾蘭、西班牙等歐洲國家也開始考慮對 AI 聊天機器人采取更嚴格的監管。
美國緊跟歐盟,擬對人工智能進行監管
一石激起千層浪,意大利加強對 ChatGPT 的監管力度,不僅僅激起了歐盟諸國對于人工智能的擔憂,同樣影響到大洋彼岸的美國。
美國當地時間 4 月11日,《華爾街日報》突然爆出基于由于美國社會對于 ChatGPT 等人工智能技術可能帶來的安全威脅,拜登政府已經開始研究是否需要對這類工具進行限制。
緊隨其后,美國商務部 4 月 11 日就相關的問責措施正式公開征求意見(征求意見的期限為 60 天,其中包括具有潛在風險的新型人工智能模型在發布前是否應該進行核準認證程序)此舉被視作美國對人工智能技術實行潛在監管的第一步。
對于如此急迫設置規則,規范類似 ChatGPT 人工智能技術的發展,美國商務部下屬機構國家電信與信息管理局局長艾倫·戴維森指出,鑒于人工智能技術僅僅是初始階段就已如此“先進”,政府需要考慮潛在犯罪分子利用該技術進行犯罪活動,因此不得不制定一些必要界限。
我國政府發布關于人工智能領域的管理辦法
不僅僅是美國,我國也開始收緊人能智能領域研發。4 月 11 日,國家網信辦以促進生成式人工智能技術健康發展和規范應用為由,發布了《生成式人工智能服務管理辦法(征求意見稿)》(以下簡稱《管理辦法》)。據悉,《管理辦法》共計二十一條,其中“生成式人工智能”包括基于算法、模型、規則生成文本、圖片、聲音、視頻、代碼等內容的技術。
《管理辦法》對人工智能技術應用產生的信息責任劃分作出約束,明確指出利用生成式人工智能產品提供聊天和文本、圖像、聲音生成等服務的組織和個人,包括通過提供可編程接口等方式支持他人自行生成文本、圖像、聲音等,承擔該產品生成內容生產者的責任;涉及個人信息的,承擔個人信息處理者的法定責任,履行個人信息保護義務。
此外,對于人工智能產品制造商也提出了要求,《管理辦法》提出產品推向市場前,應當按照《具有輿論屬性或社會動員能力的互聯網信息服務安全評估規定》向國家網信部門申報安全評估,并按照《互聯網信息服務算法推薦管理規定》履行算法備案和變更、注銷備案手續。
社會層面談及類似 ChatGPT 人工智能產品時,對廠商訓練人工智產品所用到的數據比較關心,《管理辦法》中也著重提到這一點,明確指出對于用于生成式人工智能產品的預訓練、優化訓練數據,應滿足以下要求:
- (一)符合《中華人民共和國網絡安全法》等法律法規的要求;
- (二)不含有侵犯知識產權的內容;
- (三)數據包含個人信息的,應當征得個人信息主體同意或者符合法律、行政法規規定的其他情形;
- (四)能夠保證數據的真實性、準確性、客觀性、多樣性;
- (五)國家網信部門關于生成式人工智能服務的其他監管要求。
最后,《管理辦法》強調對于運行中發現、用戶舉報的不符合本辦法要求的生成內容,除采取內容過濾等措施外,應在 3 個月內通過模型優化訓練等方式防止再次生成。
目前,經歷大量訓練迭代后,類似 ChatGPT 的人工智能技術發展迅速,相反,各國現有法律體系對于類似 ChatGPT 的人工智能技術的監管顯然不夠完備,因此制定法規規范人工智能技術的發展成為各國首要解決的問題。
結語
計算技術飛速發展,人工智能技術革命的浪潮已不可避免,,后續勢必有部分“人工”被取代。此外,類似 ChatGPT 人工智能技術的大量應用肯定會衍生出數據泄漏,網絡黑客工具優化,規模化詐騙,AI 虛構圖片等安全問題。
但上述這些因素都不能成為暫停人工智能技術研發的借口,人類不應該抱有恐懼情緒面對人工智能的到來,要時刻牢記“人”才是人工智能技術發展的根本,相信未來通過不斷優化技術,制定法規,能夠最大程度降低“衍生品”帶來的危害。