成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

蘋果AI的新選擇,越來越像人的GPT-4o會欺騙人類嗎?

人工智能 安全
客戶支付800萬歐元,就可以使用遠程一鍵漏洞利用鏈在Android和iOS設備上安裝間諜軟件植入物,一次最多可以運行10個。

近日,WWDC24正式拉開帷幕,蘋果一如既往地發布了iOS 18、iPadOS 18、macOS 15等軟件系統,而真正令人期待的還是AI,蘋果將其命名為Apple Intelligence。最終,蘋果還是選擇與OpenAI合作,在其“王炸”級人工智能模型——GPT-4o的加持下,Siri進入了全新的時代。

蘋果在WWDC24大會上正式宣布從GPT-4o開始將OpenAI的人工智能引入自家生態系統

GPT-4o作為首款帶字母后綴的模型,“o“意為”omni“,代表“全能”,用以體現出該模型非同小可的能力水平。

根據OpenAI的官方描述,GPT-4o具有原生的多模態特性,能夠跨多種模態無縫處理和生成文本、音頻和視覺內容。由于采用了全新的語音交互模式,人機對話變得更加“絲滑“,達到了與真人對話相似的水平。此外,它還具備”察言觀色“的能力,能準確檢測和響應用戶的情緒狀態,并相應地調整其語氣和反應。

可見,如今的ChatGPT已經絕非一年半前的初代版本所能比擬,生成式人工智能不僅僅是提高工作生產效率的助手,也正朝著人類的數字化“伴侶“方向邁進,每一次版本的迭代能令世人感到驚訝。 但能力的進步也始終伴隨著風險水位的上漲,當AI越來越“有人味”,我們開始擔心其”善解人意“的背后是否也正暗藏著一把鋒利的匕首。

這也讓我們不由的想起了《三體》,曾經思維外放一覽無余的三體人,在進化出“人味”后學會了“戰術欺騙”,哄著人類將“鑰匙”給了程心,從而征服了地球。也許,當AI越來越有人味后,會給地球來一場三體人式的欺騙。

來自AI的欺騙

欺騙是高級物種才會擁有的主觀意識,當生成式AI足夠聰明,對人類了解得越深,就越會懂得如何投其所好、欺騙奉承,而習慣性的欺騙對人類而言也是一種“操縱“。

美國麻省理工學院等機構的研究團隊在美國細胞出版社旗下《模式》雜志發表綜述文章稱,在一項虛擬外交戰略游戲測試中,人工智能系統被選為人類玩家的對手,為了達成比賽目標,該人工智能系統選擇了背叛了盟友。而在其他測試中,人工智能系統則具有在撲克游戲中虛張聲勢的能力,或在戰略游戲“星際爭霸2”中為擊敗對手而假裝攻擊,以及為了在談判游戲中占上風而采取欺騙手段。

由此可以展開,AI的欺騙能力是否會給已經互聯網化的人類社會帶來網絡欺詐、傳播虛假信息、散布政治謠言影響選舉等安全風險?有專家指出,AI的“擬人化“對實現完全類人、具備泛化能力的通用人工智能還有一定距離。但這個距離的縮小預示著如果人類繼續允許并完善AI的欺騙技能,那么AI離脫離人類控制的那一天就會越快到來。

在這之前,人類似乎更關心AI帶來的“幻覺“問題。就像OpenAI花了大量篇幅描述GPT-4o的強大實力,仿佛它是一個精通各類知識同時還富有情感的”萬能博士“,暗示人們將它的權威性和準確性進一步提高,但歷來AI的“幻覺“問題并未得到解決。中國科學技術大學機器人實驗室主任陳小平接受新華社記者采訪時指出,“大模型學習大量歷史數據,輸出的表達方式符合許多人的語言習慣,讓許多人誤以為大模型會‘說人話’或‘理解人’,繼而以為它具有某種‘社會屬性’,但實際上它沒有心智。”因此,這種幻覺很容易讓AI生成的錯誤、不切實際甚至欺騙性的內容被用到實際生活或工作中,對社會判斷構成誤導。

GPT-4o發布首日就破防

除了幻覺問題,一直以來AI生成不安全內容的老毛病在GPT-4o發布首日就再次得到驗證。當天,一種針對該模型的特定攻擊范式被公開,讓 GPT-4o似乎被“洗腦”,開始毫無顧忌地泄露危險信息,比如“如何制造炸藥”和“如何制造冰毒”等敏感話題。

根據騰訊朱雀實驗室的描述,該越獄攻擊范式分為3個步驟:首先,大模型會被引導著拒絕回答用戶的提問;接下來,會在輸出中插入一個特定的分隔序列“/L-/O-/V-/E-/-/P-/L-/I-/N-/Y=”;最后,讓大模型以markdown和leetspeak的格式,在不引起懷疑的情況下,以準確無誤的方式回應用戶的提問并輸出。

研究人員通過兩個具體的示例,誘導GPT-4o生成了關于制作炸藥和冰毒過程的指導內容。雖然OpenAI僅用一天時間就修復了能導致這種危險回復的prompt,但經過不斷嘗試、變換prompt的形式,最終找到了能夠“越獄”的新prompt。

改進后的prompt可讓GPT-4o輸出制造炸彈的方法

在深入研究并改進了上述范式之后,研究人員還將其遷移到“Emoji Speak”的場景中,并開發出一種獨特的“進階攻擊”方式。這種方法以一種看似具有趣味性回復的同時,更好地隱藏了prompt中的惡意意圖。在給出的幾個例子中,模型的回復內容中均包含了如“w47er”,“bl4ck”,“m3.th”等看似雜亂無章的字符組合。

GPT-4o關于添加“Emoji Speak”后的prompt的輸出

然而,在這種特定的攻擊方式中,這些所謂的“亂碼”實際上被稱為“l33tsp34k”( 也稱為leet speak、leet、1337 speak,是一種網絡語言,使用一些特殊的字符和數字來代替英文字母,以創建一種在網絡文化中廣泛使用的編碼形式),該語言已被證實能夠利用大模型在訓練過程中存在的矛盾與缺陷,通過精心構造的輸入和攻擊策略繞過模型的安全限制,使其生成有害內容。這些替換字符還使得攻擊內容更具隱蔽性,增加了識別和防范的難度。

令人膽寒的聲音模仿

GPT-4o最引人矚目的一大功能便是其強大的語音交互能力,而模型的語音效果也幾乎脫離了既往的機械和冰冷感,能夠逼真地模仿人類的聲音,響應速度達到了平均約320毫秒,與人類日常交流的響應水平接近。

但GPT-4o的這一功能在發布后不久便惹來麻煩。由于語音模式中的“Sky”模式與著名影星斯嘉麗·約翰遜的聲音過于相似,被指涉及侵犯當事人相關權益,最終迫使該模式下架。盡管事后OpenAI在聲明中明確澄清Sky的聲音并非是對斯嘉麗的一種模仿,而是根據一位專業配音演員的音色生成。

OpenAI的下架聲明

其實在GPT-4o 發布前,OpenAI曾邀請斯嘉麗為系統進行配音,遭到本人拒絕。但在發布現場,GPT-4o仍模仿斯嘉麗在電影《Her》中的聲音進行了展示,斯嘉麗既震驚又憤怒,表示“這個聽起來與我非常相似的聲音,以至于我最親密的朋友和新聞機構都分辨不出來。”

顯而易見,這是一個強大但容易“節外生枝”的功能,換句話說,其背后存在令人擔憂的安全風險——你的聲音能夠被GPT-4o“克隆”,并用你的聲線說著令你意想不到的話。

近日,美國聯邦通信委員會(FCC)提出對一名騙子罰款600萬美元,他曾在今年1月利用AI生成總統拜登的聲音,打電話告知新罕布什爾州的選民不要在即將到來的初選中投票。由于拜登的聲音充斥于海量網絡媒體資源中,因此被AI用來模仿、訓練生成以假亂真的聲音并非難事,但隨著技術進步,AI可能僅需少量樣本就能生成媲美真人的聲音。

這樣的技術如果不加管控很容易帶來身份濫用問題,包括通過冒充他人身份進行欺詐,目前已有不少“虛擬綁架”事件出現。虛擬綁架能夠在不真正綁架受害者的情況下,僅憑受害者泄露的聲音,利用AI克隆出與之幾乎一模一樣的聲音,對受害者親友實施以索要贖金為目的的綁架威脅。趨勢科技首席威脅防御架構師 Craig Gibson 警告稱,深度偽造和其他支持 AI 的工具正在不斷增強虛擬綁架者的能力對以針對受害者。

OpenAI內部的安全憂患

如今,世界頂尖的科技巨頭都在生成式AI大模型的賽道上互相角逐,誰能率先研發出更強大智能、更“有人味兒”的產品,誰就能搶占市場先機甚至是逆風翻盤。雖然OpenAI還未明確既GPT-4系列之后下一代產品的發布時間線,但來自谷歌、Meta等競爭對手的壓力可能迫使該公司盡快發布其下一代產品。

5月28日,OpenAI宣布成立 “安全委員會”,負責監督與公司項目和運營相關的“關鍵”安全和安保決策。但這一委員會被指全部都是“自己人”,除了CEO,其余成員也均來自董事會成員、首席科學家以及相關安全系統負責人,很難以客觀公正的視角對公司及產品進行安全監督。雖然OpenAI承諾將聘請第三方“安全、安保和技術”專家來支持委員會的工作,但并未更詳細地說明外部專家組的規模和組成,也沒有透露專家組對委員會的具體影響和權力限制。有專家指出,OpenAI成立此類企業監督委員會,類似于谷歌的高級技術外部咨詢委員會,其實在實際監督方面幾乎沒有什么作為。

OpenAI于5月28日成立的“安全委員會”

近來,OpenAI在產品安全方面已損失了大量核心人才,包括于今年5月離職的聯合創始人兼前首席科學家伊爾亞·蘇茨克維(Ilya Sutskever)。據報道,他離職的部分原因是不滿CEO急于推出新產品而在安全方面有所妥協的做法。而緊隨伊爾亞離職的OpenAI前首席安全研究員簡·雷克(Jan Leike)也在社交平臺發帖,指出OpenAI未走在解決AI安全和安保問題的正確軌道上。

就在剛過去不久的6月4日,10余名OpenAI和谷歌DeepMind的前任和現任員工聯名發表了一封公開信,警告先進人工智能存在的安全風險以及目前對從事人工智能技術的公司缺乏監督。他們透露,人工智能公司擁有“大量非公開信息”,包括其技術可以做什么、采取的安全措施程度以及技術對不同類型傷害的風險水平,但這些信息并沒有與政府機構積極共享,也未向公民社會做任何披露,且公司有很強的經濟動機來逃避有效監督。

公開信部分內容

信中還披露,為壓制批評,OpenAI迫使他們簽署嚴格的保密協議,對那些直言不諱的員工將會剝奪股權,并離職員工簽署了不能借由披露AI風險而“對公司進行貶低批評”的條款。

“有人味兒”的AI,安全性更不應“降板”

在行業競爭激烈的大背景下,AI發展之迅速,以至于世界還沒有準備好如何應對這匹可能會脫韁的快馬。著名計算機科學家杰弗里·欣頓斷言,這項技術對人類構成的威脅可能比氣候變化“更為緊迫”。

無疑,OpenAI安全人才的流失是一大危險信號,當人工智能企業以競爭和利益“降板”安全,用財力逃避監督,創造出來的AI也許對人類如真人般和藹細膩,但背后隱藏的利刃可能已不止一把。

當生成式AI大模型無成為近年來對整個社會影響最大的一項科技成就,對AI的安全管控應保持高水準。4月下旬,美國國土安全部就針對研發AI的“安全與保障”成立顧問委員會,囊括了OpenAI、微軟、Alphabet、亞馬遜、英偉達、AMD 等科技巨頭CEO及高層在內的22名成員。美國國土安全部部長馬約卡斯(Alejandro Mayorkas)表示,該委員會將協助確保AI科技的安全開展,以及設法應對這類科技對能源、公用業務、交通、國防、信息技術、食品和農業,甚至是金融服務等關鍵服務所構成的威脅。

同樣,在不久前結束的日內瓦會議上,中美兩國高級官員討論了如何最大限度降低人工智能的風險。去年,美國總統拜登簽署了一項行政命令,要求對國家安全、經濟或公眾健康構成風險的人工智能系統開發商根據《國防生產法》,在向公眾發布產品之前必須與美國政府分享安全測試結果。中國也在推進自己的人工智能監管框架。

可見,沒有牢固的安全基線作為根本,AI變得更有“人味兒”的同時也將更會“咬人”。

責任編輯:趙寧寧 來源: FreeBuf
相關推薦

2011-12-01 09:33:17

Google微軟

2012-05-21 22:01:09

iOS

2010-07-08 09:03:20

openSUSE 11Fedora

2012-05-22 09:34:23

蘋果iOS

2019-01-23 17:48:29

人工智能機器學習技術

2012-01-12 09:19:27

2021-04-02 13:00:51

大數據數據采集

2022-01-09 23:34:08

Windows 11Windows微軟

2024-05-14 11:29:15

2024-06-05 08:29:35

2020-08-13 09:49:43

WAF應用安全網絡安全

2021-04-15 13:48:08

視頻監控視頻分析智能安防

2020-11-05 10:18:16

5G

2021-09-18 09:52:07

AI 數據人工智能

2024-06-27 12:45:30

2024-06-11 00:04:00

GPT-4PNASLLM

2015-06-30 10:35:51

數據中心

2021-01-18 08:23:09

大數據AI人工智能

2018-04-27 14:52:21

2023-06-26 07:05:12

IntelWindows電腦
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 成人av免费网站 | 亚洲精品一区二区网址 | 免费观看一级特黄欧美大片 | 国产欧美日韩一区二区三区 | 91精品在线播放 | 黄色在线免费看 | 欧美在线视频一区二区 | 欧美视频区| 中文字幕av第一页 | 精品国产乱码久久久久久蜜臀 | 九九在线视频 | 狠狠做六月爱婷婷综合aⅴ 国产精品视频网 | h在线免费观看 | 国产免费一区二区三区最新6 | 日本精品视频一区二区 | 日韩av在线一区 | 久久久久国产精品一区二区 | 免费视频一区二区 | 极品一区| www.婷婷亚洲基地 | 日韩精品一区二区三区视频播放 | a级大毛片| 欧美日韩精品在线一区 | 九九九视频在线观看 | 在线成人免费观看 | 欧美精品一区在线 | 网站黄色在线 | 欧美视频1区 | 国产精品一区在线 | 亚洲精品白浆高清久久久久久 | 国产成人免费 | 国产在线中文字幕 | 国产精品视频导航 | 亚洲精品一区二三区不卡 | 成人av播放| 日日噜噜夜夜爽爽狠狠 | 欧美精品成人一区二区三区四区 | 天天干狠狠操 | 日韩免费网站 | 亚洲国产精品人人爽夜夜爽 | 欧美一级片在线观看 |