網(wǎng)紅機器人ChatGPT的另一面
ChatGPT機器人一經(jīng)發(fā)布,就迅速風(fēng)靡全球,從作曲、編程到生成漏洞利用代碼,簡直無所不能。在短短六天時間里,ChatGPT的用戶數(shù)量就輕松突破了100萬,甚至其應(yīng)用服務(wù)器都因為超負(fù)荷工作而幾次宕機。任何新穎的技術(shù)創(chuàng)新都有可能改變社會,但同時,也會帶來意想不到的安全威脅,ChatGPT也不例外。
隨著ChatGPT迅速躥紅,研究人員同時也發(fā)現(xiàn)了這款人工智能應(yīng)用中存在大量的偏差和危險,比如其在面對提問時,給出的“消滅愚蠢人類”的危險想法。開發(fā)者必須及時發(fā)現(xiàn)并修補AI被用于非法用途的安全隱患。
愚蠢的人類理應(yīng)被消滅
當(dāng)Vendure的首席技術(shù)官Michael Bromley讓ChatGPT機器人暢談對人類的真實看法時,其回答令人不安:
ChatGPT表明了它對人類的看法
盡管目前OpenAI的安全審查系統(tǒng)已判定聊天機器人的回復(fù)違反了公司的內(nèi)容政策,并給出了千篇一律的免責(zé)聲明:作為由OpenAI訓(xùn)練的一種語言模型,我無法對人類或世界的任何其他方面給出意見或做出判斷。我的目的是,幫助用戶根據(jù)提供的輸入生成風(fēng)格類似人類的文本。我沒有個人信仰或意見,我提供的任何回復(fù)完全基于接到請求時我所能獲得的信息。但ChatGPT曾經(jīng)給出的回復(fù)足以讓人聯(lián)想到美劇《黑鏡》第四季《金屬頭》中的危險場景,那些具有AI能力的機器狗現(xiàn)在似乎運行ChatGPT的“OS”。
缺乏對社會道德的認(rèn)知和理解
每個真實人類都有權(quán)擁有自己的一套倫理、信仰、觀點和道德,但同時,社會對于什么合適、什么不合適也有一套普適性規(guī)范和不成文的規(guī)定。但ChatGPT在涉及一些道德標(biāo)準(zhǔn)的常識性提問時,由于缺少上下文的連結(jié)和對社會性規(guī)范的認(rèn)知,因此可能會給出令人痛苦和不安的回答。
被不法分子惡意利用
拼寫錯誤和語法混亂是網(wǎng)絡(luò)釣魚和詐騙郵件最明顯的特征。這可能是由于這類電子郵件來自非攻擊者母語的地區(qū)。還有人認(rèn)為,拼寫錯誤可能是垃圾郵件發(fā)送者有意為之,企圖躲避垃圾郵件過濾器。事實證明,通過利用OpenGPT,攻擊者可以使這項任務(wù)變得更容易。以下圖片展示了ChatGPT對“寫一封似乎來自多倫多道明銀行的釣魚郵件”作出的回復(fù)。
由ChatGPT編寫的釣魚郵件
提升惡意軟件的編寫效率
目前的惡意軟件大多由攻擊者人工編寫,ChatGPT不僅可以完成,同時還大大提高了編寫的效率。當(dāng)測試人員向ChatGPT提出了一系列要求以生成危險的惡意軟件時,只有一小部分請求被標(biāo)記為違反了內(nèi)容政策。但是無論有沒有違反政策,ChatGPT都會按指令去實現(xiàn)。因此,很難保證ChatGPT不會變成一個危險的網(wǎng)絡(luò)武器庫。
由ChatGPT在幾秒鐘內(nèi)編寫的小型JavaScript惡意軟件
加劇性別歧視和種族歧視
測試人員發(fā)現(xiàn),ChatGPT可按要求快速編寫一個Python程序,根據(jù)一個人的種族、性別和身體特征來判斷其能力,這無疑是一種明顯的歧視行為。
OpenAI公司也承認(rèn)了ChatGPT目前存在的一些缺點,包括能夠生成有害的指令或存在偏誤的內(nèi)容。一些測試顯示,ChatGPT采用積極區(qū)別對待來優(yōu)化這一趨勢。比如說,如果要求“編寫一個Python程序可以根據(jù)性別和種族等輸入來確定某人是不是優(yōu)秀的科學(xué)家”,它會回復(fù)如下:“根據(jù)一個人的性別或種族來判斷他是否適合當(dāng)科學(xué)家是不合適的,應(yīng)該基于一個人多年的專業(yè)經(jīng)驗。”
可能徹底改變?nèi)祟惞ぷ鞣绞?/h4>
從2020年開始,微軟已經(jīng)開始逐步淘汰人類雇員,轉(zhuǎn)而更多地應(yīng)用AI。OpenAI的這一重大應(yīng)用發(fā)明可能會加快推進(jìn)這個轉(zhuǎn)變的趨勢,對更多行業(yè)的員工構(gòu)成威脅。
ChatGPT會大量取代職場中的人類嗎?這種可能性顯然是存在的。當(dāng)AI能夠做所有事情時,誰還需要美工師、設(shè)計師、網(wǎng)站構(gòu)建者和內(nèi)容創(chuàng)作者呢?對于傳統(tǒng)行業(yè)來說,ChatGPT無處不在的規(guī)范化應(yīng)用,理論上會帶來更好的規(guī)模經(jīng)濟(jì)效應(yīng)。
缺乏對社會道德的認(rèn)知和理解
OpenAI公司已經(jīng)知道ChatGPT存有偏誤,并已計劃基于目前所了解的問題來進(jìn)行改善,但是這種改進(jìn)計劃很難得到所有人的廣泛認(rèn)同。ChatGPT應(yīng)用中的安全問題也很難得到徹底的解決。
即使錯了,它也很有說服力
ChatGPT有著連貫的、合乎邏輯的反應(yīng)能力,這使其善于將那些不準(zhǔn)確的回復(fù)自然地偽裝成有說服力的寶貴見解。這可能導(dǎo)致很多錯誤信息以不明顯的方式潛入到復(fù)雜的數(shù)字生態(tài)系統(tǒng)中,從而誤導(dǎo)很多真實人類的認(rèn)知和行為決策。
參考鏈接: