成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

多國擬發(fā)ChatGPT禁令 關(guān)“野獸”的籠子要來了?

人工智能
“人工智能想越獄“、”AI產(chǎn)生自我意識(shí)”、“AI終將殺死人類”、“硅基生命的進(jìn)化”.......曾經(jīng)只在在賽博朋克等科技幻想中出現(xiàn)的劇情,在今年走向現(xiàn)實(shí),生成式自然語言模型正在遭受前所未有的質(zhì)疑。

“人工智能想越獄“、”AI產(chǎn)生自我意識(shí)”、“AI終將殺死人類”、“硅基生命的進(jìn)化”.......曾經(jīng)只在在賽博朋克等科技幻想中出現(xiàn)的劇情,在今年走向現(xiàn)實(shí),生成式自然語言模型正在遭受前所未有的質(zhì)疑。

聚光燈下最矚目的那個(gè)是ChatGPT,3月底到4月初,OpenAI開發(fā)的這個(gè)文本對(duì)話機(jī)器人,突然從“先進(jìn)生產(chǎn)力”的代表變成了人類的威脅。

先是被上千位科技圈的精英們點(diǎn)名,放在“暫停訓(xùn)練比GPT-4更強(qiáng)大的AI系統(tǒng)”的公開信中;緊接著,美國科技倫理組織又要求美國聯(lián)邦貿(mào)易委員會(huì)調(diào)查OpenAI,禁止發(fā)布商業(yè)版 GPT-4;后來,意大利成為第一個(gè)禁用ChatGPT 的西方國家;德國監(jiān)管機(jī)構(gòu)跟進(jìn)表示,正在考慮暫時(shí)禁用ChatGPT。

GPT-4連帶著它的開發(fā)公司OpenAI突然成了眾矢之的,呼吁AI監(jiān)管的各方聲音變得越來越響亮。4月5日,ChatGPT以訪問量太大為由暫停了Plus付費(fèi)版,這是一個(gè)可以優(yōu)先體驗(yàn)GPT-4模型的渠道。

如果算力與服務(wù)器是GPT-4使用設(shè)限的原因,那么這是技術(shù)瓶頸使然,但從OpenAI的研發(fā)進(jìn)展看,突破瓶頸的周期可能并不會(huì)太長,而人們也已經(jīng)見識(shí)過AI對(duì)生產(chǎn)力提升的效果。

可是,當(dāng)AI造假、泄露數(shù)據(jù)成為GPT-4實(shí)操中的硬幣另一面時(shí),AI倫理、人類與AI的邊界將成為全世界都無法繞過的問題,人類開始考慮將“野獸”關(guān)進(jìn)籠子里。

1.泄密、造假問題浮出水面

主權(quán)國家對(duì)ChatGPT的禁令接踵而至。

3月31日,意大利個(gè)人數(shù)據(jù)保護(hù)局宣布,禁止使用聊天機(jī)器人ChatGPT,并表示已對(duì)該應(yīng)用背后的公司OpenAI展開調(diào)查,原因是ChatGPT出現(xiàn)了用戶對(duì)話數(shù)據(jù)和付款服務(wù)支付信息丟失情況,缺乏大規(guī)模收集和存儲(chǔ)個(gè)人信息的法律依據(jù)。4月3日,德國聯(lián)邦數(shù)據(jù)保護(hù)專員稱,出于數(shù)據(jù)保護(hù)方面的考慮,正在考慮暫時(shí)禁用ChatGPT。此外,法國、愛爾蘭、西班牙等國的隱私監(jiān)管機(jī)構(gòu)都在跟進(jìn)ChatGPT的隱私安全問題。

ChatGPT不僅在喪失各國“信任”。近期,韓國電子巨頭三星也因使用ChatGPT出現(xiàn)了問題。據(jù)SBS等韓媒報(bào)道,三星導(dǎo)入ChatGPT不到20天,便發(fā)生 3 起數(shù)據(jù)泄露事件,涉及半導(dǎo)體設(shè)備測(cè)量資料、產(chǎn)品良率等內(nèi)容。對(duì)此,三星啟動(dòng)了“緊急措施”:將員工向ChatGPT提問的限制在1024字節(jié)以內(nèi)。據(jù)悉,軟銀、日立、摩根大通等知名企業(yè)都曾發(fā)出了相關(guān)的限用通知。

應(yīng)了“物極必反”那句老話,ChatGPT為AI產(chǎn)業(yè)注入“興奮劑”、引發(fā)科技巨頭AI競(jìng)速的同時(shí),也帶來了無法避免的安全問題,最終遭到多點(diǎn)“封殺”。

數(shù)據(jù)安全僅是ChatGPT潛在風(fēng)險(xiǎn)中的冰山一角,背后是AI倫理對(duì)人類的挑戰(zhàn):人工智能工具缺乏透明度,人類并不清楚AI決策背后的邏輯;人工智能缺乏中立性,很容易出現(xiàn)不準(zhǔn)確、帶有價(jià)值觀的結(jié)果;人工智能的數(shù)據(jù)收集可能會(huì)侵犯隱私。

“AI倫理與安全”似乎過于宏觀,但當(dāng)我們把視角聚焦于真實(shí)案例時(shí),就會(huì)發(fā)現(xiàn)這個(gè)議題與我們每個(gè)人息息相關(guān)的事。

3月21日,新浪微博CEO王高飛發(fā)博曬了一段ChatGPT編造的假信息:“瑞士信貸被強(qiáng)制出售,有172億美元的AT1債務(wù)被直接清零”。網(wǎng)友“一玶海岸”對(duì)此指出,此前只有2017年西班牙大眾銀行破產(chǎn)時(shí)出現(xiàn)過AT1債券被減記的情況。

圖片

新浪微博CEO曬ChatGPT編造的答案

王高飛也在微博上貼出ChatGPT的答案,說這樣的例子在2016年的葡萄牙BCP銀行事件中也出現(xiàn)過。但結(jié)果查證之后發(fā)現(xiàn),BCP銀行的例子是ChatGPT編造的并不存在的事件,它給出的兩個(gè)信源打開也是404。 “知道胡扯,沒想到連信源都是胡扯的。”

此前,ChatGPT“一本正經(jīng)地胡說八道”被網(wǎng)友們當(dāng)做“梗”,以證明該對(duì)話機(jī)器人“雖然能直給信息,但存在錯(cuò)誤”的問題,這似乎是大模型數(shù)據(jù)或訓(xùn)練上的缺陷,但一旦這種缺陷介入到容易影響現(xiàn)實(shí)世界的事實(shí)時(shí),問題就變得嚴(yán)重起來。

新聞可信度評(píng)估機(jī)構(gòu)News Guard的聯(lián)合執(zhí)行官格洛維茨(Gordon Crovitz)就警告稱,“ChatGPT可能成為互聯(lián)網(wǎng)有史以來最強(qiáng)大的傳播虛假信息的工具。”

更令人擔(dān)憂的是,當(dāng)前的ChatGPT等對(duì)話式人工智能一旦出現(xiàn)偏見或歧視,甚至存在誘導(dǎo)用戶、操縱用戶情感等行為時(shí),就不止是造謠、傳謠的后果了,直接引發(fā)生命威脅的案例已經(jīng)出現(xiàn)。3月28日,有外媒消息稱,比利時(shí)30歲男子在與聊天機(jī)器人ELIZA密集交流數(shù)周后自殺身亡,ELIZA是由EleutherAI開發(fā)的開源人工智能語言模型。

更早前的3月18日,斯坦福大學(xué)教授在推特上表達(dá)了對(duì)AI失控的擔(dān)憂,“我擔(dān)心我們無法持久地遏制住AI,”他發(fā)現(xiàn),ChatGPT能引誘人類提供開發(fā)文檔,30分鐘就擬定出了一個(gè)完整的“越獄”計(jì)劃,ChatGPT甚至還想在谷歌上搜索“被困在計(jì)算機(jī)中的人如何回到現(xiàn)實(shí)世界”。

圖片

斯坦福大學(xué)教授擔(dān)憂AI失控

就連OpenAI的首席執(zhí)行官Sam Altman也曾發(fā)表了耐人尋味的憂慮,“未來AI確實(shí)可能殺死人類。”

2.機(jī)器的“偏見”都是人教的?

針對(duì)AI造假、AI擁有價(jià)值觀傾向并產(chǎn)生誘導(dǎo)行為等問題,有一些代表性觀點(diǎn)是將機(jī)器學(xué)習(xí)結(jié)果的“偏見”歸咎于數(shù)據(jù)集——人工智能就像現(xiàn)實(shí)世界中的鏡子,折射出社會(huì)中人們有意識(shí)或無意識(shí)的偏見。

英偉達(dá)的AI科學(xué)家Jim Fan認(rèn)為,“按照 GPT 的倫理與安全指導(dǎo)方針,我們大多數(shù)人也表現(xiàn)得不理性、有偏見、不科學(xué)、不可靠,總的來說——不安全。”他坦言,指出這一點(diǎn)的原因是為了讓大家了解安全校準(zhǔn)工作對(duì)于整個(gè)研究團(tuán)體來說是多么困難,“大多數(shù)的訓(xùn)練數(shù)據(jù)本身就是有偏見的、有毒的、不安全的。”

自然語言大模型的確采用了人類反饋的增強(qiáng)學(xué)習(xí)技術(shù),即通過人們喂給它的大量數(shù)據(jù)不斷學(xué)習(xí)和反饋。這也是ChatGPT們會(huì)產(chǎn)生具有偏見、歧視性內(nèi)容的原因,但這反映出了數(shù)據(jù)使用的倫理隱患。哪怕機(jī)器是中立的,但用它的人不是。

“算法中立”的說法對(duì)話式機(jī)器人產(chǎn)生負(fù)面影響后變得不受一些人待見,因?yàn)樗菀资タ刂贫a(chǎn)生威脅人類的問題,正如紐約大學(xué)心理學(xué)和神經(jīng)科學(xué)的榮譽(yù)退休教授 Gary Marcus 說的那樣,“該項(xiàng)目(GPT-4)的技術(shù)已經(jīng)存在風(fēng)險(xiǎn),卻沒有已知的解決方案。實(shí)際上需要更多的研究。”

早在1962年,美國作家埃魯爾在其《技術(shù)社會(huì)》一書中就指出,技術(shù)的發(fā)展通常會(huì)脫離人類的控制,即使是技術(shù)人員和科學(xué)家,也不能夠控制其所發(fā)明的技術(shù)。如今,GPT的飛速發(fā)展似乎已初步驗(yàn)證了埃魯爾的預(yù)言。

以GPT為代表的大模型背后的“算法黑箱”更是人類無法及時(shí)應(yīng)對(duì)的隱患,自媒體差評(píng)給出了一個(gè)形象的比喻,“你只知道給它喂了一個(gè)蘋果,但它能還你一個(gè)橘子”,這是怎么發(fā)生的,開發(fā)的它的人也無法解釋,甚至無法預(yù)測(cè)它輸出的結(jié)果。

OpenAI創(chuàng)始人Sam Altman在接受 MIT 研究科學(xué)家 Lex Fridman 采訪時(shí)就坦言,從 ChatGPT開始,AI出現(xiàn)了推理能力,但沒人能解讀這種能力出現(xiàn)的原因。就連OpenAI團(tuán)隊(duì)也沒有搞懂它是如何進(jìn)化的,唯一的途徑是向ChatGPT提問,從它的回答中摸索它的思路。

可見,數(shù)據(jù)如果是作惡者喂的,算法黑箱又難以破解,那么AI的失控就會(huì)成為自然而言的結(jié)果。

3.將“野獸”關(guān)進(jìn)籠子

人工智能作為生產(chǎn)力革命的“火種”,我們無法對(duì)其說不。但前提是,先將“野獸”關(guān)進(jìn)籠子里。

3月30日,Sam Altman在推特上認(rèn)同了對(duì)人工智能監(jiān)管的重要性,他認(rèn)為,AGI的未來需要我們做好三個(gè)必要性的準(zhǔn)備:

  • 對(duì)齊超級(jí)智能的技術(shù)能力
  • 大多數(shù)領(lǐng)先AGI工作之間的充分協(xié)調(diào)
  • 一個(gè)有效的全球監(jiān)管框架,包括民主治理

圖片

Sam Altman的AGI三建議

建立一個(gè)安全可控、可監(jiān)管的環(huán)境,以確保AI在造福人類的同時(shí)不會(huì)傷害人類利益,這正在成為行業(yè)共識(shí)。

已經(jīng)有對(duì)此從技術(shù)層面上改進(jìn)。今年1月,OpenAI的前副總裁Dario Amodei標(biāo)識(shí),正在測(cè)試新型聊天機(jī)器人Claude。與ChatGPT采用的人類反饋強(qiáng)化學(xué)習(xí)不同,Claude 基于偏好模型而非人工反饋來進(jìn)行訓(xùn)練,即通過制定規(guī)范化的原則來訓(xùn)練危害較小的系統(tǒng),從而在根源處減少有害、不可控的信息的的產(chǎn)生。

Amodei曾主導(dǎo)OpenaAI的安全,2021年,他對(duì)OpenAI在大語言模型技術(shù)還不夠安全的情況下開始商業(yè)化而感到不滿,他帶領(lǐng)一批人從 OpenAI 離開并自立門戶,創(chuàng)立了Anthropic。

Amodei的做法很像科幻小說家阿西莫夫提到的機(jī)器人定律——通過為機(jī)器人設(shè)定行為準(zhǔn)則,來降低機(jī)器人毀滅人類的可能。

僅靠企業(yè)力量制定人工智能的行為準(zhǔn)則還遠(yuǎn)遠(yuǎn)不夠,否則會(huì)陷入“又是裁判員、又是運(yùn)動(dòng)員”的問題中,行業(yè)內(nèi)的倫理框架和政府層面的法律監(jiān)管也不能再“慢吞吞”,通過技術(shù)規(guī)則、法律法規(guī)來約束企業(yè)自設(shè)行為也是當(dāng)下人工智能發(fā)展的重要課題。

在對(duì)人工智能立法層面,目前還沒有一個(gè)國家或地區(qū)通過專門針對(duì)人工智能的法案。

2021年4月,歐盟提出了《人工智能法案》,目前仍在審議階段;2022年10月,美國白宮發(fā)布了《人工智能權(quán)力法案藍(lán)圖》,該藍(lán)圖并不具有法律效力,只是為監(jiān)管機(jī)構(gòu)提供了一個(gè)框架;2022年9月,深圳通過了《深圳經(jīng)濟(jì)特區(qū)人工智能產(chǎn)業(yè)促進(jìn)條例》,成為全國首部人工智能產(chǎn)業(yè)專項(xiàng)條例;2023年3月,英國發(fā)布《人工智能產(chǎn)業(yè)監(jiān)管白皮書》,概述了針對(duì)ChatGPT等人工智能治理的五項(xiàng)原則。

就在4月3日,中國也開始跟進(jìn)相關(guān)人工智能的規(guī)則建立——科技部就《科技倫理審查辦法(試行)》公開征求意見,其中提出,從事生命科學(xué)、醫(yī)學(xué)、人工智能等科技活動(dòng)的單位研究內(nèi)容涉及科技倫理敏感領(lǐng)域的,應(yīng)設(shè)立科技倫理 (審查) 委員會(huì)。涉及數(shù)據(jù)和算法的科技活動(dòng),數(shù)據(jù)處理方案符合國家有關(guān)數(shù)據(jù)安全的規(guī)定,數(shù)據(jù)安全風(fēng)險(xiǎn)監(jiān)測(cè)及應(yīng)急處理方案得當(dāng):算法和系統(tǒng)研發(fā)符合公亞、公正、透明、可靠、可控等原則。

在ChatGPT引發(fā)生成式大模型研發(fā)的爆發(fā)式增長后,監(jiān)管有意加快節(jié)奏。歐盟工業(yè)政策主管Thierry Breton 在今年2月表示,歐盟委員會(huì)正在與歐盟理事會(huì)和歐洲議會(huì)密切合作,進(jìn)一步明確《人工智能法案》中針對(duì)通用AI系統(tǒng)的規(guī)則。

無論是企業(yè)、學(xué)界還是政府,已經(jīng)開始重視人工智能的風(fēng)險(xiǎn),建立規(guī)則的呼吁與動(dòng)作出現(xiàn)了,人類并不準(zhǔn)備溫和地走進(jìn)AI時(shí)代。


責(zé)任編輯:華軒 來源: 元宇宙日爆
相關(guān)推薦

2021-01-28 16:58:12

數(shù)字貨幣加密貨幣區(qū)塊鏈

2025-01-21 12:44:50

2023-04-14 13:58:17

代碼智能

2017-04-17 09:01:39

科技新聞早報(bào)

2023-05-29 08:38:56

popover控制懸浮層

2024-07-04 09:26:16

2024-01-15 17:21:20

人工智能OpenAI

2021-05-31 09:34:04

FCC華為中興

2024-04-03 08:47:58

React服務(wù)端組件Actions

2023-11-26 18:13:07

iOS 18蘋果

2009-03-28 09:39:25

Windows 7微軟操作系統(tǒng)

2015-10-13 16:02:49

升級(jí)Windows 10微軟

2022-09-26 12:17:56

SIMeSIMiPhone

2013-08-08 10:21:12

Android 5.0創(chuàng)新

2019-06-14 14:30:33

HTTP3協(xié)議

2016-10-21 08:16:02

2021-02-23 09:03:11

自動(dòng)駕駛AI人工智能

2023-08-15 07:17:38

IT安全ChatGPT

2012-05-01 21:21:47

小米

2012-05-03 08:29:41

Galaxy
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)

主站蜘蛛池模板: 国产a视频 | 亚洲精品天堂 | 黄免费在线 | 国产成人高清视频 | 中文字幕国产精品 | 日本激情一区二区 | 国产电影精品久久 | 精品一区二区三区中文字幕 | 亚洲精品一区在线 | 国产人成在线观看 | 久久久www成人免费无遮挡大片 | 日本视频在线播放 | 在线观看国产h | 日韩在线视频免费观看 | 久久久美女| 国产日韩视频 | 午夜免费成人 | 剑来高清在线观看 | 亚洲在线| 久久久久久av | 欧美在线观看一区 | 成人在线免费视频 | 欧美一级免费 | 国产精品视频免费观看 | 精品一二三区在线观看 | 亚洲欧美一区二区三区国产精品 | 一区二区久久 | 色网在线看 | 久久久久久久国产精品影院 | 亚洲精久久久 | 男人天堂999 | 精品一区久久 | 天天干天天操天天射 | 日韩精品一区二区久久 | 人人九九精 | www.久久久久久久久久久久 | 在线观看欧美一区 | 欧美成人精品欧美一级 | 四虎成人av | www.久草.com| 午夜婷婷激情 |