成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

Nature:AI讓抄襲問題更加復(fù)雜,科學(xué)家該如何應(yīng)對?

人工智能 新聞
生成式人工智能在寫作中的爆炸性應(yīng)用讓抄襲變得難以界定,引發(fā)了學(xué)術(shù)圈的一場大討論。

從哈佛大學(xué)校長因抄襲指控在1月份辭職,到2月份曝光的同行評審報告中存在抄襲,今年學(xué)術(shù)界因抄襲事件而動蕩不安。

但在學(xué)術(shù)寫作中,一個更大的問題迫在眉睫——

生成式人工智能工具的迅速普及引發(fā)了關(guān)于何種行為構(gòu)成抄襲,以及對AI工具什么程度的使用應(yīng)該被允許的問題。

版權(quán)和剽竊問題顧問Jonathan Bailey認為,「人工智能的使用范圍很廣,從完全由人類撰寫到完全由人工智能撰寫,這中間存在著一個巨大的混亂地帶」。

ChatGPT等生成式人工智能工具基于被稱為大語言模型 (LLM) 的方法,可以節(jié)省時間、提高清晰度并減少語言障礙。

現(xiàn)在,許多研究人員認為,在某些情況下可以允許這些工具的使用,并且應(yīng)當(dāng)充分披露其使用情況。

但是,這些工具使本來就充滿爭議的關(guān)于不當(dāng)使用他人作品的界定變得更加復(fù)雜。

LLM通過消化大量以前發(fā)表的文章來生成文本。因此,使用這些工具可能會類似于「剽竊」。

例如,研究人員將機器寫的東西冒充為自己的作品,或者機器生成的文本與其他人的作品非常接近,卻沒有注明來源。

LLM還可以用來用來掩飾故意抄襲的文本,而且很難被檢測出來。

英國普利茅斯大學(xué)生態(tài)學(xué)家Pete Cotton說,「界定學(xué)術(shù)不誠實或剽竊的真正含義,以及界限在哪里將是非常非常困難的。」

在2023年對1600名研究人員進行的一項調(diào)查中,68%的受訪者表示,人工智能將使剽竊行為變得門檻更低,也更難被發(fā)現(xiàn)。

圖片

論文地址:https://www.nature.com/articles/d41586-023-02980-0

柏林應(yīng)用科學(xué)大學(xué)的剽竊問題專家Debora Weber-Wulff說,「每個人都擔(dān)心別人都在使用這些系統(tǒng),也擔(dān)心自己在應(yīng)該使用的時候沒有使用。大家都在為這件事焦頭爛額。」

當(dāng)抄襲遇上AI

剽竊,美國科研誠信辦公室將其定義為「盜用他人的觀點、過程、成果或文字而不給予適當(dāng)?shù)恼J可」。

這一問題其實并不罕見。2015年的一項研究估計,有1.7%的科學(xué)家承認自己有過剽竊行為,30%的科學(xué)家知道同事有剽竊行為。

LLM可能會讓事情變得更糟。如果有人要求LLM對措辭進行轉(zhuǎn)述,那么故意剽竊人類撰寫的文本這一行為就很容易被偽裝起來。

加拿大英屬哥倫比亞大學(xué)(UBC)的計算機科學(xué)家兼語言學(xué)家Muhammad Abdul-Mageed說,這些工具可以被提示以復(fù)雜的方式進行轉(zhuǎn)述,比如以學(xué)術(shù)期刊的風(fēng)格。

一個核心問題是,使用完全由機器而非人類撰寫的無署名內(nèi)容是否算作剽竊。

許多研究人員認為不一定。例如,包括大學(xué)和個人在內(nèi)的歐洲學(xué)術(shù)誠信網(wǎng)絡(luò)將未聲明使用人工智能工具的寫作定義為「未經(jīng)授權(quán)的內(nèi)容生成」,而不是剽竊本身。

Weber-Wulff說,「對我來說,剽竊是指可歸因于另一個可識別的人的東西。她補充說,雖然人工智能生成的文本與現(xiàn)有的人類撰寫的內(nèi)容看起來幾乎一模一樣,但這通常還不足以被視為剽竊。」

不過,也有人認為,生成式人工智能工具侵犯了版權(quán)。

剽竊和侵犯版權(quán)都是對他人作品的不當(dāng)使用,剽竊是違反學(xué)術(shù)道德的行為,而未經(jīng)授權(quán)使用受版權(quán)保護的作品則可能觸犯法律。

密歇根大學(xué)安娜堡分校的計算機科學(xué)家Rada Mihalcea說,「這些人工智能系統(tǒng)是建立在數(shù)百萬或數(shù)億人的工作基礎(chǔ)之上的。」

一些媒體公司和作家對他們認為人工智能侵犯版權(quán)的行為提出了抗議。

2023年12月,《紐約時報》對科技巨頭微軟和OpenAI提起版權(quán)訴訟。訴訟稱,這兩家公司復(fù)制并使用了該報的數(shù)百萬篇文章來訓(xùn)練LLM,而這個訓(xùn)練出的模型現(xiàn)在正與該出版物的內(nèi)容競爭。

訴訟內(nèi)容包括,GPT-4在提示之下幾乎一字不差地復(fù)制了報紙文章的幾個段落。

今年2月,OpenAI向聯(lián)邦法院提出動議,要求駁回訴訟的部分內(nèi)容,認為 「ChatGPT 絕不是《紐約時報》訂閱的替代品」。

微軟的一位發(fā)言人說,「應(yīng)該允許合法開發(fā)的人工智能工具以負責(zé)任的方式發(fā)展」,「它們也不能替代記者所扮演的重要角色」。

版權(quán)和剽竊問題顧問Jonathan Bailey說:「如果法院裁定,未經(jīng)許可對文本進行人工智能訓(xùn)練確實侵犯了版權(quán),這對人工智能公司來說將是一個巨大的沖擊」。如果沒有大量的訓(xùn)練集,ChatGPT這樣的工具「就不可能存在」。

AI爆發(fā)

不管這是不是所謂的抄襲,自2022年11月ChatGPT發(fā)布以來,人工智能在學(xué)術(shù)寫作中的應(yīng)用呈爆炸式增長。

研究人員估計,在2024年前6個月的生物醫(yī)學(xué)論文中,至少有10%的摘要使用了LLM進行寫作——相當(dāng)于每年15萬篇論文。

由德國圖賓根大學(xué)的數(shù)據(jù)科學(xué)家Dmitry Kobak領(lǐng)導(dǎo)的研究人員們,分析了學(xué)術(shù)平臺PubMe上2010年至2024年6月期間發(fā)表的1400萬篇摘要。

他們發(fā)現(xiàn),「深入」(delves)、「展示」(showasing)和「強調(diào)」(underscores)這些詞語的出現(xiàn)可能標(biāo)志著LLM的使用。

通過尋找這些詞語,他們估算出了使用人工智能處理過的摘要的比例。

研究團隊發(fā)現(xiàn),基于LLM的寫作助手的出現(xiàn)對科學(xué)文獻產(chǎn)生了前所未有的影響。

圖片

研究認為,與以英語為主要語言的國家相比,中國、韓國等國家的論文顯示出更多使用LLM的跡象。

不過,Kobak說,英語國家的作者可能同樣經(jīng)常使用這些工具,只是使用的方式更難發(fā)現(xiàn)。他預(yù)測,LLM的使用「肯定會繼續(xù)增加」,而且「可能會越來越難以發(fā)現(xiàn)」。

在學(xué)術(shù)寫作中使用未公開的軟件并非新鮮事。

自2015年以來,法國圖盧茲大學(xué)計算機科學(xué)家Guillaume Cabanac和他的同事們一直在揭露由名為SCIgen的軟件編寫的「胡言亂語」的論文,以及那些包含「折磨人的短語」的論文,這些短語是由翻譯或轉(zhuǎn)述文本的軟件自動生成的。

圖片

Cabanac說,「即使在生成式人工智能出現(xiàn)之前,人們也有一些工具可以瞞天過海。」

在學(xué)術(shù)寫作中使用人工智能也有一定的價值。研究人員說,它可以使文字和概念更加清晰,減少語言障礙,并騰出時間進行實驗和思考。

利雅得沙特國王大學(xué)的信息技術(shù)研究員Hend Al-Khalifa說,在人工智能生成工具問世之前,許多以英語為第二語言的同事在撰寫論文時都會很吃力。

但現(xiàn)在,他們專注于研究,利用這些工具解決了寫作的麻煩。

但是,對于使用人工智能何時構(gòu)成剽竊或違反倫理道德,人們?nèi)匀桓械嚼Щ蟆?/span>

馬里蘭大學(xué)學(xué)院帕克分校的計算機科學(xué)家Soheil Feizi 說,使用LLM來轉(zhuǎn)述現(xiàn)有論文的內(nèi)容顯然是抄襲。

但是,使用LLM來幫助表達想法,無論是根據(jù)詳細提示生成文本,還是編輯草稿,如果做到透明,就不應(yīng)該受到懲罰。

Feizi 認為,「我們應(yīng)該允許人們利用LLM,毫不費力地、更清晰地表達自己的想法」。

現(xiàn)在,許多期刊的政策都允許在一定程度上使用LLM。

在最初禁止使用ChatGPT生成文本之后,Science于2023年11月更新了其政策,規(guī)定在撰寫稿件時使用人工智能技術(shù)應(yīng)完全公開,包括所使用的系統(tǒng)和提示。作者要對準(zhǔn)確性負責(zé),并「確保沒有抄襲行為」。

圖片

Nature也表示,研究手稿的作者應(yīng)在方法部分記錄任何使用LLM的情況。

對100家大型學(xué)術(shù)出版商和100種排名靠前的期刊進行分析后發(fā)現(xiàn),到2023年10月,24%的出版商和87%的期刊都制定了關(guān)于使用生成式人工智能的指南。

幾乎所有提供指南的出版商都表示,人工智能工具不能作為作者收錄,但在允許使用人工智能的類型和要求披露的程度方面,政策有所不同。

Weber-Wulff說,學(xué)術(shù)寫作中迫切需要更明確的人工智能使用指南。

Abdul-Mageed說,就目前而言,使用LLM撰寫科學(xué)論文的熱潮因其局限性而受到抑制。用戶需要創(chuàng)建詳細的提示,描述受眾、語言風(fēng)格和研究子領(lǐng)域。「實際上,語言模型很難完全滿足你的要求。」

但Abdul-Mageed表示,開發(fā)人員正在開發(fā)能讓研究人員更容易生成專業(yè)科學(xué)內(nèi)容的應(yīng)用程序。用戶今后無需撰寫詳細的提示,只需從下拉菜單中選擇選項,然后按下按鈕,就能從頭開始撰寫整篇論文。

「偵探」工作

在快速采用LLM編寫文本的同時,也出現(xiàn)了大量旨在檢測LLM的工具。

盡管許多工具吹噓自己的準(zhǔn)確率很高,有些甚至超過 90%,但研究表明,大多數(shù)工具并沒有達到它們的要求。

在去年12月發(fā)表的一項研究中,Weber-Wulff 和她的同事對學(xué)術(shù)界廣泛使用的14 種人工智能檢測工具進行了評估。

只有5款工具能準(zhǔn)確識別70%或以上的文本是人工智能還是人類撰寫的,沒有一款工具的識別率超過80%。

當(dāng)人工智能生成的文本被人通過替換同義詞和調(diào)整語序等方式進行了輕微編輯后,檢測器的準(zhǔn)確率平均下降到50%以下。

作者寫道,這種文本「目前的工具幾乎檢測不出來」。其他研究也表明,要求人工智能對文本進行多次轉(zhuǎn)述會大大降低檢測器的準(zhǔn)確性。

人工智能檢測器還存在其他問題。

一項研究表明,如果英語不是母語的人撰寫的英文文章,它們更有可能誤判為人工智能生成的文章。

Feizi說,檢測器無法可靠地區(qū)分完全由人工智能撰寫的文本,和作者使用人工智能來幫助改善語法和句子清晰度來潤色文本的情況。

他說,區(qū)分這些情況相當(dāng)困難,也不可靠,可能會導(dǎo)致巨大的誤報率。而且,被錯誤地指控使用人工智能會對這些學(xué)者或?qū)W生的聲譽造成相當(dāng)大的損害。

人工智能的合法使用與非法使用之間的界限可能會進一步模糊。

2023年3月,微軟開始將人工智能生成工具納入其應(yīng)用程序,包括Word、PowerPoint和Outlook。其某些版本的人工智能助手名為Copilot,可以起草或編輯內(nèi)容。

6 月,谷歌也開始將其生成式人工智能模型Gemini集成到Docs和Gmail等工具中。

英國普利茅斯馬戎大學(xué)高等教育專家Debby Cotton說,「人工智能正深入到一切事物中,我們越來越難以分辨所做的事情是否受到了AI的影響,它的發(fā)展速度會比我們能跟上的速度更快」。

責(zé)任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2023-10-10 13:50:00

AI研究

2022-09-19 15:53:20

AI圖片

2012-12-06 15:36:55

CIO

2023-05-23 09:34:16

科學(xué)家AI

2017-08-04 15:53:10

大數(shù)據(jù)真?zhèn)螖?shù)據(jù)科學(xué)家

2024-01-30 17:46:24

2022-04-24 14:05:02

人工智能深度學(xué)習(xí)量化

2025-05-14 09:03:00

2023-03-17 08:00:00

人工智能工具數(shù)據(jù)科學(xué)家

2018-02-28 15:03:03

數(shù)據(jù)科學(xué)家數(shù)據(jù)分析職業(yè)

2015-08-28 09:22:07

數(shù)據(jù)科學(xué)

2016-03-10 13:56:42

數(shù)據(jù)科學(xué)數(shù)據(jù)科學(xué)家數(shù)據(jù)分析

2020-04-08 17:38:24

Python數(shù)據(jù)音樂

2023-03-29 14:58:04

GPT-4技術(shù)

2018-12-24 08:37:44

數(shù)據(jù)科學(xué)家數(shù)據(jù)模型

2022-11-03 14:13:24

騰訊科學(xué)家

2019-06-05 15:17:45

2012-12-26 10:51:20

數(shù)據(jù)科學(xué)家

2018-03-12 12:44:59

數(shù)據(jù)科學(xué)家人工智能數(shù)據(jù)科學(xué)

2022-12-01 13:59:12

點贊
收藏

51CTO技術(shù)棧公眾號

主站蜘蛛池模板: 欧美aaaaaaaaaa | 国产精品一区二区久久久久 | 国产日韩欧美在线观看 | 色视频在线观看 | www.操.com | 欧美a免费 | 亚洲91精品 | 欧美精品v国产精品v日韩精品 | 久久久久久影院 | 一级毛片中国 | 日韩在线不卡 | 亚洲精品免费视频 | 91毛片网| 一级网站 | 欧美激情在线一区二区三区 | 日本久久久一区二区三区 | 五月婷婷中文 | 国产乱精品一区二区三区 | 免费一级欧美在线观看视频 | 日韩欧美一级 | 亚洲精品一区二区三区 | 欧美中文字幕一区 | 日韩三级在线观看 | 免费久 | 日韩一级二级片 | 91视频久久 | 国产亚洲精品a | 成人午夜免费福利视频 | a网站在线观看 | 天天av网 | 欧美日韩不卡合集视频 | 久久久久国产精品 | 黄色片a级 | 天堂在线免费视频 | 久久免费福利 | 国产精品毛片一区二区三区 | 午夜视频在线播放 | 麻豆成人在线视频 | 午夜激情在线视频 | 一区二区播放 | 久久人体视频 |