用AI查詢癌癥相關(guān)問題,ChatGPT的回答靠得住嗎?
最近進行的一項研究發(fā)現(xiàn),AI聊天機器人ChatGPT為人們對癌癥常見一些的誤解和誤區(qū)提供了97%的正確答案,但由于其間接的或可能令人困惑的語言描述引起了人們的擔(dān)憂,研究人員建議患者在使用聊天機器人獲取癌癥信息時需要小心謹慎。
發(fā)表在《美國國家癌癥研究所》雜志上的一項研究報告深入探討了聊天機器人和AI在提供癌癥相關(guān)信息方面的應(yīng)用。研究人員發(fā)現(xiàn),這些數(shù)字資源準確地揭穿了關(guān)于癌癥常見的一些誤區(qū)和誤解。這項開創(chuàng)性的研究是由美國亨茨曼癌癥研究所物理學(xué)家、猶他大學(xué)放射腫瘤學(xué)系助理教授、醫(yī)學(xué)博士Skyler Johnson領(lǐng)導(dǎo)一個研究團隊進行的,其目的是評估ChatGPT提供癌癥信息的可靠性和準確性。
Johnson和他的團隊使用美國國家癌癥研究所(NCI)列出的常見的癌癥誤區(qū)和誤解作為訓(xùn)練數(shù)據(jù)。他們發(fā)現(xiàn),ChatGPT提供的答案準確率達到97%。然而,這個結(jié)果也伴隨著令人關(guān)注的警告。研究團隊主要擔(dān)憂的一個問題是,ChatGPT提供的一些答案可能會被患者誤解或誤讀。
Johnson說:“這可能會導(dǎo)致癌癥患者做出一些錯誤的決定。”該團隊因此建議患者在是否使用聊天機器人獲取癌癥信息時需要小心謹慎。
研究發(fā)現(xiàn),由于審稿者進行盲審,這意味著他們不知道其答案是來自聊天機器人還是美國國家癌癥研究所(NCI),雖然大多數(shù)答案是準確的,但審稿者發(fā)現(xiàn)ChatGPT提供的答案是間接的或模糊的,在某些情況下甚至是錯誤的。
Johnson說:“我認識到并理解癌癥患者和醫(yī)護人員獲取準確信息的困難。需要對這些來源進行研究,以便我們能夠幫助癌癥患者在網(wǎng)上信息環(huán)境中摸索出診斷結(jié)果的答案。”
而錯誤的信息會傷害癌癥患者。Johnson和他的團隊在之前發(fā)表在《國家癌癥研究所雜志》上的一項研究報告指出,他們發(fā)現(xiàn)社交媒體上的錯誤信息很常見,并且有可能危害癌癥患者。
接下來的研究工作是評估患者使用聊天機器人獲取癌癥信息的頻率,他們問的是什么問題,以及AI聊天機器人是否能提供有關(guān)癌癥的罕見或不尋常問題的準確答案。