ChatGPT無法勝任的五種編程任務
譯文作者丨Nate Rosidi
譯者 | 布加迪
審校 | 重樓
出品 | 51CTO技術棧(微信號:blog51cto)
我喜歡把ChatGPT看作是StackOverflow的智能版,它大有幫助,但短期內不會取代專業人士。作為一名前數據科學家,ChatGPT問世后,我花了大量時間來試用它。其編程能力確實給我留下了深刻的印象。它可以從零開始生成非常有用的代碼,可以為我自己的代碼提供建議。如果我要求它幫助我處理錯誤消息,它在調試方面也做得非常好。
但不可避免的是,我使用它的時間越長,遇到局限性的可能性越大。下面為任何擔心ChatGPT搶走飯碗的開發人員列出了ChatGPT無法勝任的工作。
圖片
1、貴公司要求符合職業規范的任何任務
第一個局限性不是其功能,而是合法性。任何純粹由ChatGPT生成并復制粘貼到公司產品中的代碼都可能使雇主面臨訴訟。
這是由于ChatGPT隨意地從訓練它的數據中提取代碼片段,這些數據來自整個互聯網。Reddit用戶ChunkyHabaneroSalsa解釋道:“我讓ChatGPT為我生成一些代碼,立馬就看出它從GitHub代碼倉庫提取了一大段代碼。”
最終,無法知道ChatGPT的代碼來自哪里,也不知道它采用什么許可證。即使是完全從零開始生成的,ChatGPT創建的任何內容本身都不受版權保護。正如彭博法律網站撰稿人Shawn Helms和Jason Krieser所說,“衍生作品是基于一個或多個已有作品的作品。ChatGPT是使用已有作品訓練的,并基于該訓練生成輸出。”
如果您使用ChatGPT生成代碼,可能會發現自己在給雇主添麻煩。
2、任何需要批判性思維的任務
這里有個有趣的測試:讓ChatGPT使用Python創建運行統計分析的代碼。
它是正確的統計分析嗎?可能不是。ChatGPT不知道數據是否滿足測試結果有效所需要的假設。ChatGPT也不知道利益相關者想看到什么。
比如說,我可能讓ChatGPT幫我弄清楚不同年齡組的滿意度評分在統計上是否有顯著差異。ChatGPT建議進行獨立樣本T測試,發現年齡組之間沒有統計上的顯著差異。但T測試在這里不是最好的選擇,這有幾個原因,比如可能有多個年齡組,或者數據不是常態分布。
圖片
全棧數據科學家知道要核對哪些假設、運行哪種測試,可以為ChatGPT提供更具體的指令。但ChatGPT本身很容易為錯誤的統計分析生成正確的代碼,從而使結果變得不可靠和不可用。
對于任何需要更多批判性思維和解決問題的問題,ChatGPT并不是最好的選擇。
3、了解利益相關者的優先事項
任何數據科學家都會告訴您,工作的一部分是理解和解釋項目中利益相關者的優先事項。ChatGPT或任何人工智能都無法完全掌握或管理這些優先事項。
舉例說,利益相關者的優先事項常常涉及復雜的決策,不僅要考慮數據,還要考慮人為因素、業務目標和市場趨勢。
不妨以應用程序重新設計為例,您可能發現營銷團隊想要優先考慮用戶粘性功能,銷售團隊竭力要求支持交叉銷售的功能,而客戶支持團隊需要更好的應用內支持功能來幫助用戶。
ChatGPT可以提供信息并生成報告,但是它無法做出與不同利益相關者的不同(有時是相互競爭的)興趣或愛好相一致的復雜決定。
此外,利益相關者管理常常需要很高的情商,即能夠對利益相關者抱有同理心,從人性化的角度理解其關注點,并對他們的情緒做出反應。ChatGPT缺乏情商,無法管理利益相關者關系的情感方面。
您可能不認為這是編程任務,但目前正在為這項新功能開發代碼的數據科學家知道,其中有多少與利益相關者的優先事項有關。
4、新穎的問題
ChatGPT無法提出任何真正新穎的見解。它只能將從訓練數據中學到的內容重新混合、重新表述。
想知道如何改變R圖上的圖例大小嗎?沒問題。ChatGPT可以從StackOverflow上千個回答同一個問題的答案中提取內容。但是如果遇到以前不太可能遇到的情況,該如何是好?比如組織一次社區聚餐,每個人做的菜所含的配料必須以與他們姓氏相同的字母開頭,以便確保菜品豐富。
當我測試這個提示時,它給了我一些Python代碼,這些代碼認定菜肴的名稱必須與姓氏匹配,甚至沒有正確獲取配料要求。它還想讓我想出26類菜肴,每個英文字母一類。這不是一個聰明的答案,可能由于這是全新的問題。
5、道德決策
最后但并非最不重要的一點是,ChatGPT不能合乎道德地編碼。它不具備像人類那樣做出價值判斷或理解一段代碼的道德含義的能力。
道德編碼包括考慮代碼如何影響不同的人群,確保沒有歧視或造成傷害,做出符合道德標準和社會規范的決策。
比如說,如果您讓ChatGPT為貸款審批系統編寫代碼,它可能會根據歷史數據生成一個模型。然而,由于數據偏見,它無法理解該模型可能拒絕向邊緣化社區提供貸款的社會影響。這就要求開發人員認識到公平公正的需要,尋找并糾正數據偏見,并確保代碼符合道德實踐。
值得指出的是,人們在這方面也不是很完美——有人編寫了亞馬遜有偏見的招聘工具,有人編寫了將黑人識別為大猩猩的谷歌照片分類工具。但人類在這方面做得比較好。也就是ChatGPT缺乏道德編碼所需的同理心、良知和道德推理。
人類可以理解更廣泛的背景,認識到人類行為的微妙之處,并討論對錯。我們參與道德辯論,權衡某種特定方法的利弊,并對我們的決定負責。我們犯錯誤后,可以從中汲取教訓,有助于提供我們的道德規范和理解能力。
6、結語
我喜歡Reddit用戶Empty_Experience_10對此的看法:“如果你只做程序,你就不是一名軟件工程師;是的,你的工作將被取代。如果你認為軟件工程師因會寫代碼而拿到高薪,那你對怎樣才是軟件工程師存在根本性的誤解。”
我發現ChatGPT在調試和代碼審查方面非常出色,比搜索StackOverflow的答案要快一點。但是大量的“編碼”不僅僅是敲擊鍵盤輸入Python代碼,更要知道貴企業的目標是什么,明白你在處理算法決策時需要小心,旨在與利益相關者建立關系,真正了解他們想要什么以及為什么,并尋找一種方法使之成為可能。
關鍵在于講故事,知道何時選擇餅狀圖或條形圖,了解數據視圖告訴你的真相,旨在能夠用簡單的術語傳達復雜的想法,以便利益相關者能夠理解這些術語,并做出相應的決策。
ChatGPT做不了這些工作。只要你做得了,工作就有保障。
參考鏈接:
https://www.kdnuggets.com/5-coding-tasks-chatgpt-cant-do