?譯者 | 朱先忠
策劃 | 徐杰承
與開發人員信任的其他軟件開發工具不同,AI工具在訓練、構建、托管和使用方式等方面都存在一些獨特的風險。
自2022年底ChatGPT發布以來,互聯網上便充斥著對其幾乎相同比例的支持和懷疑的論調。不管你是否喜歡它,AI正在逐步進入你的開發組織。即使你不打算開發人工智能產品,也不打算利用AI工具為你編寫代碼,它仍可能被集成到用于構建、測試和運行源代碼的工具和平臺中。
AI工具存在一些較為特殊的風險,這些風險可能會使自動化任務所帶來的生產力收益受到影響。而這些風險主要源于AI的訓練、構建、托管和使用方式,AI工具在這些方面與開發人員信任的其他工具存在諸多不同之處。了解風險是管理風險的第一步,為了幫助你了解AI工具的潛在風險,我們設計了一些面向AI工具的面試問題,這些問題能夠決定該工具是否能順利“入職”你的公司。
總體而言,所有的的AI工具都存在一定的共性,無論人工智能的類型或用途如何,在選擇使用它之前,都應提出如下問題:
- 這款AI工具的基礎設施在什么位置?現代人工智能無一不需要專用且昂貴的硬件進行支持。除非你打算收購一個新的數據中心;否則你的AI工具將只能進行遠程工作,并需要使用遠程訪問和非現場數據存儲,而這將造成一定的安全隱患。
- 在代碼離開處理邊界時,采取什么樣的保護措施來防止IP丟失?從智能電視到智能汽車,一切人工智能產品都在向其制造商貢獻數據。一些企業使用這些數據來優化他們的軟件,但另一些企業會將這些數據賣給廣告商。因此,你有必要準確了解AI工具將如何使用或處理其用于主要任務的源代碼或其他私有數據。
- 你的輸入能夠用于模型的訓練任務嗎?人工智能模型的持續訓練是模型所有企業以及模型訓練人員非常關注的任務。例如,模型所有企業往往不希望廣告商過多介入其模型訓練環節,以達到免費的廣告推送的目的。
- 結果的準確度是多少?ChatGPT最致命的缺點是其結果的不準確性。它在生成謊言和真理方面表現都很突出;這被稱為AI幻覺。了解人工智能可能產生錯誤的方式和場景,有助于在AI工具發生錯誤時進行管理。
除此之外,人工智能所有企業和開發者會存在自己的一系列安全問題。這些新的擔憂包括對人工智能訓練模型的威脅,這些威脅可能會破壞其結果,并泄露有關模型運行方式的專有信息,以及可能會破壞模型生成結果的質量。此外,人工智能模型必須通過API、Web訪問、移動應用程序和其他需要安全構建的應用程序與傳統世界進行交互。
除一般問題外,開發人員在使用AI工具時還必須提出其他方面的問題,如使用AI安全掃描程序,以便管理軟件開發過程中引入的風險。
- AI工具是否適合應用于此類場景?了解人工智能不擅長什么是十分關鍵的。例如,如果一項任務可以細分為“根據學習規則做出決定”或“編寫符合學習規則的內容”;那么,人工智能通常很擅長此類任務。如果問題的變化超越此范圍,人工智能可能會表現得很糟糕。
- 如果AI工具出現錯誤,該采取什么保護措施?千萬不要在你的過程中引入一個單一的失敗點,尤其是一個可能產生幻覺的失敗點。推薦的做法應當是,依靠與深度防御相關的傳統做法,或管理風險的方法——即系統中的一層產生了問題,下一層也會捕獲它。
- 審查工具結果需要如何進行監督?其實這是一個舊事重提的問題。傳統的問題日志捕獲方案通常分為兩部分:第一個是獲取重要事件的數據;第二個是審核日志。在人工智能進一步成熟,其缺陷得到理解或緩解之前,人類仍需要保持對于循環的控制。
如今,越來越多的開發人員“雇傭”ChatGPT來編寫源代碼。初步報告顯示,ChatGPT能夠用多種編程語言編寫源代碼,并且能夠流利地使用所有常見的語言。由于當前這個測試版的訓練和模型還存在一定的局限性,所以它產生的代碼并不總是完美的。它通常包含可以改變軟件運行方式的業務邏輯缺陷、可能會混合不同版本軟件的語法錯誤以及其他看似人性化的問題。
大致上來看,ChatGPT僅是一個初級程序員。那么,誰會成為它的上級?
換句話說,ChatGPT也就是一個初級開發人員水平。因此,當使用這個初級開發人員編寫的代碼時,必須考慮如何管理它:
- 誰將成為其上級,以保障其編寫代碼的整體效果?初級開發人員通常都需要高級開發人員的協助。每一行代碼都必須經過測試,有些代碼必須修復。然而,有報告表明,這種校對過程比從頭開始編寫代碼更加耗時、更加復雜。
- 它是將訓練代碼注入還是重新混合到代碼庫中?一個更隱蔽的威脅是,有時像GitHub Copilot這樣的人工智能機器人會產生源代碼,完美地復制訓練數據中的代碼塊。因此,需要利用反剽竊工具來確保許可證風險得到管理。
- AI工具從哪里獲得訓練數據?一個人工智能模型的能力水平與它的訓練數據密切相關。如果AI使用舊的或不正確的代碼進行訓練,那么它將產生舊的和不正確的結果。
- 引擎托管在哪里?分析源代碼的AI機器人需要將源代碼整合到其相應的處理設備中。在離開公司管控后,應特別考慮如何保護、使用和處置數據。
無論如何,2022年12月發布的ChatGPT預示著軟件開發的新時代。關注這類工具的變化而不是被它們擊敗是很重要的。在采用這些新工具時要明確,事情變化越多,就越該保持不變:預防安全事件總比發現意外要好。
原文鏈接:https://thenewstack.io/hiring-an-ai-tool-to-code-what-to-ask-at-the-interview/