人類編碼的終結(jié)?如果認為GPT-3會讓人類下崗,恐怕未編碼過
本文轉(zhuǎn)載自公眾號“讀芯術”(ID:AI_Discovery)。
GPT-3的強大功能令人驚嘆,很多人認為這意味著人類編寫代碼的終結(jié)。但在筆者看來,盡管它十分具有開創(chuàng)性,但由此得出軟件工程師會遭淘汰結(jié)論還為時尚早。
如果你認為GPT-3會讓編碼人員成為歷史,那么你可能從未編寫過代碼,這是那些以編寫代碼為生的人早已知道的。
開發(fā)人員獲得報酬并不是因為編寫代碼
正如大衛(wèi)·威廉姆斯所說:“代碼不是解決方案,而是要將解決方案實現(xiàn)。”我們得到報酬是因為解決了問題。代碼是解決問題的一種手段,但也是一項繁重的工作,也有難以規(guī)避的弊端。
對于開發(fā)人員來說,編寫代碼很容易。在多層次的約束條件下,澄清一個問題并解決它要困難得多。這就是編寫代碼和編寫軟件的區(qū)別。
GPT-3太過復雜,無法擴展
GPT-3需要大量的專業(yè)知識,對于個人和小型企業(yè)來說太過昂貴。OpenAI也表示:基于API的模型非常龐大,需要大量的專業(yè)知識來開發(fā)和部署,而且運行起來非常昂貴。除了大公司以外,其他人很難從底層技術中獲益。
為什么模型只能通過API而非開源,OpenAI解釋了三個原因中的一個。它是巨大的,擁有1750億個參數(shù)的GPT-3使“只”有15億個參數(shù)的GPT-2相形見絀。
鑒于摩爾定律的消亡,在不久的將來,我們無法在私人電腦上看到這樣的模型運行。也就是說,筆者認為這是一個暫時性的問題。模型只能變得這么大,而且仍然具有成本效益。在某種程度上,我們不得不開發(fā)出更小或更智能的模型,即使這需要完全不同的硬件。
圖源:unsplash
我們還不相信人工智能
銀行或軍事技術中的錯誤代碼顯然會造成很大問題,但常規(guī)網(wǎng)絡應用程序中的安全漏洞也可能是災難性的(來自Equifax)。
就像自動駕駛汽車,人工智能必須比人類的最高水平還要高,人們才能相信它。自動駕駛汽車的最大問題之一不是技術層面上的,而是哲學上的:它達到怎樣的安全系數(shù)才算是足夠安全?
人們通常將此約束應用于高風險域。但是鑒于2020年代碼滲透到大多數(shù)技術中,它存在著很大的下行空間。從技術上來看,可以通過查看人工智能的代碼來克服這一問題。但是,當人們無法讀懂代碼時又會發(fā)生什么呢?
沒有“軟件工程師”,所有技術都是黑匣子
如果人類不再編寫代碼,那我們還可以理解人工智能編寫的代碼嗎?
有了人工智能編寫軟件,人們就不會花數(shù)千個小時來熟練掌握它。如果人們不擅長編寫軟件了,又該如何審查它們呢。在這種知識流失的情況下,所有技術實質(zhì)上都變成了黑匣子。人類社會是否愿意走到這一步呢?
在不太遙遠的未來,如果第三方擁有的人工智能和人類無法維護的和代碼組合起來,有可能會帶來巨大的商業(yè)風險。
圖源:unsplash
GPT-3創(chuàng)建了無代碼編碼的文本界面
GPT-3創(chuàng)建了一個布局生成器。盡管在無監(jiān)督學習情況下它確實令人印象深刻,但通過文本放置按鈕的能力對于人工智能編寫代碼來說,這似乎只是微小的勝利。
- 20世紀90年代以來,我們就有了拖拽式網(wǎng)頁編輯器,可以生成HTML和CSS。
- 自軟件開始使用以來,自動化代碼就已經(jīng)存在并在不斷發(fā)展。甚至像Ruby on Rails這樣的框架,在應用程序開發(fā)期間也會盡可能多地搭建通用代碼來節(jié)省時間。
因此,盡管筆者個人懷疑GPT-3很快會出現(xiàn)更復雜的用例,但我們目前看到的它能做的并不全是軟件工程師的工作。
撇開反對的聲音,GPT-3是令人難以置信的。如果“真正的人工智能”的標準不會再變高的話,那么GPT-3就已經(jīng)是“真正的人工智能了”。
不過盡管筆者相信編寫代碼的編寫會繼續(xù)存在,但花更少的時間編碼是一件好事。有無數(shù)的代碼需要編寫,還有無數(shù)的問題需要通過技術來解決。如果能將編碼托付給人工智能,工程師們能將精力放在處理更重要的事情上,這或許是未來人機合作的新路徑。