人工智能時代,技術不中立
以互聯網、人工智能等為代表的信息技術的勃興,把社會推進了第三輪科技革命。技術帶來的效率進步毋庸置疑,這已經成為人類社會的共識。在這樣的背景下,人們似乎正毫無疑慮地全面擁抱科技,希望它能夠給人類社會帶來更好的未來。
然而,與過去的任何一個階段的技術都不同的是,工業社會時代,人對于技術的敬畏是天然的、明顯的,技術被看作理性的工具。而智能時代重塑了人與技術的關系,技術不再僅僅是“制造”和“使用”的方式,而是一種人化的自然。
智能時代下,信息技術覆蓋融合著人們的生活。對于技術的理解和馴化,調試人和技術的關系成為人們新近的關切。隨著法律與科技之間的難題不斷被突現,復雜的困境和新興的挑戰迭起,過去的“技術中立”觀念受到越來越多的質疑。
科技的利好推遲了我們對技術副作用的反思。然而,當行業發展的腳步放緩后,人們開始逐漸意識到這個時代的“技術不中立”,遲了那么多年的反思還是來了。
有目的的技術
不論是第一次技術革命,蒸汽機推動生產效率提高;還是第二次技術革命,電力與內燃機大規模使用使得生產效率翻番,技術的本質,都與一開始人類祖先手中的石器并無二致——提升效率,拓展生活外延。不同的是,現代技術受到現代科學的客觀性影響,因而更具有客觀面向。
正因為現代技術被賦予科學的要素,以至于在很長一段時間里人們都認為,這種來源于科學的技術本身并無所謂好壞的問題,其在倫理判斷層面上是中立的。其中,技術中立的含義被分別從功能、責任和價值的角度證實。
功能中立認為技術在發揮其功能和作用的過程中遵循了自身的功能機制和原理時,技術就實現了其使命。在互聯網方面,功能中立尤其體現在網絡中立上,即互聯網的網絡運營商和提供者在數據傳輸和信息內容傳遞上一視同仁地對待網絡用戶,對用戶需求保持中立,而不得提供差別對待。
責任中立則把技術功能與實踐后果相分離,是技術使用者和實施者不能對技術作用于社會的負面效果承擔責任,只要他們對此沒有主觀上的故意。也就是所謂的“菜刀理論”菜刀既可以切菜,也可以殺人,但菜刀的生產者不能對有人用菜刀殺人的后果承擔責任。
但不論是技術的功能中立,還是責任中立,都指向了技術的價值中立。顯然,在第三次工業革命里,圍繞著技術的行為,從設想技術,到開發技術、傳播技術、應用技術、管制技術等,沒有一個存在所謂的“中立”。人們的價值觀早已融入到我們設計和建造的一切中。
與隨機雜亂、物競天擇的進化過程不同,技術是發明者意志的產物,是為了達成某種目的而形成的。盡管技術包含著一個客觀結構,但技術同時服務于人的目的理性活動。這意味著,它在誕生前就已經被概念化和謹慎思考過。每一個新的創造都是為了滿足需求,實現目的。
當市場是一片空白時,處處是藍海。無論產品質量如何,都能滿足涌進互聯網的新用戶的消費需求。而在增量市場成為過去式后,競爭變成了一場存量的爭奪。于是,在消費互聯網的下半場,當用戶規模不再增長時,科技公司為了生存就只能從技術的角度,開發更多符合商業價值的產品。
而在這個過程中,技術中立則必然受到商業偏好的影響。這就是亞伯拉罕·卡普蘭的工具法則——當人們只有一把錘子時,所有的東西看起來都像釘子。資本逐利是商業價值的根本,“中立”已無從談起。
不中立的技術
實際上,“技術不中立”并不是一個新近的概念。甚至早在2014年,白宮發布的《大數據:抓住機遇,保存價值》戰略白皮書就已有暗示。
白皮書強調了技術第一定律的重要性,就是“技術沒有好與不好之分,但技術也不是中立的”。但是,其背景和大環境則是“大數據”的迅猛發展,是美國制定數據安全的風險管理作為“以數據為中心”戰略重點,是美國以數據的“武器化”確保“信息優勢”和“決策優勢”。
在技術昭示了人們的技術目的時,充斥著人們的商業取向時,走向“技術不中立”成為必然的趨勢。數據收集是人工智能技術設計進入實踐領域的起點,而人工智能侵權在此階段便已悄然產生。
事實上,人工智能時代以Web2.0作為連接點溝通著現實世界與網絡虛擬世界,而政府和企業則利用 Web2.0不可估量的數據收集功能將網絡用戶活動的任何痕跡都作為數據收集起來,未經加密的數據使得蘊含于其中的大量個人信息和隱私猶如“裸奔”被他人為謀取私利泄漏或進行不法利用。這就是技術不中立的第一步。
隨著大數據和人工智能迅猛發展,當前,私人空間與公共空間的界限已經日益模糊,它無所不在且具體而微,以隱蔽的微觀渠道抵達用戶的身體和姿態并彌散于生活的每一個角落。人工智能技術儼然成為了福柯意義上的一種承載權力的知識形態,它的創新伴隨而來的是控制社會的微觀權力的增長。它掌握在國家手中,也可以被企業、公司所擁有。
于是,在技術創新發展的時代,曾經的私人信息在信息擁有者不知情的情況下被收集、復制、傳播和利用。這不僅使得隱私侵權現象能夠在任何時間、地點的不同關系中生產出來,還使得企業將占據的信息資源通過數據處理轉化成商業價值并再一次通過人工智能媒介反作用于用戶意志和欲求。這是技術不中立的第二步。
現在,人工智能時代算法對人類的影響幾乎滲透到了生活各領域并逐漸接管世界,諸多個人、企業、公共決策背后都有算法的參與。與傳統機器學習不同,深度學習背后的人工智能算法并不遵循數據采集輸入、特征提取選擇、邏輯推理預測的舊范式,而是依據事物最初始特征自動學習并進一步生成更高級的認知結果。
這意味著,在人工智能輸入數據與輸出答案之間,存在著人們無法洞悉的“隱層”,也就是所謂的“黑箱”。倘若人們以一個簡單的、直線的因果邏輯,或以數學上可計算的指數增加的關聯來描述這個關系時,“黑箱”則是“白”的,即“黑箱”里的運作是可控的、輸出結果是可預料的。
然而,一旦黑箱子不是人們所描述的情形時,箱子就是“黑”的,人們必須接受輸入并不是明確決定了輸出,反而是系統自身(即黑箱子)自己在決定自己。這一點很重要,顯然,未來的技術可能比今天的技術更強大,影響更深遠。當人工智能做出自己的道德選擇時,繼續堅持技術中立將毫無意義。這是技術不中立的第三步。
當然,技術受科技客觀性的影響有其自身的發展模式和邏輯,這種客觀面向使其可以成為人類社會可把握可依賴的工具,但技術設計者或者團體同樣會有自己的價值導向并根據其價值觀設計對科學意義的承諾。
與此同時,科技設計者在理解科學意義時也無法擺脫社會價值的影響。這意味著,任何技術都不是簡單地從自然中獲取,而是在特定歷史環境、特定文化背景、特定意識形態下結合技術設計者的目的判斷而建構起來的。
人工智能時代,技術早已不中立。當下,科技也已經逐漸顯示出副作用。這背后的邏輯正是社會解釋系統的發展已經遠遠滯后于科技的發展。技術由人創造,為人服務,這也將使我們的價值觀變得更加重要。