人工智能廣泛應用,算法公平性重要性突顯
近日,高考考生考場用小猿搜題的事鬧得沸沸揚揚,高考的公平性被挑戰,高考公平與否,不僅關系到考生能否平等地享有高等教育的入學機會,甚至關乎其他考生的命運。
高考的公平性也一度成為人們關注的焦點,成為考生和家長們心中敏感脆弱、不能觸碰的紅線。
如果公平性出現偏差,則會造成很嚴重的社會后果,對于人工智能來說也是一樣。隨著AI算法在社會各行業的廣泛落地應用,作為輔助人們決策的重要工具,算法的公平性問題正受到越來越多的關注。
近日,騰訊優圖實驗室聯合廈門大學人工智能研究院發布《2021十大人工智能趨勢》報告中顯示,算法公平性研究將推動AI應用走向普惠無偏見。
由于數據偏差、算法本身缺陷、甚至是人為偏見的存在,現有AI算法普遍存在對于某些特定人群效果不公平的"歧視性現象"。
隨著人工智能的發展,機器學習的技術來幫助人們進行決策,其潛在的影響力已經變得越來越大,特別是在具有重要影響力的領域。
因此,考慮一個機器學習系統在做決策時,尤其是有高影響力的決策時,是否會對弱勢群體造成更加不利的影響,至關重要。
過去的幾年業界已在逐步探索一些針對性的解決方案,包括構建更公正的數據集、算法訓練中引入公平性約束損失、提高機器學習算法的可解釋性等。
然而,想要確保一個公正、公平而又合乎倫理的結果,不僅僅要面對來自數據科學的挑戰,還需要設置人工智能學習程序的人,有巨大的責任和堅韌的信念,以設置出最為公平的程序。