人工智能的統一定義尚未形成,通常它被認為是指“具有人類(lèi)思考、判斷和意圖的能力,受到外界刺激時(shí)能做出與人類(lèi)一致的反應的機器”。所以,其進(jìn)化過(guò)程就是無(wú)限接近于人類(lèi)的過(guò)程,倫理風(fēng)險也在這一過(guò)程中步步加深。
風(fēng)險的根源主要來(lái)自AI的自主性,或者說(shuō)不可控性。近10年,AI為公共部門(mén)和商業(yè)組織帶來(lái)了層出不窮的新產(chǎn)品和新服務(wù),它可以提高效率,輔助或取代人類(lèi),這得益于 “機器學(xué)習”的發(fā)展。
擁有強大運算能力的計算機程序能夠對大量數據進(jìn)行自動(dòng)挖掘和分析,并學(xué)習各種行為模式。但輸入和輸出不再由人工賦予的幾個(gè)變量掌控,而是機器在大量數據中自己分析特征,決定變量權重,錯誤和偏見(jiàn)因此產(chǎn)生。
比如通過(guò)使用機器學(xué)習算法可以為銀行提供接受還是拒絕房貸的建議,但研究人員在審查其結果時(shí),卻發(fā)現黑種人申請的批準率大大低于白種人申請的批準率。背后的原因可能是計算機程序基于人類(lèi)世界信息綜合得出的結果,卻沒(méi)有考慮到這些信息本身是否帶有偏見(jiàn)。
那么,人類(lèi)可以像為機器設定程序一樣,為AI預設道德標準嗎?
2017年1月,美國未來(lái)生命研究院(FLI)就曾召開(kāi)了一場(chǎng)主題為“有益的人工智能”的阿西洛馬會(huì )議。來(lái)自商業(yè)、科學(xué)、法律、倫理、哲學(xué)等眾多和領(lǐng)域的專(zhuān)家,共同達成了23條人工智能“阿西洛馬原則”,為AI的倫理原則指明了大致的方向。
比如AI系統的設計和運作應符合人類(lèi)尊嚴、權利、自由和文化多樣性的理念;AI的目標和行為在整個(gè)運行過(guò)程中與人類(lèi)價(jià)值觀(guān)相一致;人們應該有權利存取、管理和控制他們產(chǎn)生的數據等。
但這些畢竟只是框架,落實(shí)到具體問(wèn)題上,AI的倫理標準依然模糊不清。比如一個(gè)AI界的經(jīng)典問(wèn)題是,如果一輛自動(dòng)駕駛汽車(chē)失控,兩側是懸崖,前方是行人,它應該被設定為犧牲駕駛員,還是犧牲行人呢?
如果當時(shí)開(kāi)車(chē)的是人類(lèi)駕駛員,那么無(wú)論他做出怎樣的決定,都有一個(gè)具有自主行為能力的主體可以承擔相應的后果。但如果做決定的是機器,誰(shuí)又該為這個(gè)決定負責呢?
放在經(jīng)濟領(lǐng)域去考察,AI同樣存在巨大倫理風(fēng)險。尤瓦爾·赫拉利在其暢銷(xiāo)書(shū)《人類(lèi)簡(jiǎn)史》中預測,“(未來(lái))不是什么人都是有用的”;吳軍也在《智能時(shí)代》一書(shū)中寫(xiě)到“2%的人將控制未來(lái),成為他們或者被淘汰”。
AI在代替絕大多數人的工作,甚至幫人類(lèi)做絕大多數決策的同時(shí),很有可能會(huì )強化商業(yè)世界“強者恒強,弱者更弱”的鴻溝,使中等收入群體萎縮,引發(fā)社會(huì )對立。而放眼更長(cháng)遠的未來(lái),它還可能成為整個(gè)人類(lèi)社會(huì )的威脅。
在近年來(lái)的AI界,機器人索菲亞是網(wǎng)紅一般的存在。創(chuàng )造它的美國漢森機器人公司創(chuàng )始人戴維·漢森曾在一場(chǎng)現場(chǎng)直播節目中對她說(shuō):“你想毀滅人類(lèi)嗎?請說(shuō)‘不’。”結果得到的回答卻是:“好的,我會(huì )毀滅人類(lèi)。”
盡管有許多人質(zhì)疑索菲亞的回答是技術(shù)人員提前做好的設計。但它的這番“言論”還是引起了廣泛的討論。已故物理學(xué)家霍金便是“威脅論”的堅實(shí)擁躉。在他看來(lái),AI憑借不斷升級的智商和萬(wàn)物互聯(lián)的網(wǎng)絡(luò ),未來(lái)可能會(huì )成為新物種,并超越人類(lèi)成為地球的統治力量。
任何技術(shù)都有異化的風(fēng)險,但若論風(fēng)險程度,AI絕對是最值得警惕的一種。
評論
全部評論(193)
-
最新最熱
行業(yè)資訊 -
訂閱欄目
效率閱讀 -
音頻新聞
通勤最?lèi)?ài)