題圖 | 視覺(jué)中國
開(kāi)學(xué)后, 是時(shí)候喚起你的恐怖回憶了。
也許《黑鏡》的編劇怎么也沒(méi)想到,這部曾一度被封神,但口碑一路下滑的科幻電視劇,終于迎來(lái)了“戲言”一語(yǔ)成讖的時(shí)刻。
在2018年播出的第四季第二集中,為了更好監護自己的女兒, 一位母親給她的眼睛植入了芯片控制器,自己可以透過(guò)一個(gè)類(lèi)似iPad的硬件查看其身體的各項生命體征,也可以轉播它的視覺(jué)信號。
換句話(huà)說(shuō),她可以通過(guò)iPad看到任何女兒看到的畫(huà)面。假如后臺顯示因為女兒看到恐怖畫(huà)面而導致皮質(zhì)醇上升,她可以按下屏蔽按鈕,用馬賽克抹除掉女兒看到的特定物體,譬如一只兇猛的大狗。
現在,讓我們偷換一下里面的技術(shù)細節。
把植入的芯片,換成教室里可以做到十幾個(gè)小時(shí)連續監控的人臉識別攝像頭。通過(guò)人臉識別的實(shí)時(shí)分析,作為家長(cháng)和老師,你可以隨時(shí)獲得她更加細致的多達十幾條指標結論:
趴桌子2次,玩手機2次,睡覺(jué)1次,聽(tīng)講0次,閱讀0次,舉手0次,笑了0次,厭惡表情出現了10次……
最后機器可能得出一個(gè)綜合結論:她是個(gè)有問(wèn)題的孩子。
以上,便是曠視科技在前天晚上引發(fā)微博軒然大波的產(chǎn)品圖片以及被截取的視頻內容。
而這已經(jīng)不是一部電影,也不是一個(gè)停留在宣傳片層面的demo,因為類(lèi)似項目,已經(jīng)進(jìn)駐部分小學(xué)與大學(xué)。
在微博與知乎上的討伐聲此起彼伏時(shí),曠視科技很快便發(fā)布了一則正式聲明,表示網(wǎng)上出現的圖片僅僅是技術(shù)場(chǎng)景概念演示,公司在教育領(lǐng)域的產(chǎn)品專(zhuān)注于保護孩子在校園的安全。
要解決孩子的人身安全, 需要我們去分析他睡了多少次覺(jué),舉了多少次手以及瞟了同桌多少眼的問(wèn)題嗎?
或者反過(guò)來(lái)說(shuō),這些強加的條條框框,是否能夠有效解決校園霸凌?
再或者說(shuō),我們知道這個(gè)孩子或許有幾個(gè)表現不達標,那么我們有沒(méi)有準備好對癥下藥的解決方法?即便作為一名老師可能很了解一個(gè)孩子上課有不聽(tīng)講的毛病,但是對于改變他的毛病卻通常無(wú)能為力。
我們的關(guān)注點(diǎn)從談及“安全”的一開(kāi)始,就已經(jīng)本末倒置了。
這也是《黑鏡》里植入芯片與人臉識別分析上課表現與行為的共同點(diǎn):
拿捏不好分寸,將所謂的“保護”轉變?yōu)?ldquo;過(guò)度保護”,以保護之名行“監禁”之實(shí),將會(huì )在未成年人的心理上留下怎樣的痕跡?最壞的結果,還請參見(jiàn)黑鏡這一集的結局。
技術(shù)本沒(méi)有任何錯誤,根本在于我們的命運掌握在有權使用技術(shù)的人手里。
曠視“冤”嗎?
當輿論炮火被引到曠視身上時(shí),我們其實(shí)需要了解更多真相。
2018年在北京舉行的安博會(huì )上,除了“人臉識別技術(shù)”成為硬件與方案的標配,幾乎現場(chǎng)可提供場(chǎng)景解決方案的安防廠(chǎng)商中,有一半都表示可以做以校園場(chǎng)景為基礎的人臉識別監控。
而在百度與天眼查上搜索“校園智慧解決方案”,聲稱(chēng)可以提供室內人臉識別監控方案的企業(yè)不在少數。
實(shí)際上,在國內各省的平安校園建設持續多年,出發(fā)點(diǎn)是預防各類(lèi)侵害學(xué)生權益的事件發(fā)生,譬如阻止社會(huì )人員滋擾在校師生,再有就是讓人痛恨的校園霸凌。
與此同時(shí),2018年教育信息化2.0行動(dòng)計劃的頒布,也讓提高教學(xué)質(zhì)量與效率的目標與更多更復雜的技術(shù)手段建立了聯(lián)系。
然而,在技術(shù)應用愈加成熟與便捷的過(guò)程中,有些東西正在發(fā)生變質(zhì)。
學(xué)校與家長(cháng)的關(guān)注點(diǎn)從學(xué)生的人身安全,逐漸轉向更加符合個(gè)人利益的要素上,譬如如何讓學(xué)生更加高效地學(xué)習,預防早戀等等,這些在他們看來(lái)都與更好的成績(jì),孩子們更好的未來(lái)以及學(xué)校更好的名聲直接掛鉤。
早在2017年,國內就有不少中小學(xué)安裝了聯(lián)網(wǎng)攝像頭,家長(cháng)在家里下個(gè)app,就可以通過(guò)教室黑板上方那個(gè)攝像頭,看自己的孩子到底在教室里做些什么。
也曾有學(xué)生在微博上控訴類(lèi)似的事情,但并沒(méi)有引起多少關(guān)注。
而在app遠程監控的基礎上,加入更加強大的人臉識別及分析,只不過(guò)是一種“變本加厲”,而不是一家技術(shù)公司創(chuàng )造的原罪。
有行業(yè)人士曾告訴虎嗅,校園安防建設與信息化建設的盤(pán)子很大,各個(gè)階段政府與學(xué)校都需要有一定的項目資金投入,這是一個(gè)前景很可觀(guān)的市場(chǎng)。但至于這樣如此高技術(shù)含量的東西能不能用得上,就另當別論了。
另一方面也有人認為,作為一家將要IPO,但營(yíng)收并不好看還存在虧損的人臉識別技術(shù)公司之一,業(yè)績(jì)壓力也讓他們想尋找各個(gè)途徑實(shí)現技術(shù)變現,對于一些產(chǎn)品設計的思考可能欠妥當。
“只能說(shuō)用這種方法去吸引采購方,用各種高大上的語(yǔ)言去包裝,也許有些不會(huì )買(mǎi)賬,但也可能有人會(huì )被產(chǎn)品提升教育質(zhì)量與安全都能兼顧的說(shuō)法給打動(dòng)。” 據一位不具名的安防人士表示,從這個(gè)市場(chǎng)來(lái)看,一個(gè)巴掌是拍不響的。
“但另一方面,企業(yè)的技術(shù)并沒(méi)有那么好,很有可能忽悠客戶(hù)。實(shí)際上,你看到的那些分析維度,其實(shí)在實(shí)際場(chǎng)景中結果并不準確。”
技術(shù)的局限性
技術(shù)創(chuàng )業(yè)公司通常都有一個(gè)毛病,就是喜歡把宣傳視頻或廣告圖片“修”得趨于完美。
除了吸引投資,這些視頻也是向客戶(hù)推銷(xiāo)產(chǎn)品的一大“伴手禮”,但實(shí)際上,很多時(shí)候在上手一試后,就會(huì )發(fā)現效果大都需要減半。
以情緒檢測為例,在一次試用人臉識別公司的表情檢測軟件的過(guò)程中,我們發(fā)現“快樂(lè )”和“開(kāi)心”更容易被算法定義,只要我咧開(kāi)大嘴,嘴角朝上,那么系統就會(huì )判定我目前是開(kāi)心的。
而悲傷,厭惡,或者是“面無(wú)表情”,根本沒(méi)有一個(gè)可以被標準化的基礎結構,因此檢測成功率也較低。工程師也承認,除了“笑”,其他表情其實(shí)都無(wú)法給出非常精準的結果。
更何況以上所有情緒,都可以“造假”。譬如強顏歡笑,或者是故意張大嘴表示憤怒,都可能騙過(guò)機器。
此外,我們也比較好奇像“睡覺(jué)”這個(gè)維度是如何做到精準分析的。那學(xué)生們困了,可能只需要一個(gè)曾在日本很流行的上班族必備神器——假眼貼紙,解一時(shí)之急。
最有意思的是,與國內對人臉識別大部分的正向宣傳相反,由于人臉識別技術(shù)在有色人種、民族、兒童老人等維度的準確率方面存在巨大差異,人臉識別技術(shù)應用在國外的推廣略顯艱難。
作為國外反人臉識別風(fēng)潮中最有名的攻擊對象,曾被美國警方使用的亞馬遜計算機視覺(jué)平臺 Rekognition被自家股東在今年年初開(kāi)始持續施壓,他們強制要求亞馬遜停止向執法部門(mén)出售人臉識別軟件。
而這股風(fēng)潮也在今年8月初吹到了英國,有房地產(chǎn)商在倫敦國王十字區安裝了人臉識別硬件后遭到強烈反對,因為后者對此毫不知情。
在美國,這項技術(shù)正面臨著(zhù)來(lái)自立法者越來(lái)越大的阻力。
加利福尼亞州參議院正在考慮立法禁止在警用隨身攝像機中使用人臉識別軟件,而舊金山監事會(huì )(美國中西部及東部各州)也已經(jīng)開(kāi)始禁止執法部門(mén)使用這項技術(shù)。
因此,包括亞馬遜、谷歌以及亞馬遜等技術(shù)公司雖然很不情愿,認為“新技術(shù)不應該因為可能被濫用而遭到禁止和譴責”,但卻達成了一個(gè)共識:
制定相關(guān)合乎道德的指導方針,要跑在真正能使用這項技術(shù)之前。
因為一個(gè)明確的監管框架不僅能確保人臉識別只用于完成合法的任務(wù),也能夠幫助消費者理解這項技術(shù)的好處。
讓人臉識別“走上正路”,一邊是法律的強勢介入,而另一邊則是來(lái)自民間個(gè)人的智慧。
俄羅斯搜索巨頭 Yandex 的技術(shù)開(kāi)發(fā)總監Grigory Bakunov發(fā)明了一種反面部識別方法。其實(shí)這種方法理解起來(lái)很簡(jiǎn)單,就是在臉上用特殊顏料多添幾筆,干擾系統對人臉特征的提取。
而日本一位名叫Isao Echizen的教授為了保護隱私,發(fā)明了一種利用紅外發(fā)光二極管來(lái)干擾人臉識別的眼鏡。 因為這種人類(lèi)看不見(jiàn)的紅外光可以在攝像頭的“眼”中呈現出明亮的紫色。
隱私保護的漫漫長(cháng)路
如何保護隱私?這個(gè)問(wèn)題存在很長(cháng)時(shí)間,但似乎無(wú)解。
因為所處的環(huán)境不同,以及每個(gè)人對隱私的定義也不同,導致我們不能做過(guò)多解讀。
譬如,援引美國獨立研究員Stephanie Hare的話(huà)來(lái)解釋?zhuān)四樧R別系統的最大問(wèn)題之一是涉及到生物特征數據,換句話(huà)說(shuō),就是人體信息,這無(wú)疑與我們的隱私有關(guān)。
但這次曠視引發(fā)的討論中,有小部分人對“這種做法是否真的侵犯了隱私”提出了質(zhì)疑。
譬如“既然家長(cháng)可以把學(xué)生的情況反映給家長(cháng),為什么機器不能匯集更豐富的信息給家長(cháng)?”,再譬如“未成年人到底有沒(méi)有獨立于成年人的隱私權”?
這個(gè)時(shí)候,只能搬出最“教條”的東西來(lái)了:
《教師法》賦予了老師管理學(xué)生的權利,法律賦予了機器什么?
而第二個(gè)問(wèn)題本身就是有問(wèn)題的?!段闯赡耆吮Wo法》明確表示未成年人具有隱私權,之所以一直被侵犯,跟成長(cháng)教育環(huán)境有很大關(guān)系。
從本質(zhì)來(lái)看,這些質(zhì)疑聲恰恰凸顯出隨著(zhù)技術(shù)發(fā)展,法律一定要強勢介入的必要性。
但是每次涉及到隱私問(wèn)題,我們的擔憂(yōu)都會(huì )在一次集中爆發(fā)后,又迅速銷(xiāo)聲匿跡。
2016年Facebook人臉識別被控侵犯隱私如此,2018年亞馬遜智能音箱等企業(yè)被爆偷聽(tīng)偷錄用戶(hù)日常數據也是如此。如今,在換臉視頻app Zao的使用熱度過(guò)去,對AI教室監控產(chǎn)品的討伐聲結束,大概對隱私被侵犯的控訴仍然會(huì )不了了之。
所以我們根本不應該去指責百度CEO李彥宏在去年中國高層發(fā)展論壇上發(fā)表的“中國大多用戶(hù)愿用隱私來(lái)?yè)Q取便捷服務(wù)”的言論,捫心自問(wèn),我們有多少人心里是這么想卻不敢說(shuō)?
而回到這個(gè)問(wèn)題上,當學(xué)生們即便同意自己的身體信息被收集和分析,那么參與方有沒(méi)有征求過(guò)這些機器直接作用方的意見(jiàn)呢?
是的,這就像我們去用計算機視覺(jué)去檢測桃子的大小形狀以及腐爛程度,用人臉識別以及多種生物識別方法來(lái)監測豬的生長(cháng)情況與肥壯健康程度,最終我們也把這套固化的標準,用在了我們自己身上。
是的,我舉手0次,打瞌睡10次,笑了0次,我就是一個(gè)壞學(xué)生。
而孩子們會(huì )不會(huì )在這樣隱形的壓力下有了更加符合人性的“特長(cháng)”,譬如學(xué)會(huì )裝模作樣,學(xué)會(huì )接受把這套機器用在下一代身上。
因此,在釀成大錯之前,我們更應該著(zhù)手去做的,是讓隱私保護問(wèn)題引起更多人的重視和推動(dòng)相關(guān)法律的確立,而不是把口水噴到一家公司的身上。
最后,引用知乎上一位回答“如何看待曠視科技新產(chǎn)品監視學(xué)生上課?”得到最高贊的匿名人士的一段感概作為結語(yǔ):
“這不是產(chǎn)品經(jīng)理或者程序員的問(wèn)題,不是一家公司的問(wèn)題,甚至不是一個(gè)技術(shù)問(wèn)題。這是我們社會(huì )的價(jià)值觀(guān)的問(wèn)題,是我們怎么看待自身權益的問(wèn)題。”
評論
全部評論(142)

-
最新最熱
行業(yè)資訊 -
訂閱欄目
效率閱讀 -
音頻新聞
通勤最?lèi)?ài)