在柏林不起眼的辦公室里,600名員工如冰冷的機器一般,目不轉睛地盯著(zhù)屏幕,拿著(zhù)一個(gè)鼠標頻頻點(diǎn)擊,卻做著(zhù)影響全球20億人的事情:
網(wǎng)上每天超過(guò)一百種語(yǔ)言的數十億帖子,哪些可以放出?哪些需要保留?哪些需要立刻刪掉?
他們是Facebook的內容審核員們,幾乎每10秒就要做出一個(gè)決定。
這個(gè)群體,大部分其實(shí)并不了解。他們不在深不可測的暗網(wǎng),也并非和網(wǎng)民近在咫尺,但近月加州大學(xué)教授Sarah T. Roberts出了一本新書(shū)《屏幕背后》講到:
社交媒體上最陰暗的一面,不在廣大網(wǎng)民的的屏幕里,而在內容審核員眼前。
1天審25000條內容背后
你好,你發(fā)表的 ***,因為含有違反相關(guān)法律法規或管理規定的內容,已被移除。
當你發(fā)在微博、B站、豆瓣上的內容無(wú)法通過(guò)審查或突然被刪除時(shí),就是內容審核員在工作了。
國內外各大互聯(lián)網(wǎng)公司每年都在擴招該崗位,單Facebook在全球就已經(jīng)有20,000多名審核員,這似乎是一個(gè)永遠都在缺失中的職業(yè)。
在早期,互聯(lián)網(wǎng)還是一片分散的網(wǎng)絡(luò ),連接數十億個(gè)網(wǎng)站和社區的人們,隨著(zhù)互聯(lián)網(wǎng)越來(lái)越“公司化”,Facebook,YouTube,Instagram……內容審核員開(kāi)始出現,用來(lái)監管它們各自的網(wǎng)站。
所以簡(jiǎn)單來(lái)說(shuō),內容審核員就是將網(wǎng)上涉嫌違規的內容刪掉的人。不過(guò)它帶給人們的第一印象,一般都是“鑒黃師”。
“鑒黃”沒(méi)錯,但只是工作內容的一部分,盡管很多人還認為這是一種額外福利,但它并沒(méi)人們想象的那么簡(jiǎn)單。
在一部《網(wǎng)絡(luò )清道夫》的紀錄片中,Facebook的內容審核員一天的處理指標是25000個(gè)。而這些內容中遍地都是兒童色情、恐怖主義、自殘虐殺、極端組織言論……他們的職責,是把最骯臟和惡心的信息阻隔在我們可以看到的世界之外。
刺激、壓抑、憤怒、冷漠、道德譴責……各種情緒混雜,不斷刷新感官、挑戰忍耐極限。但這不是過(guò)山車(chē),翻騰后就能回到地面,每個(gè)新上崗的人一直得在車(chē)上,只能從原始的刺激慢慢變成習慣后的麻木。
要做這個(gè)工作,你必須成為一個(gè)堅強的人,并且非常了解自己。
而據國內某互聯(lián)網(wǎng)企業(yè)的員工敘述,他們的日常工作,除了會(huì )出現一些極端的情況,大部分時(shí)間可以說(shuō)是反復甚至有些枯燥的:
單一的工作環(huán)境。
盯著(zhù)屏幕一整天,白天黑夜紊亂。
從成千上萬(wàn)的自拍照、度假照、惡俗視頻里,重點(diǎn)搜索涉黃和涉政,還有一小部分賭博、高利貸、賣(mài)槍賣(mài)藥的帖子。
刪除,再看,再刪除,再看。
雖然是著(zhù)名的越戰照片,但也會(huì )也因為“捍衛未成年人的裸照”而被刪除
另外,他們的平均薪水高于最低工資。內容審核規則十分模糊,且經(jīng)常變化,大部分靠既定模型和長(cháng)期經(jīng)驗中把握尺度,但有時(shí)候看上頭命令,有時(shí)候看上司命令。每個(gè)月都有人來(lái),有人走,公司從來(lái)不留人。
只是一群普通人突然接觸到了禁忌世界,因為頻繁血腥而殘酷的內容,導致壓力也越來(lái)越大,累計到一定闕值就開(kāi)始潰堤。
2017年一樁Facebook的集體訴訟案中,數千名內容審核員表示在工作中受到了嚴重的心理傷害,導致發(fā)生創(chuàng )傷后應激障礙,“睡眠中一點(diǎn)響動(dòng)都會(huì )讓我有遭遇車(chē)禍的錯覺(jué)”。
但這又是一份不可或缺,至關(guān)重要的工作:網(wǎng)絡(luò )清道夫,就是互聯(lián)網(wǎng)的安全衛士,如果他們不清理違禁內容,不阻擋那些非法信息,就會(huì )有更多青少年和小孩看到。
Google、Facebook 這些大公司非常重視它們,現在已經(jīng)幾乎讓數十萬(wàn)人任職,雖然它們也為審核員提供了心理健康咨詢(xún)和檢查,但也依然承認,內容審核員是科技界最具心理創(chuàng )傷的工作之一。
那這份“悲傷職業(yè)”,有沒(méi)有可能用更好的方式去解決,甚至,人類(lèi)可以不再做這類(lèi)工作?
無(wú)法消失的內容審核員
事實(shí)上,目前的內容審核只能是人來(lái)進(jìn)行的——貓捉老鼠的游戲。
但好的一面是,現在還有AI能幫他們預先滅掉“一窩蛇鼠”。
隨著(zhù)互聯(lián)網(wǎng)公司審核員投訴和抗議事件屢發(fā),再加上互聯(lián)網(wǎng)用戶(hù)上傳內容量增加,頭部平臺每天產(chǎn)生的UGC內容量更是天文數字,人力投入昂貴且難以擴展,所以現在幾乎所有公司,都已經(jīng)在用“人+機器”的內容審核方式。
雅虎開(kāi)源過(guò)一套深度學(xué)習神經(jīng)網(wǎng)絡(luò ),能給圖片評估一個(gè)NSFW(Not Suitable/Safe For Work)值,最無(wú)害的是0,最極端是1
在人機結合的審核里,首先AI會(huì )進(jìn)行第一階段海量?jì)热莸膶徍?,區分正常內容、確定的不良內容以及不明確的內容,然后帖子被分類(lèi)分配出來(lái),再由審核員對“不明確的內容”進(jìn)行人工復審。
這樣一來(lái),AI能夠幫內容審核員減輕負擔,讓他們更高效地去做決策,專(zhuān)注于數據分析。
但要讓人工智能取代人力,現在依然像是天方夜譚。
雖然AI技術(shù)發(fā)展越來(lái)越快,但是因為自然語(yǔ)言處理(NLP)的難度,機器在理解語(yǔ)言上,還不能達到人類(lèi)的思維程度,所以審核文字也會(huì )失誤,更何況是圖片、音頻、視頻。
深度學(xué)習的局限性在于,如果要創(chuàng )建準確檢測成人內容的神經(jīng)網(wǎng)絡(luò ),則必須先讓AI在數百萬(wàn)個(gè)帶注釋的成人內容來(lái)訓練。沒(méi)有高質(zhì)量的培訓數據,AI就很容易犯下錯誤。
AI擅長(cháng)識別色情、垃圾郵件和虛假帳戶(hù),但因為審核量太大,類(lèi)目很多,邊界模糊,就像女性母乳喂養、月經(jīng)藝術(shù)、戰爭暴行,也會(huì )被誤認為違禁內容,被AI識別挑選出的違禁圖片里,還有數不盡的加菲貓,因為有它的畫(huà)面里,幾乎都是黃色。
畢竟機器是人“喂”出來(lái)的,所以機器目前主要還是協(xié)助工作,無(wú)法思考和判斷有價(jià)值觀(guān)的“違禁內容”。
比如仇恨言論和騷擾方面,它識別的準確率就很差,Facebook認為它們可能需要5到10年的時(shí)間才能開(kāi)發(fā)出可以發(fā)現仇恨言論的AI。
國內最早利用AI技術(shù)從事內容審核服務(wù)的圖普科技CEO李明強在接受愛(ài)范兒采訪(fǎng)時(shí)也表示:
不得不承認的一個(gè)事實(shí)是,現階段AI還處于弱人工智能階段,只有將來(lái)AI具備自主學(xué)習、獨立思考的能力,達到人類(lèi)的理性和感性判斷,也就是強人工智能階段,那時(shí)才有取代人力的可能。
因此,內容審核員在未來(lái)很長(cháng)一段時(shí)間內都不會(huì )消失。
在這漫長(cháng)的未來(lái)里,可以預見(jiàn)的是,隨著(zhù)信息傳播量越來(lái)越大,圖片視頻樣式不斷翻新,AI技術(shù)會(huì )不斷升級,內容審核員也只會(huì )被繼續要求審查更高標準的、具有細微差別的違禁內容。
只是未來(lái),網(wǎng)絡(luò )環(huán)境也不一定就會(huì )更“綠色健康”。
無(wú)法消失的網(wǎng)絡(luò )黃暴恐
和內容審核員一樣,黃暴恐可能也會(huì )一直在網(wǎng)上“存活”。
在這個(gè)比以往更容易自由表達的當下,人人發(fā)出自我的聲音,但這份自由屬于所有人,我們很難保證別人的自由不會(huì )傷害到我們自身,這是必然會(huì )產(chǎn)生的代價(jià)。
同時(shí),隨著(zhù)互聯(lián)網(wǎng)內容產(chǎn)業(yè)的競爭進(jìn)入下半場(chǎng),各家的流量之爭也越發(fā)激烈。
每個(gè)平臺的內容審核員,除了刪除違禁內容,也會(huì )有意識地只放對平臺有利的內容,從而打造出自己平臺獨特的品牌風(fēng)格,這也是品牌保護的一種形式。
但所有平臺共同的一點(diǎn)是:它們都需要靠用戶(hù)的注意力存活下去。
為了讓用戶(hù)不斷上癮,這些公司就會(huì )通過(guò)越加精準的數據算法加上人工挑選,讓人們在平臺上停留更久時(shí)間,讓人們越想看的越呈現,但:黃、暴、恐恰恰就是人性欲望之所在。
在一個(gè)又一個(gè)網(wǎng)絡(luò )熱點(diǎn)中,已經(jīng)可以看出,人性本能就喜歡不斷刷新底線(xiàn)的、挑戰禁忌的、煽動(dòng)對立的、制造憤怒的內容,恰恰社交平臺卻想要保持綠色健康美好光明的環(huán)境——這是個(gè)永遠無(wú)法解決的矛盾。
在這種沖突之下,各大平臺似乎只能險中求穩。
對網(wǎng)民來(lái)說(shuō),盡管我們看到的內容,是被選擇過(guò)的,或者被定制過(guò)的,而且它會(huì )讓我們無(wú)法認識深層的丑惡真相,但更重要的是我們在任何情況下,都具有批判和思考的能力。
比起讓無(wú)底線(xiàn)的霸凌、犯罪、羞辱、反動(dòng)遍布全網(wǎng),把災難的火苗在源頭掐滅,總歸來(lái)說(shuō)利大于弊。
內容審核員無(wú)法消失,“黃暴恐”也無(wú)法消失,我們只能讓技術(shù)更加先進(jìn),讓規則更加清晰,不然互聯(lián)網(wǎng)可能會(huì )朝著(zhù)無(wú)法回頭的極端走去。
但無(wú)論什么情況下,對我們而言最重要的,正如扎克伯格在一次發(fā)布會(huì )上所說(shuō):
我們需要勇氣去選擇希望而非恐懼,去宣示我們能讓世界變得更美好。我們必須保持樂(lè )觀(guān),正是這份希望和這份樂(lè )觀(guān)促成了一個(gè)個(gè)偉大的進(jìn)步。更重要的是,我們需要共同努力。
畢竟對比現實(shí)的深淵,內容審核員看到的殘酷萬(wàn)象,也只是冰山一角。
本文來(lái)源:愛(ài)范兒,作者:吳志奇
評論
全部評論(1224)
-
最新最熱
行業(yè)資訊 -
訂閱欄目
效率閱讀 -
音頻新聞
通勤最?lèi)?ài)