久久一区二区精品,亚洲综合久久久久久中文字幕,国产综合精品一区二区,日韩欧美久久一区二区,综合欧美国产视频二区,亚洲国产欧美日韩精品一区二区三区,亚洲一区二区综合

算法驅動(dòng)的資訊類(lèi)平臺為什么讓人討厭?
腦極體 2017-10-13 09:30:04

在王者榮耀之后后,今日頭條也遭到了人民日報的點(diǎn)名。批評的重點(diǎn)是以今日頭條為代表的算法推薦資訊類(lèi)平臺,存在價(jià)值觀(guān)缺失、制造信息繭房、競爭手段無(wú)底線(xiàn)的“三宗罪”。

總的來(lái)說(shuō),人民日報提出的這些問(wèn)題還是非??陀^(guān)的。此前也有不少新聞業(yè)內人士反映過(guò),低俗的信息會(huì )刺激人性中的陰暗面,吸引點(diǎn)擊量,在推薦算法的加持下,不知不覺(jué)我們的信息流上就全是婆婆小三、艷情野史。而得出的結論卻是,不是資訊平臺低俗,而是算法覺(jué)得你低俗。

“多數人的暴政”

這種情況被稱(chēng)為“多數人的暴政”。

大多數人會(huì )被低俗內容吸引,所以創(chuàng )作者會(huì )創(chuàng )作更多的低俗內容,去除人工編輯把控的中間環(huán)節,算法只會(huì )根據你有意無(wú)意的點(diǎn)擊把那些低俗的內容推上信息流。

這樣的現象不僅僅出現在中國,此前Facebook也深受各種驚悚標題黨的困擾。不過(guò)外國人的腦回路是很清奇的,Facebook推出了一項用戶(hù)決策機制,如果讀過(guò)之后感覺(jué)內容和標題嚴重不符,可以將其標注為假新聞,這樣就會(huì )降低這條消息的推薦權重。

尷尬的是,很多用戶(hù)會(huì )依照個(gè)人喜好隨意標注,甚至會(huì )因政治傾向對某一派別的新聞進(jìn)行惡意標注。最后Facebook不得已還是采用了算法進(jìn)行判斷——用機器學(xué)習對以往的標題黨標題進(jìn)行總結,對相似標題的文章進(jìn)行降權。就是“喂給”算法一批諸如“震驚了!”、“真相是這樣!刪前速看!”的標題,算法學(xué)會(huì )后,就會(huì )對類(lèi)似標題的文章進(jìn)行降權。

實(shí)際上“夸張的標題”、“假新聞”、“低俗內容”之間往往只有一線(xiàn)之隔,把決策權交給用戶(hù)是一項非常冒險的行為。不管是算法還是用戶(hù)投票,只要是在去編輯體制的平臺上,“多數人的暴政”都會(huì )出現。

完全依賴(lài)用戶(hù)抉擇,平臺會(huì )被視作沒(méi)有責任感、不作為;可如果平臺參與決策,又很可能破壞“算法推薦”這一原有的特色。這樣的矛盾,不管是Facebook還是今日頭條都正在經(jīng)歷,但對于國內用戶(hù)來(lái)說(shuō),不適感來(lái)得要更強烈一些。

在A(yíng)pp冷啟動(dòng)時(shí),用戶(hù)都會(huì )選擇好自己的興趣標簽??纱蜷_(kāi)信息流,還是會(huì )有一些低俗夸張的內容出現,甚至在選擇了“不感興趣”后,劃過(guò)幾屏類(lèi)似的信息還是會(huì )出現。要不就像新聞中說(shuō)的那樣,隨手點(diǎn)開(kāi)了一條低俗信息,立刻有大量類(lèi)似的信息涌入。

雖然幾乎沒(méi)有公開(kāi)談過(guò)其推薦算法都取決于哪些權值,但我們可以從目前主流的推薦算法中看看,今日頭條們可能錯在了哪里。

如果你的信息流不對勁,可能是因為…...

在推薦算法中,最常見(jiàn)的就是協(xié)同過(guò)濾算法。資訊類(lèi)產(chǎn)品常常會(huì )使用基于用戶(hù)的協(xié)同過(guò)濾算法,即利用K鄰近算法,找到和你興趣相近的用戶(hù),并把對方的喜好推薦給你。比如A、B兩個(gè)用戶(hù)都對時(shí)政、軍事類(lèi)的資訊感興趣,而A用戶(hù)也對歷史類(lèi)資訊感興趣,那么系統就會(huì )給B用戶(hù)推薦歷史類(lèi)資訊。

這種基于用戶(hù)行為的推薦機制,在豆瓣一類(lèi)更個(gè)性化的、社交屬性更強的平臺上更為精準??山袢疹^條這類(lèi)資訊平臺中,用戶(hù)群體更加繁雜,用戶(hù)行為往往也都是無(wú)目的性的——在豆瓣中標記某一部電影可能是為了告訴大家“我是看這種電影的人”,而在今日頭條中點(diǎn)擊一條新聞往往只是因為“想看看”。

這無(wú)疑給協(xié)同過(guò)濾算法的精確度帶來(lái)很大挑戰,用戶(hù)本身的屬性就是模糊的,如果你的信息流中不斷出現一些你不感興趣的東西,很有可能是平臺利用了這種算法,為你推薦了相似用戶(hù)的喜好。

不過(guò)資訊類(lèi)平臺利用最多的還是基于內容的推薦算法。如果說(shuō)用戶(hù)協(xié)同算法關(guān)注的是人與人之間的相似度,那基于內容的推薦算法關(guān)注的則是內容本身。

還是以電影為例,一部電影可以細分出影片類(lèi)型、年代、演員、導演等等多種元素。用戶(hù)標注了某一部電影,算法就會(huì )為他推薦同一導演的作品。這樣的推薦模式大多被適用于識別結構化數據——算法并不知道文章、影片中到底說(shuō)了什么,只能根據結構化數據標注判斷。

這就是為什么大多數資訊類(lèi)平臺都存在標簽和關(guān)鍵詞機制,算法要通過(guò)這些結構化標注對內容進(jìn)行判斷,再推薦給用戶(hù)。

這其中最大的問(wèn)題,就是關(guān)鍵詞機制的不準確。我曾經(jīng)在某平臺上標注了興趣“寵物”,本意是希望看到一些可愛(ài)的貓貓狗狗,然而某一天該平臺居然給我推薦了一段斗狗視頻,視頻下面居然也有寵物的標注。

資訊類(lèi)平臺中的內容越來(lái)越豐富,短消息、圖文、問(wèn)答都有。而關(guān)鍵詞標注只能對內容進(jìn)行浮于表面的理解,而內容中暗含的情緒往往會(huì )冒犯到用戶(hù)。而在流量的誘惑下,很多創(chuàng )作者會(huì )更傾向于生產(chǎn)具有刺激性情緒的內容。

斗狗、職場(chǎng)性騷擾、歷史艷情,這些內容本身似乎也是合規的,但其中暗藏的暴力、歧視、色情等等情緒,被掩蓋在寵物、職場(chǎng)、歷史等等標簽下,堂而皇之大哭污染著(zhù)我們的信息流。

那么出路在哪?

我們想知道的是,除了加強平臺對低俗內容的監管,是否還能從技術(shù)方面解決當前的問(wèn)題。

其實(shí)相關(guān)的研究結果已經(jīng)很多,比如谷歌推出的云端自然語(yǔ)言分類(lèi)功能,可以通過(guò)語(yǔ)言分析情緒。據稱(chēng)這項功能在分析了報紙的某一版面后,自動(dòng)將其中一篇菜譜歸入了美食欄目,還添加了具體的標簽。而且谷歌云的自然語(yǔ)言API還可以識別情緒,了解文章內容是積極的還是消極的。

更詳細的分類(lèi)和情緒識別,可以很好的解決上文提到的關(guān)鍵詞機制不精準問(wèn)題。而人民日報在文章中提到的,用戶(hù)興趣變化的問(wèn)題在業(yè)內也有過(guò)相關(guān)討論。有人提出過(guò)將用戶(hù)停留時(shí)間和內容相似度兩種數據權重加入到協(xié)同過(guò)濾算法中,以用戶(hù)在不同內容上停留的不同時(shí)間,來(lái)判斷用戶(hù)的興趣是否發(fā)生了變化,從而確定推薦內容的權重。

其實(shí)不管是谷歌的云端自然語(yǔ)言分類(lèi)這種高成本的解決方式,還是調整原有算法這種更簡(jiǎn)單易行的方式,用技術(shù)解決推薦算法的局限沒(méi)有想象中那么難,甚至對于低俗的內容,都已經(jīng)出現了“人工智能鑒黃”這種神器。

推薦算法是一種歷史悠久的技術(shù),發(fā)展到今天,電商、廣告的推薦越來(lái)越精準,資訊的推薦算法卻惹得天怒人怨,要是把鍋甩到算法上,恐怕有些不公。

有人說(shuō)算法呈現出的結果是人性本質(zhì)的體現,可從當下看來(lái),算法呈現出的更多是平臺、內容創(chuàng )作者這些利益既得者的人性。作為一個(gè)天天研究算法的普通內容消費者,我倒是覺(jué)得,越了解算法,就越不懂人性。

2
歡迎關(guān)注商界網(wǎng)公眾號(微信號:shangjiexinmeiti)
標簽算法  平臺  資訊  

評論

登錄后參與評論

全部評論(23)

廣告
廣告
廣告
商界APP
  • 最新最熱
    行業(yè)資訊

  • 訂閱欄目
    效率閱讀

  • 音頻新聞
    通勤最?lèi)?ài)

廣告