一、偏激的時代
我們正在迎來一個越發偏激的時代,網絡上、生活中戾氣橫行。
曾幾何時,當移動互聯網和信息革命以摧枯拉朽之勢席捲全球時,田園詩一般的浪漫氛圍曾經四處飄揚。人們滿心以為,信息網絡將徹底打破人與人之間的信息不對稱,地球變得扁平,世界變得透明,貧富分化終將逆轉,各個民族和階層有更多的機會對話溝通和解。
然而現實無情擊碎了人們的幻夢。僅以財富這一項看,在互聯網時代的20年裡,全球貧富分化加劇,僅以美國為例,根據《彭博》報道,前1%的富豪財富接近前90%精英階層的總和。放到全球的範圍,僅2017年,1%的富人就佔有了82%的財富。
馬修.傑克遜曾在《人類網絡》一書中指出,決定人與人不同階層和財富走向的核心有兩個:一是信息,二是機會(資源)。
那麼,在信息高度透明扁平的今天,為何人類的偏激和分化卻更加嚴重了?
有一個說法是“信息繭房”。
二、信息繭房的假說
2001年,美國法學家凱斯.桑斯坦在《網絡共和國》一書中曾經提出:互聯網時代,人們面對海量劇增的信息,會傾向於從中選擇符合自己喜好的加以吸收,結果每個人攝取的內容越來越狹隘,一步步滑入信息繭房。
比信息繭房更加激進的說法是“網絡巴爾幹化”,1996年美國學者埃爾斯泰恩和布林約夫森提出,網絡上的信息越來越多,人們喜歡的東西尚且看不過來,因此不會因為互聯網更加開放開明,反而會更加封閉極端。
兩個假說都指向了一點:信息的透明開放未必全都是好事,因為這樣一來信息爆炸了、信息太多了、真假信息難辨,人們根本就看不過來了。
儘管信息透明開放帶來了一種公平,但是人們“處理信息的能力和精力”參差不齊,這帶來了新的不對等。
於是新的矛盾似乎產生了。人們把指向頭條、淘寶這樣的“算法推薦”平臺,他們說:這些App基於某某算法對人做各種深度學習、大數據分析,最後推薦的都是人們感興趣的內容,這不是標準的“信息繭房”嗎?
這個說法看起來很簡單,也很粗暴,最大的問題在於“看輕了算法”。
“算法推薦就是,我看到時尚、旅遊、寵物的內容,停留的久,點了贊,結果以後平臺給我推薦的都是時尚、旅遊、寵物了。”他們總是這樣說。
但這只是基於“內容特點”的推薦,是一種最基礎、最表層的算法。如果僅僅只是這麼簡單粗暴,那麼這些公司很容易就會走入興趣的坑裡,面臨兩大困局:
1、人是豐富多元的,每個人的興趣偏好都是多樣的。你隨便問一個人他的愛好是什麼,他自己可能也很難準確表述自己的興趣構成。
2、人們的興趣又是善變的,新的興趣點隨時可能湧現,而一些感興趣的內容因為過度消費反而可能突然“膩味不感冒”了,從此邊際效益遞減。
就好像,天天在網上看萌寵,沒準哪天就忽然不想看了,再看也不萌了。
事實上,無論頭條、阿里,還是國外的臉書、谷歌,採用的算法維度都沒這麼簡單。
三、算法的維度
一個成熟的算法推薦系統,至少需要考慮五個維度。
一是算法模型。常見的有協同過濾算法、監督學習算法Logistic Regression、深度學習、Factorization Machine、GBDT五種模型。
比如協同過濾模型,系統不斷分析用戶大概是怎樣的人,然後進一步找到和他相似屬性的人,根據這一類人的興趣愛好進行推薦,把相似的內容推薦給臭味相投的人。也就是說,決定推薦的,不僅是看你一個人今天點讚了什麼,更要看和你相似的人們喜歡什麼。
以一個“人群”為基數進行海量持續分析,不斷迭代優化,還會陷入信息繭房嗎?
二是內容分析。比如一篇文章的語義特徵(關鍵詞、Topic、實體詞)、文本相似性特徵、時空特徵。
三是用戶標籤。除了用戶的興趣、聚類、性別、年齡、地點等身份特徵,還要圍繞用戶行為做好數據處理策略,比如過濾噪聲、熱點懲罰、時間衰減、懲罰展現。
四是結果評估。如何兼顧短期和長期指標,如何兼顧用戶指標和生態指標,如何通過ABtest實驗持續優化推薦結果?
五是安全規範。比如電商平臺的反黃與合規,比如內容平臺的ugc內容審核、風險內容識別技術(鑑黃、反謾罵及低俗)、泛低質內容識別(假新聞、洗稿、標題黨等)。
可見,真正的算法推薦系統遠比“喜歡看蛋糕推薦蛋糕”要複雜得多,也深入得多、智能得多。
把鍋甩給技術和算法從來都是最簡單不費力的方法,只不過這樣一來人們就會拒絕更深入的反思和改變。
美國明尼蘇達大學計算機系專門進行了實驗,讓兩組人同時在協同過濾算法推薦的平臺上獲取內容,一組人對推薦結果進行“跟隨”,一組人對推薦結果毫不理會。
實驗結果和一般的認知完全相反:綜合21個月的數據,跟隨組獲得的信息更加豐富多元,不理會算法推薦的一組,視野反而更加狹窄了。
前幾天今日頭條的CEO朱文佳在生機大會上說,頭條要做的就是通用信息平臺,通過推薦、關注、搜索來分發圖文、視頻、音頻、問答等各種信息內容,這種內容和分發手段的多元組合不僅不會帶來信息繭房,還會帶來一個“更大的世界”。
他說的可能是大實話,就像前面所說,如果頭條們做的僅僅是“喜歡看萌寵就推薦萌寵”這種最粗淺的推薦,那麼一定會無法解決人們興趣的多元、興趣的善變和興趣滿足的閾值提升。
君子不立於危牆之下,如果不對人們進行更加深度的算法學習,今日頭條根本不可能有今天。
四、興趣,還是態度?
事實上,喜歡篩選感興趣的內容本來就是人類的習慣,是天性和本能。
試想,無論讀書看報,還是逛書店、看電視,你是不是首先都要找自己感興趣的?
即便早期的網站,是不是也有主題和版塊,方便你去篩選?
算法推薦只是加速了這一進程,讓人們面對海量信息時、篩選感興趣的內容更加簡單高效。
前面說過,信息的爆炸帶來了新的馬太效應,在信息處理能力和精力上優裕的人變得更有優勢。從這個角度說,算法推薦不僅不是造成分化的關鍵,反而是一種效率提升手段,幫助能力精力上並不佔優的人彌補不足、提升效率,為什麼反而要背鍋呢?
每一次探討人類的“偏激化”和“選擇性認知”,我們都必須釐清一個概念,興趣和態度。
興趣並不會讓人偏激,只有對某件事情的態度、觀點和立場持續強化,變得封閉極端,人們才真正開始偏激起來。
比如說,你的興趣可能是足球,你的態度可能是對中國男足很不喜歡,如果這個情緒不斷強化變成切齒痛恨了,你是不是就偏激了?
從這個角度說,算法推薦只能推薦你“感興趣”的內容,卻並不能瞭解你的“態度、觀點和立場”,推薦你“喜歡擁護”的內容。
算法推薦可能知道你對智能手機感興趣,會給你推薦錘子的內容,卻並不知道你打心眼裡不喜歡羅永浩,所以錘粉錘黑錘中立的東西都一股腦兒過來了。
算法推薦可能知道你對健康非常關注,會給你推薦醫療領域的消息,但並不知道你對中醫或者西醫的態度,所以它都會推薦。
分化裂化的罪魁禍首不是算法推薦,因為真正導致分裂的不是興趣,而是人們在同一興趣中不同的態度和立場被不斷強化。
這就是常說的網絡迴音室原理,對於同一問題,人們總是喜歡聽到和自己相似的觀點,過濾相反的觀點,最後接收到的就像是自己的迴音一樣。
是什麼在催生網絡的迴音室?如果算法推薦並不會帶來信息繭房,究竟是什麼在帶來信息的“偏食”和情緒的偏激?而我們,又該如何應對和破解?
五、真正該警惕的
一個答案可能是“單一”。
單一的信息獲取渠道、單一的信息溝通模式是問題的根源。
無論是隻在網站看編輯置頂,還是隻在朋友圈看別人轉發的文字,亦或者只關注大V的分享,甚至只聽憑算法的推薦……只要一個用戶、他對某一信息獲取和溝通模式形成“路徑依賴”,那麼視野就可能漸漸變窄。
其實,每一種信息分發方式都有其獨有價值,編輯分發帶來的是“你應該知道的”,搜索帶來“你想知道的”,推薦帶來“你可能感興趣的”,關注帶來“你關心的人的動態”。
每一種分發方式都不可或缺,只有豐富多元的信息獲取組合,搜索、關注、算法、熟人和陌生人整合起來,才能避免信息的偏食,這可能也是大平臺們正在試圖成為“綜合化”的原因。
谷歌、百度不僅做搜索引擎,還在搜索結果之外加入內容推薦;微博在單純的關注流和熱搜之外,增加智能推薦和視頻;頭條則是算法推薦、要聞熱文、大V關注、搜索多合一。
只有整合足夠豐富的信息分發模式,甚至成為通用信息分發平臺,才能從根本上避免信息繭房,進而全方面、智能化地瞭解用戶、滿足其信息需求。今日頭條所說的“一橫一豎”,也恰恰是圍繞這方面來演化的。
另一個答案可能是“孤獨”。
最近幾年社交衰退,人們正在從社會性動物,變成孤獨型生物。
人們越來越不願意面對現實社交的風險、壓力和不確定性,也越來越不願意為了別人妥協遷就。虛擬網絡的發展讓人們更加沉迷於“不依賴他人”的娛樂,比如遊戲和直播。各種消費服務的完善也讓人們的日常生活越來越不需要與他人社交協作。
這樣的社交繭房帶來了這樣一個結果:人們越來越懶得和陌生人溝通交流,即便對於已經認識的人,也傾向於選擇和觀點立場一致的人進行溝通。
“好吧”正在成為越來越多現代人拒絕溝通的常用語,而“默默拉黑”則代替“正面剛”,成了非暴力不合作的標配。
第三個答案是“情緒”。
從微博到公眾號,從條漫到短視頻,從咪蒙到盧克文,內容生產者和KOL們正越來越善於利用人們的情緒,好事不出門,壞事傳千里,理中客或許正確,但遠不如非黑即白的偏激情緒更能驅動大眾的傳播,更能帶來流量。
正如《弱傳播》一書中描述的那樣,早在勒龐的時代,善於煽動引發傳播就已經是公開的秘密。但是在今天、基於大數據的情緒驅動讓一切變得套路化、標準化甚至科學化。
獲取信息上路徑依賴,溝通信息上社交衰退,消化信息上感情用事,比起算法推薦信息繭房的假說,或許這三個問題才更加根本,也更加隱蔽。
作者張俊,上海帥醒創始人,公眾號阿辯論(ID:bianlunlove),個人微信13385698365。
閱讀更多 辯手李慕陽 的文章