• 精選
  • 會員

個性化推薦算法不會導致“繭房”“回音室”

2019年7月2日來源:方可成的新聞實驗室 作者: 提供人:zikang65......

原標題:算法導致“繭房”“回音室”?學術研究的結果可能和你想的不一樣

使用社交媒體以及帶有算法推薦功能的資訊類APP,是否會導致我們只看得到自己感興趣的、認同的內容,進而讓大家都活在自己的小世界里,彼此之間難以認同和溝通?從幾年前開始,就有不少人擔心這種負面后果。

這種擔心在2016年左右到達高峰。Facebook創始人扎克伯格在回顧2016年的時候,就將“我們能見到的觀點是否足夠多元”和“信息是否真實”列為兩大主要的挑戰——也就是說,這個問題的嚴重性是和假新聞相仿的。比爾·蓋茨也在2017年初接受采訪時表示:科技讓你和觀點相似的人聚在一起,讓你看不到不一樣的觀點,“這個問題比我以及其他很多人預料的都要嚴重?!?

近幾年來,學術界也投入了大量的資源研究這一問題,傳播學、計算機科學、經濟學等學科都有學者在研究相關課題。由于學術出版流程較慢,從2016年左右開始的研究,直到2018年才逐漸大規模發表。

出人意料的是,大部分學術研究的結果都沒有支持“社交媒體和算法推薦導致視野變窄”這樣一種簡單的結論,而是展現出了更加復雜的圖景。

算法導致“繭房”“回音室”?學術研究的結果可能和你想的不一樣

概念:“信息繭房”是一個很少被使用的說法

在中文世界里,很多人使用“信息繭房”這一概念來描述社交媒體和算法推薦帶來的視野變窄問題。雖然這一概念最初來自西方(翻譯自“information cocoon”),但英文學術界其實很少使用這一概念。在谷歌學術搜索“information cocoon”,得到的大多數結果是中文期刊論文的英文摘要。

那么,歐美的研究者們用什么概念來描述這一問題?最常見的是“信息回音室(echo chamber)”,有時被使用的還有“過濾氣泡(filter bubble)”。

為什么這兩個概念比“信息繭房”要更加適合?首先,“回音室”突出的是“人們聽到和自己類似的聲音”,也就是所謂“回音”,而“繭房”則只營造了“束縛”的感覺,難以傳達“意見同質性”這一特質。其次,“過濾氣泡”強調的是社交媒體上的人際關系以及算法推薦功能帶來的信息過濾效果,而“繭房”同樣不能表達這種含義。

因此,在本文的討論中,我們也采用“信息回音室”這一概念,而不使用在英文世界中并不流行的所謂“信息繭房”。

我系統性地閱讀了近年來發表在一流學術期刊上的針對“信息回音室”和“過濾氣泡”效應的學術研究,發現大部分研究都顯示:使用社交媒體和算法推薦app的人,并沒有明顯出現視野變窄的現象,大多數人閱讀的內容依然有相當的多樣性。我將主要的相關論文列在了文末的參考文獻中。

為什么社交媒體和算法推薦并沒有導致“信息回音室”現象?從這些論文中,我們大致能總結出幾個方面的因素。

因素1:算法是有不同類型的

當人們在討論“算法導致信息回音室”的時候,往往是將“算法”視作一種單一的、同質性的存在,似乎普天下只有一種算法。實際上,算法有著多種類型,并且在不斷的調整、變化中。

明尼蘇達大學計算機系的幾位研究者,做出了第一篇針對算法推薦系統在用戶層面的“過濾氣泡”效應的實證研究(參考文獻10)。他們使用的是來自電影評分和推薦網站MovieLens的數據。這個網站有點像我們熟悉的豆瓣網,不過只有電影內容。從1997年上線以來,這個網站已經運行了二十余年,用戶數超過二十萬。

注冊使用該網站、對自己看過的電影進行一些評分之后,網站會向你展示“Top Picks For You”,也就是根據算法向你首選推薦的電影,類似于豆瓣的“猜你喜歡”。

這里的重點是:MovieLens所使用的算法叫做item-item collaborative filtering (CF)算法,也就是“基于物品的協同過濾算法”。

“協同過濾算法”的基本思路是:計算興趣愛好的相似程度,把東西推薦給“臭味相投”的人。常見的協同過濾算法有兩種,一種是基于用戶的(user-based),也即計算用戶之間的相似性,如果A和B的興趣相近,那么A喜歡的電影,B也很有可能喜歡。另一種是基于物品的(item-based),也即計算物品之間的相似性,如果電影C和電影D很相似,那么喜歡電影C的人,可能也會喜歡電影D。

算法導致“繭房”“回音室”?學術研究的結果可能和你想的不一樣

協同過濾算法圖示:左邊是基于用戶的算法,右邊是基于物品的算法

基于物品的協同過濾算法被廣泛使用于各類推薦系統中,包括亞馬遜的商品推薦系統。今日頭條的算法中也有一個主要部份是協同過濾。

也正因為被廣泛使用,因此這篇論文的研究者認為,他們的研究結果可以推廣到電影推薦之外的其他算法推薦系統中。

研究者們選取了21個月的數據。他們將用戶分為兩組,一組是根據算法推薦選擇電影觀看的,叫做“跟隨組”;另一組是不理會算法推薦的電影,叫做“不理會組”。他們發現:算法向“跟隨組”推薦的電影,一直要比向“不理會組”推薦的電影更加多元化。也就是說,根據算法的推薦選擇電影,然后進行打分,其實會讓算法更好地學習到你的喜好,并且給你推薦更多樣的片子;而如果不根據算法的推薦來看電影和打分,反而會讓算法給你推薦更窄的片子??雌饋?,這種協同過濾算法其實能夠幫助用戶打開視野,探索更多樣的內容。

以上計算的是算法展示的電影,那么,用戶們實際上消費的電影是不是真的變得窄化了呢?分析顯示:是的,大家看的電影多樣性下降了。不過,令人吃驚的是:“跟隨組”的下降幅度其實不大(從26.67到26.3),而“不理會組”的多樣性下降卻比較大(從26.59到25.86)。也就是說,在不使用算法推薦的情況下,用戶的視野反而變窄得更快。

研究者指出:基于內容的推薦算法可能會比較嚴重地窄化用戶的視野,但協同過濾算法則不會,因為它依據的不是你之前看了什么,而是和你相似的其他人喜歡什么,這有助于向你推薦你自己本不會接觸到的更多樣內容。

因素2:我們的社會關系是復雜的

在大多數使用了算法推薦的平臺上,也都融入了社交關系的元素。例如,Facebook的信息流(news feed),雖然是基于算法排序的,但同時也是被社交關系決定的——算法決定的是信息呈現的次序,但并不能決定有哪些信息會被排序,因為那取決于你有哪些好友,關注了哪些專頁(page,一個專頁類似于一個微信公號)。今日頭條等資訊類APP也是一樣,你可以在上面關注人和號,然后你關注的人閱讀和分享的內容進一步影響你能讀到的內容。

2018年發表于學術期刊《Digital Journalism》的一篇論文(參考文獻2),研究了Facebook用戶們是否生存在信息回音室之中。兩位研究者獲取了1000名丹麥Facebook用戶在14天內的時間線數據。

研究者們通過兩種方式來測量用戶是否處在信息回音室之中。第一種方式,是看大家在Facebook上分享的外部鏈接(比如一則指向媒體網站的新聞報道)有多相似,如果一群人分享的鏈接基本一致,就可以認為他們都生活在同一個回音室之中。數據分析發現:以分享的外部鏈接來測量的話,只有少于10%的參與者可以被認為處在回音室或者過濾氣泡之中。

第二種方式,是看大家在Facebook上撰寫發布的內容是否相似。研究者們使用了計算機自動分析文本主題模型的方法,計算每位用戶發布內容的相似性。分析結果顯示,以這種方式計算的話,少于27.8%的用戶生活在Facebook的回音室或過濾氣泡中。

這兩個數字都大大低于預期,說明算法排序的社交媒體平臺上并不存在很嚴重的回音室現象。但這篇論文更有意思的發現是:要預測一個用戶是否生活在回音室之中,最佳的指標是用戶個人的“社會性”。具體來說,如果一個用戶的好友數越少,關注的專頁越少,加入的群組越少,那么他(她)就越有可能身處回音室之中。反之,一個廣結好友、關注了大量專頁的用戶,生活在回音室之中的機率是很小的。

算法導致“繭房”“回音室”?學術研究的結果可能和你想的不一樣

這表明,即便是在算法推薦的平臺上,用戶自身的行為對其接觸到的信息是否多元,也有著非常重要的影響。我們在算法推薦平臺上看到的內容,從來就不是單純被機器決定的。

因素3:我們并非只讀特定內容的生物

“社交媒體和算法推薦導致信息回音室”這一判斷成立的一個重要前提是:我們只會點擊那些我們熟悉的、贊同的內容,不斷讓機器加深對我們的印象:原來他們只喜歡看這些!

但在現實中,這個前提是過于簡化的,乃至是錯誤的,因為我們遠不是那么機械、呆板的動物,我們也很清楚:只讀特定內容,并不是一件對我們有利的事情。

從認知心理學的角度來說,人們確實有“確認偏見”(confirmation bias),也即更愿意相信自己已經認同的內容。但是,人們的認知偏見中也包括這樣的成分:我們更容易注意到那些奇特的、超出我們預料的內容。我們都有這樣的體驗:看到一個意想不到的標題時,會更忍不住去點擊,想看看究竟。這也就導致了,即便僅僅根據我們的點擊行為來推薦內容,也不大可能走進一個越來越窄的死胡同。

從成本和收益的經濟學角度來說,那些我們不熟悉的、意料之外的內容,往往對我們更有幫助,因為它們可能會補上我們的知識盲區,提醒我們注意那些有意無意被忽略掉的內容。閱讀更多元的內容,會讓我們收益更多。因此,如果你是一個帶著提升自我的目的去閱讀的人,往往也更不會只去點擊那些興趣之內、預期之內的內容。

在2018年發表于學術期刊《Information, Communication & Society》的一篇論文中(參考文獻4),研究者們發現:總體而言,人們對于信息回音室效應的擔心是被夸大了的。尤其是,那些對政治感興趣的讀者,實際上會受到好奇心的驅使,去消費更多樣的內容,視野并不會受限。

實際上,我們所面對的是一個選擇極大豐富的媒介環境。在這樣的環境下,人們出于各種各樣的原因,有動力去獲得多樣的內容。在這樣的基礎之上,基于閱讀行為的算法推薦更不太可能限制住人們的視野。

因素4:我們喜歡夸大媒體的負面影響

絕大部分學術研究之所以沒有發現信息回音室效應,可能還有一個原因,那就是我們“心口不一”:明明實際上看的是很多樣的內容,嘴上卻喜歡說自己被社交媒體和算法限制住了視野,喜歡抱怨媒體的負面影響。這就是奈特基金會2018年的一篇研究報告(參考文獻8)發現的:我們沒有陷入到過濾氣泡中,但是我們卻喜歡表現得好像自己陷入其中。

在這則研究中,研究者找來一群受試者,先讓這群受試者報告他們最近閱讀或者觀看了哪些媒體;同時,研究者又通過網頁瀏覽歷史跟蹤這些受試者實際上消費了哪些媒體。簡單來說就是聽其言,觀其行。先看受試者自己怎么說,再看他們實際上怎么做,然后比較兩者之間的差異。

結果顯示:受試者向研究人員過度報告了自己??吹囊恍┟襟w(通常是和自己的態度相近的媒體),而沒有報告另一些自己看過的媒體(和自己的意見相反的媒體)。舉個例子,在美國的語境下,如果你是一個自由派,你平??赡芗瓤醋杂膳傻拿襟w,也接觸到了保守派的媒體,但是在向研究人員報告自己的媒體消費情況時,你只報告了自由派媒體,而隱藏了自己消費的保守派媒體。在保守派身上,類似的情況同樣成立,他們告訴研究人員他們最主要的信息來源是保守派的??怂剐侣?,但是研究人員從他們的網頁瀏覽記錄中發現,他們也會看自由派的CNN和《紐約時報》。

為什么受試者會過度報告其中的一些媒體而隱瞞另一些媒體?該研究認為,這是因為人們越來越把自己的媒介偏好和媒介消費當作是一種政治表達和政治宣示的手段,即:我看什么媒體代表了我是什么樣的人,以及我相信什么。這種現象,推廣到其他國家的其他語境下同樣也成立——比如,一些之前喜歡看咪蒙的人,可能嘴上也號稱自己從來不看咪蒙,因為看咪蒙被視為一種身份象征。

這也是為什么絕大多數針對信息回音室現象的學術研究,都不會直接去問用戶:你覺得自己生活在算法導致的信息回音室中嗎?人其實很難正確回憶總結自己的行為,往往是根據自己的信念來對事實進行扭曲和粉飾。所以,人們對信息回音室現象的批判,在一定程度上可能是因為“我覺得有信息回音室,我不喜歡算法這種東西,所以我認為自己閱讀的內容是同質的”——而實際上,我們的視野并沒有明顯縮窄。

算法導致“繭房”“回音室”?學術研究的結果可能和你想的不一樣

結語:影響視野寬度的三個層面

總結關于社交媒體和算法推薦是否導致信息回音室現象的學術研究,我們可以發現,影響我們閱讀視野的其實有三個層面的因素:個體、社會和技術。

在個體層面,我們有著多樣的閱讀動機,受到各種認知偏見的影響,可能傾向于點擊某些特定類型的內容,但絕不僅僅局限于自己認同的那些。

在社會層面,我們在大多數APP上都存在著社交關系,以及主動選擇關注的帳號,這些都對我們能接觸到的內容產生重要影響。一個在APP上擁有豐富社交關系的人,不太可能陷入狹窄的視野當中。

在技術層面,算法推薦有著不同的類型、不同的原理。被廣泛使用的協同過濾算法,實際上并不會縮減人們的視野,甚至有時能打開更大的世界。

在這些因素的共同作用下,社交媒體和算法推薦并未形成明顯的信息回音室和過濾氣泡效應。退一萬步而言,即便我們依然擔憂技術可能帶來的負面影響,我們也應該認識到:只要我們在個體層面保持著對多樣信息的好奇心和求知欲,在社會層面維持更加多元的社交關系,我們就有足夠的能力去抵消這種可能的負面影響。很多時候,真正把心靈關閉、把視野縮窄的不是算法、不是他人,而是我們自己。

主要參考文獻:

  1. Auxier, B. E., & Vitak, J. (2019). Factors Motivating Customization and Echo Chamber Creation Within Digital News Environments. Social Media+ Society, 5(2), 1-13.
  2. Bechmann, A., & Nielbo, K. L. (2018). Are We Exposed to the Same “News” in the News Feed? An empirical analysis of filter bubbles as information similarity for Danish Facebook users. Digital journalism, 6(8), 990-1002.
  3. Cardenal, A. S., Aguilar-Paredes, C., Cristancho, C., & Majó-Vázquez, S. (2019). Echo-chambers in online news consumption: Evidence from survey and navigation data in Spain. European Journal of Communication, 1-17.
  4. Dubois, E., & Blank, G. (2018). The echo chamber is overstated: the moderating effect of political interest and diverse media. Information, Communication & Society, 21(5), 729-745.
  5. Flaxman, S., Goel, S., & Rao, J. M. (2016). Filter bubbles, echo chambers, and online news consumption. Public opinion quarterly, 80(S1), 298-320.
  6. Fletcher, R., & Nielsen, R. K. (2018). Are people incidentally exposed to news on social media? A comparative analysis. New media & society, 20(7), 2450-2468.
  7. Gentzkow, M., & Shapiro, J. M. (2011). Ideological segregation online and offline. The Quarterly Journal of Economics, 126(4), 1799-1839.
  8. Grossman, M. (2018). Partisan Media and Political Distrust. Knight Foundation.
  9. Nguyen, A., & Vu, H. T. (2019). Testing popular news discourse on the “echo chamber” effect: Does political polarisation occur among those relying on social media as their primary politics news source?. First Monday, 24(5).
  10. Nguyen, T. T., Hui, P. M., Harper, F. M., Terveen, L., & Konstan, J. A. (2014, April). Exploring the filter bubble: the effect of using recommender systems on content diversity. In Proceedings of the 23rd international conference on World wide web (pp. 677-686). ACM.
  11. Zuiderveen Borgesius, F., Trilling, D., M?ller, J., Bodó, B., De Vreese, C. H., & Helberger, N. (2016). Should we worry about filter bubbles?. Internet Policy Review. Journal on Internet Regulation, 5(1).

算法 / 繭房 / 回音室 / 信息繭房

如涉及版權,請著作權人與本網站聯系,刪除或支付費用事宜。

0000
开心斗地主