天天捕鱼游戏中心
熱門頻道

全世界都討厭極端情緒,可社交平臺保持中立這件事并不容易    

平臺的所謂“中立”的邊界在哪里?YouTube將有一個怎樣的未來?

  

所有網絡社區都倡導公平、開放和共享的價值觀并希望保持絕對中立,但陰謀論、色情、暴力、仇恨言論等擦邊內容總站在流量高峰。若算法一味順應人性,只會加重平臺上的極端情緒,而如果平臺出手干涉內容,邊界在哪里?

  

這是自互聯網誕生以來才出現的問題,我們無法從前人的案例中獲得經驗。當下的平臺如何定義自己的身份,也將決定自己會如何被寫入歷史。

  

YouTube誕生第14年,平臺上每分鐘新增視頻素材長達500小時。根據個人喜好差異,算法為他們定制了最合適的內容。當YouTube終于成為足以影響一代人的全球內容平臺,終極問題出現:平臺的所謂“中立”的邊界在哪里?YouTube將有一個怎樣的未來?

  

影響力時代,社交平臺的隱患

  

Maza vs Crowder,被擺上臺面的隱患

  

今年5月30日,vlogger、科技媒體Vox的評論家Carlos Maza在一條推文里指責YouTube的內容審查和網絡暴力管理松散,很快刷屏。

  

Maza在視頻里指責一位擁有400萬YouTube粉絲的博主、喜劇演員Steven Crowder,稱其粉絲對自己發表了大量極端的侮辱性言論,尤其對Maza的種族和性取向出言不遜。

  

此前,Crowder在一條視頻里提及Maza,粉絲們便聞風而動,更早之前,Maza突然收到了無數條短信,上面全是“去和Steven辯論啊!”

  

  

Maza向YouTube平臺反映了這些狀況,無數次。然而,毫無回應。

  

而Maza這條視頻,似乎是對YouTube社區規則的一次無情諷刺。

  

今年初,YouTube高管宣布再次重新考慮網絡言論的問題。長期以來,YouTube自詡言論自由、態度中立,允許用戶上傳任意視頻——哪怕視頻中表達對某些思想,比如陰謀論和新納粹主義的公開支持。

  

于是,YouTube CEO Susan Wojcicki表示,要帶領團隊完成兩大目標,一是擺脫外界對意識形態偏見的指控,二是保持公司價值觀,盡管二者互相沖突。

  

YouTube隨后發布了新政策,清算否定主義(比如對猶太人大屠殺和911事件的否定)和至上主義(比如宣稱白種人、男人優于一切的言論)視頻。YouTube原計劃要在今年6月正式執行新政策,但Maza在5月——支持LGBTQ群體驕傲月發布的推文,將YouTube的內容審查問題擺在了大眾面前。

  

Maza發布視頻后,Crowder在推特和YouTube上回應,戲謔Maza就是“娘兒們”和“Vox Gay式”文化代表。這一邊,Maza的支持者存下了指控平臺的證據——Crowder的視頻依然有前貼片廣告,這表明平臺方依然會給熱門視頻提供流量分成,換句話說,平臺方隱晦地表明了對Crowder視頻的寬容。

  

在Maza的推文刷屏之后,Youtube方面表示必將自查。一周后,平臺稱,經徹查,Maza指出的Crowder違規視頻并沒有違反社區準則。但第二天,平臺宣布新政策:違規視頻不再享受廣告分成,其中就包括Crowder。

  

處罰沒有讓任何人滿意。Maza希望平臺完全、永久移除Crowder的視頻;支持Maza的YouTube員工也站了出來,在推特和媒體上指責YouTube。

  

撰寫YouTube第一版社區指南的技術咨詢師Micah Schaffer說,“YouTube總是這樣,就像之前想用新的算法改變新聞傳播一樣,最后只是直接和‘壞新聞’合二為一了,變得更糟糕。”

  

其它前同事也很困惑,“YouTube到底在搞什么?”他們的的郵件、短信如潮水般飛到Schaffer這里。

  

YouTube到底怎么了

  

事實上,從一開始,仇恨言論就是YouTube上的一大隱患,Schaffer說,“只不過早期的解決方式相對直接。”

  

在2005年,YouTube早期創立時,創始人Chad Hurley、Steve Chen和Jawed Karim承擔了大部分的審核工作,一年之后才雇傭了一名兼職審查員。平臺對問題視頻做出移除處理,很少有人駁回。但14年過去,事情早已發生了變化。

  

YouTube母公司谷歌的CEO Sundar Pichai曾向科技媒體Axios表示,目前,YouTube的月活用戶超過20億,雇傭的審查員成千上萬,而每一分鐘上傳到YouTube上的新視頻,達500小時。

  

對于這種規模的平臺,面臨的技術、內容審查挑戰前所未有。平臺面臨的根本問題并不是YouTube的商業模式,深層原因是社交媒體發展成了什么樣子,以及它本應該是什么樣子。

  

技術無法解決一切問題

  

或許是因為社交平臺龐大的規模,人們天然認為,技術就是仇恨言論的最佳解決方法——它相對沒那么明顯,程序員會在幕后默默解決棘手的問題。理論上說,平臺會不斷對算法進行微調,降低仇恨言論和陰謀論的權重,但在實際執行中,難度比想象中更大。

  

視頻中出現明顯的語言或標識的仇恨內容可以直接移除,但擦邊球內容卻很難被檢測到,因此無法阻止大規模傳播。目前,機器學習技術也在嘗試分辨真正的仇恨言論和批判仇恨言論視頻的區別。

  

還有一種解決仇恨言論的方式,是自動化系統利用元數據標記出有害內容,通過收集某個用戶的發布頻次,某個視頻在短期內獲得的評論數,找到有害內容的內在關聯性。但其限制性在于,只關注了平臺上的內容,忽略了它煽動起來的互動。

  

除了技術限制,科技公司雇傭了大量人力,判斷視頻里的細微差別。在YouTube,他們被稱作評級人(Raters),身份匿名,評估視頻內容,還會幫助訓練推薦系統。但有害內容的反噬也隨之而來:大量瀏覽和篩選有害視頻,引發了審查員的心理問題。

  

今年初,YouTube宣布要更關注用戶的反饋,包括調查結果,點“喜歡”和“不喜歡”的數據,以幫助系統標記視頻的質量。然而,2016年YouTube工程師撰寫的一篇白皮書卻表示,這些指標意義并不大:

  

相較于類似用戶點擊什么視頻、觀看時長這種模糊反饋,用戶能給出的明確反饋少之又少;更甚的是,平臺的主要用戶群體,青少年,卻常常只給出一些惡搞的調研答案。

  

商業與內容之間不可調和的矛盾

  

商業上的挑戰也加劇了技術的難度。

  

往大了說,任何以抑制用戶互動為目的的調整,都可能和YouTube的商業模式相悖。作為YouTube主要對手的Netflix,通過對優質內容的采買編輯,打造了讓人上癮的爆款,帶來訂閱用戶的一路走高;相比而言,YouTube強調的UGC內容,只能通過自動化推薦系統將內容串聯起來。

  

事實上,YouTube一直在不斷調整,但平臺方始終不愿公布調整細節。不過,2018年的一篇文章透露出一些平臺規則:用戶開始觀看視頻后,系統將在設定下“對該選題視頻進一步深挖,吸引用戶掉進‘兔子洞’而無法自拔”。

  

研究人員對此表達了不滿:平臺算法雖然增加了用戶黏性,但也進一步放大了平臺上的仇恨言論和陰謀論。系統挖得越深,令人不適的推薦越可能浮出水面。舉個例子,如果一直推薦“登月”視頻,那關于“登月造假”的視頻也會相應地出現。

  

詹姆斯麥迪遜大學的傳媒學者Fancesca Tripodi對陰謀論者如何在互聯網上持續傳遞假消息做了深入研究:如果平臺某一“兔子洞”為空,持續生產上傳相關內容填滿這個話題,就能左右其方向。在4月的參議院委員會上,她表示,“當只有有限的或者沒有元數據匹配某特定話題時,很容易圍繞關鍵詞進行調整,以保證谷歌反饋的信息類型(是我們想要的內容)。”

  

煽動分子可能利用信息缺失,使自己的視頻出現在真正的新聞推薦中,而具有爭議和獵奇性質的視頻往往更有吸引力,它們會被推薦系統打上“高互動性”的標簽,也更容易有露出機會。而往往,平臺的自動化系統都會做出同樣的推薦。

  

YouTube平臺是保持中立的嗎?

  

對于用戶而言,社交媒體的價值常常和開放性有關。草根用戶組成了線上社區,他們創造內容又反過來服務于普通用戶,這是大家樂于見到的現象。

  

然而,算法和管理者,一步步重新塑造了社交媒體平臺的民主中立性。

  

YouTube創辦初期,員工手工篩選出爆款,掛在首頁的“時下流行”一欄里。所以,誰漲粉,誰爆款,完全由平臺說了算。

  

此外,人工篩選也塑造了平臺氣質:當某一類型內容獲得更多曝光,自然向創作者傳達出一種信息——這種內容在平臺上更受歡迎。Schaffer回憶起創立初期的平臺內容,當時平臺最推崇的是家庭向,無版權風險,且有吸引力的內容。

  

并不中立的創作者革新計劃

  

2016年,YouTube大力推出“創作者革新”計劃(Creators for Change),讓更多有社會責任感的創作者加入其中,YouTube市場營銷經理Paul Marvucic認為,他們組成了一個社會影響力團體,“相信創作者,這是我們的核心價值觀。”

  

去年12月,谷歌CEO Sundar Pichai在國會上接受議員對社交媒體平臺的政治影響力的提問,Pichai表示,“打造一個無偏見的平臺,對我們非常重要。”

  

話雖如此,實際上,創作者革新計劃卻要求YouTube必須選擇一種意識形態站邊。去年秋天,為紀念聯合國人權宣言發布十七周年,YouTube在聯合國的經濟社會論壇上舉辦了一場面向大中學生的活動,5名創作者作為大使,和聯合國人權事務高級專員辦事處處長Craig Mokhiber一起出現在臺上。這無疑是一種站邊。

  

整個2018年,YouTube招募了47名大使,投入近500萬美元,除了邀請博主參與,另一部分投入學校,幫助學生應對煽動性視頻。YouTube內部人士透露,2018年,大使們的視頻帶來了數萬的觀看時長。很多觀眾通過觀看創作者革新計劃的視頻看到YouTube的自動化廣告:這也意味著,平臺在其中同時也實現了盈利。

  

被扶持創作者的兩種“命運”

  

在創作者革新計劃中,一名創作者是來自孟買的喜劇明星Prajakta Koli(頻道:MostlySane),她有400萬粉絲,她經常在視頻里展現在大學餐廳碰到的暴躁人士,或是約會陷阱里的外國人。

  

她的內容都圍繞這一個主旨,“不冒犯”(No Offense)。

  

在一個MV里,Koli穿著睡衣,沒精打采窩在沙發里,鏡頭另一邊,是她一人分飾多角,扮演恐同者、厭女癥和網絡暴民。接下來,沙發上的自己戴上拳擊手套,在rap battle中挨個擊倒了“自己”。

  

這條視頻已經有1200萬觀看量,是Koli最受歡迎的一條視頻。后來,Koli開始嘗試聊一些更“重”的選題了,比如從自己出發,聊聊離婚和身材羞辱。

  

于是,YouTube開始運營相關話題,在“不冒犯”的內容上投入了相關的營銷預算,在平臺幫助下,Koli的視頻大獲成功。

  

第二個案例來自AsapScience,前高中教師Gregory Brown和男朋友Mithcell Moffit共同創辦的科普動畫頻道。

  

通過YouTube創作者革新計劃提供的資金,倆人制作了一條關于科學評估種族主義影響的視頻。這個耗時一周制作的視頻,圍繞內容展開的種族主義相關的錯誤信息和惡意討論卻長達七八個月。Brown說,在這方面,平臺需要優化,需要做更精準的推薦。

  

比起那些毫不費力的有毒內容,Brown制作的研究結果、調研參數、最終結論的視頻,往往顯得沒意思,這是個很大的挑戰。

  

最近,科普視頻AsapScience的創作者Gregory Brown表達了他對平臺無法有效治理仇恨言論的失望,但他也意識到,YouTube擁有的全球影響力,決定了面臨問題的棘手性,“既要盈利,又要審查,還要保持價值觀,平臺希望三者并行”,不過,對他而言,“在如此龐大的用戶體量下做科普,對我而言非常重要,我依然認為YouTube會是我的最佳選擇。”

  

有害言論治理:努力維持卻無法中立

  

長久以來,YouTube上的病毒傳播視頻被大量的“復讀機”模仿。對于這種生態,YouTube希望創作者革新計劃能發揮模范帶頭作用。

  

這招雙管齊下。陰謀論視頻的高點擊會使視頻創作者選擇生產相似的視頻;反過來,“創作者革新計劃”的大使們會將一些正向視頻作為靈感。理論上,只要在平臺上宣傳YouTube會給予關注社會正義的內容以創作補貼和免費推廣渠道,將會促進譴責仇恨言論的視頻數量激增。

  

不過,對于如YouTube一般的平臺,很有可能出現所謂的“言論對立(counter speech)”。密歇根大學社交媒體責任中心的計算機科學教授Libby Hemphill研究不同場景下談話的差異,她提到,為了打擊陰謀論,言論對立必須存在。

  

“推薦系統提供的內容,不只會提供我們想要看的內容,還會隱藏起那些我們并不積極主動去尋找的內容。而偶然接觸不知道的內容正好是我們需要的內容,但這個概率非常低。”簡而言之,鼓勵好內容還不夠,還需要讓不主動找內容的人,也聽到對立的聲音。

  

理論上說,YouTube可以點對點的方式動態打擊仇恨言論。近幾年,平臺也確實利用“重定向方法(Redirect Method)”對恐怖主義內容進行打擊:內容審查員會移除恐怖分子招募視頻,與此同時,招募視頻的搜索結果將重新定向到反恐怖主義和反極端主義的視頻。

  

在之前的“重定向”平臺治理方案中,一位YouTube代表透露,平臺并不準備將男權內容重新定向至女性主義者支持的創作者革新計劃的內容。公司或許會擔心,用對待恐怖主義相同的方法對待厭女癥,可能打破YouTube試圖建立一個無偏見社區的初衷。

  

另一種讓言論對立更高效的方法應該是抑制為對立而對立的言論。今年三月,一個宣揚白人至上極端分子在新西蘭基督城對一座清真寺展開了大規模毒殺,而這條視頻迅速在社交網絡上以病毒速度擴散開來。YouTube前主管Hunter Walk在Twitter上表示,平臺應該保護的是“言論自由”,而不是內容的“觸達自由”。

  

他建議,YouTube應該在推薦系統中降低有害內容的權重,減少推薦,本質上說,這樣做可以“限流(shadowban)”來減少這些有害內容——用戶可能不會知道自己搜索的內容已經被隱藏了,不受歡迎的用戶被“低調”隱藏。理想情況下,由于內容被限流,能觸達的用戶有限,可能讓這些創作者感覺受挫,然后嘗試其它方式。

  

限流其實是一種來歷已久的審查工具,很長時間以來,互聯網論壇版主都通過限流來減少垃圾內容和網絡騷擾。

  

不過,在大型的社交媒體平臺上,“限流”并不針對個人,而是針對被算法挑選出的內容。YouTube曾經發布過一份社區指南的清單,針對“無益處的極端血腥或暴力”,或是假裝理性、禮貌或學術口吻去支持仇恨思想的視頻,評級員都會給予低評級。

  

隨后,平臺的AI系統根據評級結果進行機器學習,減少爭議性視頻出現在推薦系統中的概率。在這個過程中,個人用戶不一定知道自己的視頻如何受到影響。

  

但系統的不明確性使得大眾質疑。

  

今年4月,Ted Cruze組織了參議院小組委員聽證會,會議主題為“扼殺言論自由:技術監管與公共話語”,Ted提出,要對平臺進行監管,甚至帶來了證人,指責平臺的自由主義偏見。

  

受Cruze邀請參與庭審會的一名成員Eugene Kontorovich是喬治曼森大學的法學教授,他在證詞中表示,他考慮了監管是否能真正解決搜索和社交平臺上的偏見問題,但解決潛在偏見的最佳方式反而是透明化。限流或許有效,但同時會導向偏執。比如,透明化的創作者革新計劃,由于其視頻得到了明顯的標記,增加了項目的吸引力。

  

不過,YouTube和其它公司的工程師反對算法公開,原因很多,但共識在于,算法黑箱才很難被利用。而曾在法國政府工作,為官方對網絡仇恨言論的處理提供咨詢的計算機科學教授Serge Abiteboul認為,公開可驗證好過于不清不楚。

  

平臺方曾聲明,自從1月改進算法后,推薦系統中含擦邊內容和仇恨言論的視頻已經減少了一半,然而,由于缺乏透明度和監管,這一結果也很難確認。在Abiteboul看來,大眾所接受的任何監督都好過于平臺自己出臺的非公開政策。

  

平臺堅持中立是一種“斯德哥爾摩綜合征”嗎?

  

回顧YouTube的整個發展,Schaffer認為,他知道YouTube在哪一步行差踏錯。

  

在來到YouTube工作之前,他曾經在一家以販賣令人震驚的圖片和視頻的網站工作,這個網站上充斥著各種可怕的事故、醫療缺陷,這些內容在疏離大眾的同時,吸引到一小撮狂熱用戶。“比基尼和納粹主義有一種寒蟬效應。”

  

而YouTube,希望通過突出更大眾的內容,與其它內容社區區分開來,創造一個人人都樂于表達的社區。

  

所以,平臺會決定主推和禁止的視頻,也將一些擦邊視頻移除主頁,但它依然給了有害內容一個小空間。當時他們認為,如果只是隔離擦邊內容,它也不會對正常的內容消費有影響,即便有,多數人也會立刻意識到,這種內容不對。聽上去很理想,但過去這些年發生的事故卻告訴Schaffer,他的設想完全是個錯誤。

  

推薦系統效率的提高,讓很多有毒內容重新暴露在了陽光下,這是YouTube早期的規則設定者們從未預料到的情況。

  

最終,這些擦邊內容完全改變了平臺的初心和產生的影響。Schaffer發現,當初設定時的基礎前提有缺陷,“我們不需要YouTube告訴我們還有這么一群人存在,言論對立也不是合理的負擔,垃圾內容的打擊難度比傳播高很多,作為平臺,早該對此有所作為。”

  

一些專家指出,算法調整、鼓勵對立都無法改變YouTube的基礎架構,其核心是鼓勵大眾上傳海量視頻,即便來路不明。而這種架構,本質上就無法和正常的民眾對話相容。

  

對于平臺上存在讓人無法自拔的內容“兔子洞”導致了用戶行為激進化,YouTube并不承認。無論研究人員觀點如何,在YouTube上,極端視頻既不會有更多互動,也不會受到算法的青睞。與此同時,YouTube也表示,已經對推薦系統進行了調整,擦邊內容的搜索結果將重新定向到權威信源,比如CNN、福克斯等。

  

據《紐約時報》近期的報道顯示,YouTube的算法會鼓勵用戶觀看更多樣化的新內容,在新的調整中,平臺將加強對推薦系統的管控,防止個別頻道的爆發式推薦。

  

據反誹謗聯盟的調查顯示,2018年,有53%的美國人表示曾遭受網絡仇恨言論和騷擾,于是,用戶用減少使用時間和卸載App的方式表達不滿。去年谷歌和斯坦福大學共同發布的一份研究表示,將有害內容定性為“能讓你終止談論的粗魯、不尊重或不合理的評論”。

  

在YouTube的創作者革新計劃中,加入了一項教學計劃,鼓勵學生用視頻發聲,讓同類聚到一起。之后,年輕人通過視頻發聲,抨擊有害內容,吸引到了不少粉絲。

  

那么,既然YouTube推出創作者計劃的原因是鼓勵用戶創作正向的內容,為什么不能直接通過重定向系統將仇恨言論的搜索結果定向正向內容呢?在YouTube看來,他們不愿意主動“挑選優勝者”。

  

計算機科學教授Libby Hemphill卻表示,“我希望他們意識到,平臺所做的,就是挑選優勝者。哪怕是深度學習算法,其作出的決定也完全由人類來定義。那么,平臺的確應該可刻意挑選出不同的優勝者。”而Schaffer認為,平臺所堅持的中立性,不過是一種“斯德哥爾摩綜合征”,“他們擔心這么做會惹惱了頭部創作者,這種強加的價值觀,已經妨礙了創作者們。”

  

創作者革新計劃對“正向偏見”的開放態度,提供了另一種對社交平臺的思考。平臺可以像一個聯合國的論壇,而不只是一個不切實際理想化的中立烏托邦。事實上,平臺可以成為一個建立在對人格尊嚴和普遍權利共識上的討論和磋商。

  

“失控”的YouTube將如何被寫入歷史?

  

多年后,創始人之一陳士駿(Steve Chen)還是會回憶起剛創業時的場景——他要從被算法遺棄的視頻“角落”里手動高亮優質視頻,比如被偶然記錄下的卡特琳娜颶風導致的災難現場,極端的時候,被挑出的視頻只有25次播放。

  

“如果沒有YouTube,非洲攝影師的作品無法被全世界看到,而這正是我的工作重點。”

  

當初做內容編輯的陳士駿認為,像是颶風災難或襲擊現場這些非專業的UGC內容,只有YouTube上有。

  

11年后推出的“創作者革新”計劃,聽上去似乎是陳士駿的進階計劃:精選好的內容,向用戶傳達一種信息——這是我們需要的好內容。

  

然而,技術的發展和全球化的擴張,讓當初的愿景變得越來越模糊,“無論平臺上的好內容如何,這最終都是算法所決定的。如果你喜歡某一種內容,那么平臺會從上億內容中再精選出幾十條,你還是會喜歡嗎?算法可不會無緣無故做選擇。”

  

十年前,陳士駿離開了YouTube,他一點也不后悔放棄掌門人的位置,甚至有些慶幸,面對失控的內容,“我不知道可以有什么解決辦法。”

  

而希望平臺對觀點進行挑選的Brown表示,“如果算法透明化,平臺盈利會減少,連帶著的,是它的影響力。”

  

所謂的“中立”價值觀,邊界在哪里?這對于YouTube,以及眾多社交平臺而言,都是一個巨大的考驗,如何應對這個挑戰,決定了平臺將如何被寫進歷史。這聽起來有些殘酷,但現實的確沉重。


編輯聲明:本網站所收集的部分公開資料來源于互聯網,轉載的目的在于傳遞更多信息及用于網絡分享,并不代表本站贊同其觀點和對其真實性負責,也不構成任何其他建議。本站部分作品是由網友自主投稿和發布、編輯整理上傳,對此類作品本站僅提供交流平臺,不為其版權負責。如果您發現網站上有侵犯您的知識產權的作品,請與我們取得聯系,我們會及時修改或刪除。聯系方式:020-38814986
最新評論

天天捕鱼游戏中心 河北快三跨度图 3d近3o期开机号和今天的试机号 天九牌单机下载 快乐十分杀号技巧 云南快乐十分计划软件 新时时彩二星直选 实况足球2016手游 云南时时中心 白小姐一肖特马开 世界杯各国队服