最新報告!網際網路視頻平台如何保護未成年人:現狀和建議

互聯網和數字化生活方式形塑了新一代年輕群體的認知方式、獲取信息途徑和社會化行為模式。在互聯網語境下,未成年人作為“ 數字原住民”,受到了新媒體多元開放、無差別信息傳播模式的深刻影響,也存在各種有害信息、錯誤行為和價值觀引導的風險之中,亟需引起政府部門、平臺媒體和社會各界的重視。

本報告以網絡直播和短視頻為研究對象,初步探討這兩種新興媒體平臺的內容生產、表達方式、技術特點和傳播偏向,對未成年人的持續影響。以抖音為例,自2016年上線以來,短短兩年間國內和全球月活用戶分別達到3億、5億,傳播內容涉及政務、美食、親子、旅行等多元議題,既成為未成年人群體自我表達的新空間,也為未成年人高效率接觸視覺化形態的內容提供了新途徑。當下,未成年人新媒體使用現狀和存在問題有哪些?互聯網平臺為保護未成年人推出了哪些積極措施、面臨哪些挑戰?怎樣共建多方參與的未成年人互聯網使用的保護機制?本報告嘗試針對這些問題進行簡要探討。

一、 未成年人互聯網使用現狀及存在的問題

(一)未成年人互聯網使用的主要特點

最新報告!互聯網視頻平臺如何保護未成年人:現狀和建議

圖1 2017年我國互聯網用戶年齡結構

截至2018年1月,我國網民以10-39歲群體為主,佔總體比例高達74.7%(網民年齡結構如圖1所示)[1],其中,青少年網民[2]規模達到2.87億,未成年網民規模為1.34億,佔青少年網民的46.6%。青少年網民的網絡普及率為85.3%,在未成年網民中,城市未成年人互聯網普及率為92%,農村為80%,均遠高於全國整體互聯網普及率(50.3%)[3]。青少年尤其是未成年人在互聯網使用人數和網絡普及率上均處在各年齡段前列。

綜合相關研究可見,未成年人互聯網使用狀況主要有以下特徵:

1. 首次接觸互聯網的年齡進一步提前。調查顯示,56.4%的未成年人首次觸網年齡在10歲以前。[4]這說明,未成年人最初接觸互聯網的時間越來越早,具有早齡化趨勢,網絡和新媒體對未成年人早期價值觀的影響越來越大。

2. 每週上網的頻次增加,上網時間進一步加長,但每次上網的時間縮短。在2011年未成年人上網頻率在“一週左右一次”的比例最高(45.3%),但到2015年大約50%的未成年人每天都會使用互聯網;從上網時長看,大約一半的未成年人上網時長在2小時以下,但2-3小時和3小時以上的比例也分別佔13.7%和15.4%[5],過度網絡依賴成為不可忽視的問題。對於上學時間相對固定,課業負擔較重的未成年人而言,上網時間過長會對其學業壓力造成較大負擔。此外,也有研究指出,未成年人會每天多次上網,而不是集中在某個時間上網。輕量化、節奏更快的短視頻,更符合未成年人的上網瀏覽習慣,也更容易在未成年群體中傳播和普及。

3. 手機成為未成年人上網的主要設備。據調查,超過四分之三的未成年人擁有自己的手機[6],83.6%的未成年人使用手機所為其主要的上網工具,明顯高於臺式電腦(70.4%)和筆記本電腦(28.0%)。[7]這說明,相比其他上網設備,未成年人更容易接觸到手機及其應用程序,手機是其接觸網絡和獲取信息的主要渠道。

(二)未成年人互聯網使用面臨的挑戰

未成年人在使用互聯網過程中,也面臨全年齡段信息無差別傳播、不良信息野蠻生長、過度使用導致沉溺等問題。同時,由於未成年人心智尚未成熟,對信息的辨別、篩選和判斷能力較弱,這對互聯網傳播內容的有序監管和未成年人網絡信息傳播環境的優化提出了挑戰。當前,未成年人互聯網使用主要面臨以下問題:

1. 大部分未成年人在上網時曾接觸過不良信息。數據顯示,超九成未成年人在上網時遇到過各種各樣的不良信息。從不良信息的內容看(圖2所示),廣告推銷和騷擾是未成年人面臨的主要困擾,也有1/5的未成年會接觸到謠言、黃色圖片等影響身心健康的不良信息;從接觸渠道看(圖3所示),不良信息傳播渠道多樣,視頻、遊戲、社交媒體中都會進行傳播,對內容監管造成極大壓力和困難。

最新報告!互聯網視頻平臺如何保護未成年人:現狀和建議

圖2 未成年人接觸不良信息的內容

最新報告!互聯網視頻平臺如何保護未成年人:現狀和建議

圖3 未成年人接觸不良信息的渠道

2. 網絡暴力等不良行為對未成年人易造成錯誤引導。一方面,在網絡法規尚不完善、網絡行為監測技術尚未成熟的環境下,未成年人在網絡交往過程中容易遭遇網絡霸凌、網絡犯罪等具有侵害性的暴力行為;另一方面,受到網絡不良行為的誘導,一小部分未成年網民也會主動發佈涉及網絡暴力、色情的信息,為清朗網絡空間的營造製造汙染和噪音。除暴力行為外,乞討賣藝、危險行為、違反公序良俗等行為無差別地向分辨力、自制力較弱的未成年受眾傳播,也容易造成他們的盲目模仿,不利於塑造其正確言行。

3. 互聯網平臺的匿名性一定程度上威脅著未成年群體的人身安全。雖然85.7%的未成年人在網上進行交流的對象是現實生活中認識的人,但也有50.9%的未成年人表示,在網上結交到現實生活中不認識的朋友[8]。互聯網平臺的匿名性,可能讓不法分子趁虛而入,竊取未成年人隱私信息,甚至威脅其人身安全。此外,社交媒體以及部分帶有輕度社交屬性的視頻平臺常以“群友見面會”為名組織集會,也存在著無法保障的現實安全問題。

4.部分魚龍混雜的網絡信息不利於未成年人正確價值觀的培養。互聯網內容的多元和混雜,也帶來了信息良莠不齊的問題,如極端自殘和揚言自殺、蓄意惡搞、刻意賣腐、偽娘、“渣團”、“藍鯨死亡遊戲”等具有煽動性和惡意取向的行為,易導致未成年人陷入錯誤的價值導向,也對其心理健康造成影響甚至創傷。

二、互聯網平臺保護未成年人的積極措施

目前,針對未成年人互聯網使用中存在的問題和麵臨的挑戰,遊戲、直播、短視頻等平臺媒體逐步推出保護措施和建立相關制度。其中,視頻平臺對未成年人的保護措施,可依託算法技術、人工智能和大數據等方法,從內容審核技術投入、正能量產品引導、媒介素養培育等方面切入,逐步實現平臺媒體、政府與社會相互配合,共同承擔未成年人保護的社會責任。比如,抖音等視頻平臺逐步通過推出“向日葵保護計劃”,採取優質內容和正能量價值引導、算法技術投入以及監管體系建設等手段,通過平臺媒體和政府、公安機關相互合作,共建法治化、制度化的未成年人保護機制,為未成年人營造良好的互聯網傳播環境。

(一)建立 “多重機器過濾”+“人工審核”相結合的內容把關機制

1.通過人工智能技術識別視頻圖片,實現多重機器過濾

對於短視頻可採取抽幀圖片過濾技術,對短視頻進行抽幀,利用機器算法建立過濾模型,對其中色情低俗進行過濾,優先審核。例如,抖音開發的抽菸模型,對視頻內容中涉及未成年人抽菸動作的圖像進行捕捉,而相關視頻在審核過程中就會被機器過濾,不予通過。

目前,抖音在機器審核過程中使用的模型有:(1)評論審核模型,包括:評論負向模型、評論廣告模型、評論低俗模型、評論謾罵模型、評論涉政模型及評論指向高危視頻模型等;(2)用戶資料模型,包括:用戶資料模型、評論廣告模型、評論低俗模型、圖片消重模型、色情圖片模型等;(3)圖片OCR識別模型,包括:色情模型、高危庫消重、消重模型、搬運模型、OCR文字識別模型、低俗模型、水印模型、錄屏模型、抽菸模型、美容院廣告模型、赤膊男模型、化妝護膚品模型等。

此外,針對視頻文案和投稿主題文案中的敏感詞,還進行關鍵詞過濾機制,命中相應關鍵詞的視頻納入專門審核渠道。而但凡涉及境外、疆藏港臺等特定區域也會被納入特別審核渠道。

2.建立“未成年風控模型”,強化前端預防措施

利用大數據,對被勒令下架或者違規視頻進行再分析,提取觸犯法規和違背道德標準的關鍵詞或圖片,建立“未成年風控模型”,從而實現前端預防措施。例如,抖音通過建立了“未成年風控模型”,形成7800多個反例模型,梳理和擴充了視頻審核相關敏感詞6600餘個,確保做好機器識別和前置攔截。同時,將所有違規視頻添加到風險模型樣本庫,通過賬號、內容、評論等多個維度識別違規內容,通過人工標註和機器學習,提升模型識別的準確率,命中的視頻將進入未成年人專屬審核隊列,專人從嚴審核,使得所有過審內容不觸法律底線、道德紅線、政治高壓線.

3.建立針對未成年人的專項審核標準,提高把關門檻

建立針對涉未成年人內容的專項審核標準,從內容源頭上增加對成年人的權益保護。例如,抖音對四大類視頻內容實行強制下架和審核不通過,包括:違法犯罪和暴力、色情低俗、危險行為、違反公序良俗和未成年錯誤行為導向等。同時,為了全面淨化平臺環境,抵制社會不良現象,維護社會公序良俗,抖音建設了公序良俗審核標準庫,建立最嚴格的社區平臺審核標準體系,體系中包括的多項不良行為都將在視頻審核中被過濾。

4.建立人工審核制度,提高內容審核的精準度

在機器篩選審核的基礎上,對未命中任何規則的視頻,也採用人工審核的方式,通過人工辨別保障內容安全。抖音平臺進一步擴充了審核人員隊伍,對於人工智能難以識別或者涉及領導人、時政等重要視頻內容,進行人工的內容審核。

5.對於審核違規的視頻,實行嚴格的處罰制度

2016年,國家網信辦發佈了《未成年人網絡保護條例》,在規章制度上對有損未成年人身心健康和群體利益的網絡內容予以禁止,同時將立法計劃提上日程。平臺媒體應在制度上結合網信辦的條例,對於審核違規的平臺內容將要採取公開、嚴格的處罰制度,對涉及違法內容的賬戶予以公示和封禁,並在管理舉措上為互聯網治理提供經驗借鑑。例如, 2018年6月間,抖音累計清理27578條視頻,9415個音頻,235個挑戰,永久封禁33146個賬號,對於侵犯未成年人權益的賬號,將頂格處罰,永久封禁,涉嫌違法的將報送公安機關處理。

(二)在應用程序功能中實現對未成年人的防護功能

目前,90%以上的未成年人都通過手機接觸互聯網,平臺媒體可以通過程序軟件開發,完善手機應用程序上的未成年人識別和防護功能,運用技術對該群體予以更加充分的保護。

1.加強未成年人識別功能

當前絕大多數未成年人,尤其是城市中的未成年人都擁有至少一臺智能手機,應用程序可以通過手機登錄的賬號,識別賬號持有者是否為未成年人,在信息推送時通過算法屏蔽對未成年有害或限制級的內容。同時,對於未成年人使用家長手機登錄應用時,應用程序可以出臺指紋識別或密碼識別等功能,通過這些軟件技術,加強對用戶群體的識別,從而在內容算法推薦上分發和推送更有利於未成年人成長的健康內容。

2.建立風險提示系統

對於參與程度高、受到用戶喜愛,同時又存在潛在風險的挑戰和動作,比如說某些極限運動、科學小實驗等,未成年人在判斷能力尚未健全時容易盲目模仿。因而,在內容推送的同時,在視頻顯著位置予以風險提示,告知參與模仿的用戶要量力而行,避免過度模仿,同時要做好防護工作,避免身體受傷。

(三)推出專項計劃,從審核、產品、內容構建未成年人保護措施

平臺媒體可定期推出一些專項計劃,用於倡議和推廣未成年人互聯網保護機制。通過專項計劃推廣,不僅讓未成年人自身將強對良好上網習慣和健康內容接觸的認知,也讓家長與平臺媒體相互配合、共同參與保護未成年人的網絡使用。

例如,抖音在2018年暑假推出了“向日葵計劃”,從審核、產品、運營、對外合作等多個維度推進未成年人保護。第一期計劃將包括十項措施:審核體系方面,完善並升級未成年人審核模型,組建未成年人專項審核團隊,在產品內設置未成年人安全相關的專項舉報入口,對侵害未成年人權益的行為頂格處罰,直接封禁設備甚至報送警方。產品引導體系方面,升級未成年人管理工具、開啟後無法充值、打賞、提現,未經家長同意的未成年人充值全額返還,“實名驗證+人臉識別+人工審核”三道防火牆、杜絕未成年人直播,敏感賬戶充值消費進行實名驗證。內容推薦

方面,則將對知識科普類、傳統文化類視頻進行加權推薦,與權威機構聯合開展暑期安全知識挑戰。

這十項舉措,大體可以歸結為三類側重導向:其一、精準識別:根據數據識別青少年,進行有針對性保護;其二、賬戶管理:對使用時長、充值消費等進行必要限制;其三、內容導向:針對青少年強化優質內容推薦。互聯網平臺保護青少年,不僅要從平臺出發,更要從社會出發,把青少年的新媒體使用置於複雜社會文化情境中觀察,這樣就能在“盡責”之外還能有所“ 引領”。這十項舉措和三個側重點值得更多互聯網平臺媒體借鑑和推廣。

(四)構建正能量的傳播產品,塑造健康價值觀

構建未成年人健康的互聯網環境,不能只採取封堵有害信息的途徑,還應通過優質內容向未成年人傳播正能量的價值導向。在這方面,平臺媒體可與政府部門、文化機構和社會組織等進行合作,構建積極性向上、具有人文情懷的內容推廣,讓未成年人可以接觸到更多積極向上的正面信息。

例如,抖音與共青團中央、各大博物館以及公益組織合作,推出正能量“挑戰”,呼籲未成年人通過短視頻拍下自己和身邊積極向上的行為素材。兩會期間,抖音和共青團中央合作“ 奮鬥吧,我的青春”,號召網友記錄下自己青春路上的奮鬥故事,活動上線四天,吸引超過十三萬人參與挑戰,單條視頻最高點贊數339萬; 6月20日世界FSHD關愛日,罕見病發展中心(CORD)、你並不孤單FSHD關愛組織,聯合抖音和今日頭條,共同發起了#橙子微笑挑戰#接力公益行動,目前,該挑戰賽在抖音上的參與人數已超過17萬人,總播放量達13億,總點贊量突破4500萬。

(五)完善媒體產品、學術研究和網絡素養提升相結合的長效合作機制

如何在數字化時代引導青少年健康成長,促進移動互聯網為青少年全面發展提供更有針對性的服務,是負責任的互聯網企業所應該研究的問題。平臺媒體可以推進產學研合作機制,通過跨學科研究對未成年人互聯網保護提供專業性的學術意見,同時,利用研究成果反哺平臺媒體的產品改進,完善產品設計背後的理論邏輯和價值擔當。另外,通過平臺媒體與中小學開展合作,推動未成年人網絡安全和網絡教育工作,提高“ 數字原住民”的知識素養和網絡素養。

在產品和用戶研究相結合方面,抖音成立了青少年網絡健康成長研究中心,組建了一支傳播學、心理學、社會學、法學、腦與認知科學等跨學科的顧問團。顧問團隊將為抖音改進提供專業意見,參與產品中與青少年相關的良好生態建設。同時,將與社會公共力量積極互動,和政府、高校、國內外研究機構共同就青少年數字化素養、移動互聯網對青少年的影響、青少年流行文化在移動互聯網時代的新發展等課題進行研究,為學術研究和政策制訂提供參考。

在產品和網絡素養培育結合方面,騰訊推出了數字原住民行動計劃(DN.A),通過與政府主管部門、高校、專家和第三方機構等多方聯動協作,為未成年人提供網絡素養的教育課程和學習工具,倡導以聆聽、約定、陪伴等方式,幫助和引導未成年人建立科學健康的上網習慣。通過線上學習工具與線下老師開展教學的方式,讓未成年人對網絡素養知識有深入認識。

三.互聯網環境下未成年人保護的建議對策

1、政府層面:制定法律法規,保護未成年人的網絡安全

我國政府以“防止未成年人信息汙染、維護未成年人網上安全”為原則,制定了一系列有關信息發佈、審查、監管和知識產權保護的法律法規,例如,關於網絡活動的一般性立法有《刑法》、《治安管理處罰法》等。此外,還有一些與網絡有關的專門規定,主要是有關規範網絡信息活動、互聯網上網服務營業場所管理以及法律責任方面的法律法規,包括《關於維護互聯網安全的決定》 (2000) 、《互聯網信息服務管理辦法》 (2000) 、《互聯網上網服務經營場所管理條例》 (2020) 、《關於網絡遊戲發展和管理的若干意見》 (2005) 、《關於推動我國動漫產業發展的若干意見》 (2005) 、《網絡遊戲管理暫行辦法》 (2010) 、《關於進一步加強網吧及網絡遊戲管理工作的通知》 (2007) 等。2013年開始實施的《未成年人保護法》中,也針對未成年人網絡保護規定了若干項專門條款。不過,現有法律中的法律責任規定得比較抽象,部分規定在具體實踐中難以得到有效執行。因此,下一步應該繼續進行完善立法工作,以便更加切實有效的保護好未成年人的網絡安全。

2、學校層面:加強理性引導,推動未成年人網絡素養教育

總體上看,我國的網絡素養教育仍處於起步階段,大部分教育實踐僅僅作為媒介素養課程的一部分來實施,較少有針對網絡素養的完整課程。2010年全國兩會期間,曾有政協委員建議將網絡素養教育納入義務教育課程,全面培養未成年人與信息時代相符的道德規範和行為能力,建議各級教育行政主管部門對中小學網絡課程內容進行調整,在不增加學生負擔的前提下,積極推動網絡素養教育進學校、進課堂[9]。我們認為,中小學等教育機構的教育職責中,應當包括對於未成年人網絡安全與網絡能力的培養職責等,以適應互聯網社會對於未成年人網絡安全與網絡運用能力的時代要求,應當建立能夠適應網絡時代的教育者隊伍,對教師加強網絡知識培訓,協助家長做好網絡心理健康教育,對學生進行網絡安全與合理使用教育。

3、家庭層面:倡導父母參與,提高家庭在網絡素養教育中的作用

未成年人網絡安全與網絡運用能力的提升,家庭負有不可推卸的培養職責。西方學者就此提出了兩種類型的家長監管措施:限制性干預和積極性干預。限制型干預意味著制定互聯網利用的規則,包括利用時間和對特定互聯網應用的利用和獲取的限制。而積極型干預的父母則是在子女身邊,觀察其行為,與其討論,並檢查其上網頁面。在西方國家,64%的受訪父母與其子女交流上網問題,34%的父母和子女一起上網,46%的父母經常檢查上網頁面,38%的父母幫助子女解決上網問題[10]。客觀而言,父母是未成年人的第一任導師,父母的網絡安全素養與網絡能力直接影響未成年人的網絡素養。

不過,在中國,由於地區經濟發展的差異,一些父母對互聯網知識掌握較少。調查顯示,不少父母對未成年人上網的態度是相對保守和滯後的,三成以上家長不陪子女上網,與家長溝通狀況差和不完整家庭的未成年人上網時長和頻率偏高[11]。因此,家長也需積極學習並掌握網絡安全知識與提升自身網絡運用技能,其監護職責還應包括對未成年子女上網設備進行合理管理,避免未成年人長時間使用網絡設施,適當控制未成年人上網時間,引導未成年人合理健康地使用網絡,並最終在日常履行監護職責過程中逐步對被監護人產生積極的影響。

4、企業層面:持續完善監管,強化網絡平臺的約束機制

未成年人合法權利保護需要明確網絡平臺責任,讓平臺既有外部的約束監督機制,又有內部約束機制。從外部約束機制來看,國家立法規管網絡平臺,除了保護個人信息的一般義務外,網絡平臺還需對未成年人個人信息進行特別保護,例如,未成年人個人信息,網絡平臺運營者應有主動識別機制,對於明顯侵犯未成年人個人信息、隱私和其他權利的內容予以刪除,並採取合理技術措施提示未成年人個人信息侵權行為,積極響應未成年人及其監護人的修改、刪除請求等。平臺應繼續優化管理模式,加強內容監管,用優質內容引領正確價值觀。從內部約束機制來看,網絡公司應建立正確的企業價值觀,創造文明、健康的網絡環境,不提供可能侵害未成年人權益的產品以及對有關產品、內容給未成年人造成損害提供救濟。

綜上所述,互聯網環境下的未成年人保護,至少需要達成三點“共識”。首先,要超越簡單“保護主義”的思維和範疇,倡導合理、規範使用的同時進行積極的資源運用和社會參與,讓互聯網助力於未成年人的健康成長、公共表達和自我實現。不能把未成年人的網絡使用當成“洪水猛獸”,單純採取限制措施來規避風險,而應通過積極引導和理性管控方式來趨利避害。其次,要倡導“多元共治”的思維和模式。建立全社會共同參與、協同努力的保護機制,釐清政府、家庭、學校、互聯網平臺等多元主體的責任邊界。對未成年人網絡使用的保護不能僅侷限於單一主體,而應將所有可能與未成年人權益相關的主體都包括進來,賦予政府、學校、家庭、企業等不同的職責。再次,要充分建立“網絡+社會”的保護意識,避免單純從平臺、技術或文化某個單一維度來考察未成年人的保護問題。比如,儘管平臺採取了各種技術性手段限制未成年人的網絡沉迷,但針對農村留守兒童的生活境遇、未成年人央求長輩配合刷屏的客觀現實,則需要將未成年人的保護問題置身於更復雜的社會現實中加以考量。由此,才能將“網絡”內嵌於“社會”中,把技術創新與複雜的政治、經濟、文化等生態因素結合在一起,加以積極引導和有效監管。

(作者張志安為中山大學傳播與設計學院院長、中山大學互聯網與治理研究中心主任,聶鑫為中山大學傳播與設計學院博士生,林功成為中山大學傳播與設計學院副教授、互聯網與治理研究中心副研究員)

[1] CNNIC:第41次《中國互聯網絡發展狀況統計年鑑》,2018年1月。

[2] 指25歲以下網民

[3] CNNIC:《2016年中國青少年上網行為研究報告》,2016年8月。

[4] 中國少先隊事業發展中心:《第八次中國未成年人互聯網運用狀況調查報告》,2016年1月。

[5] 牛凱,張潔和韓鵬:《論我國未成年人網絡保護的加強與改進》,《青少年犯罪問題》,2016年第二期:第36-52頁。

[6] 中國少先隊事業發展中心:《第八次中國未成年人互聯網運用狀況調查報告》,2016年1月。

[7] CNNIC:《2016年中國青少年上網行為研究報告》,2016年8月。

[8] 中國少先隊事業發展中心:《第八次中國未成年人互聯網運用狀況調查報告》,2016年1月。

[9] 朱寧,《網絡社會青少年媒介素養建構研究》,《中國青年研究》,2016年第3期,108-113頁。

[10] 王平,《國外未成年人互聯網安全利用研究:進展與啟示》,《情報資料工作》,2018年第1期,89-96頁。

[11] 吳雲才,《關於我國未成年人互聯網運用狀況調查報告的分析思考》,《中國青年研究》,2012年第10期,36-39頁。


分享到:


相關文章: