AI无界|注意社交媒体发言!AI可检测危险言论



AI无界|注意社交媒体发言!AI可检测危险言论


在自媒体时代,每一个人都在从独立获得的资讯中,对事物做出判断。自媒体时期的信息源与传播者从集体缩小到了个人,信息具有高度的独立性与自发性,传播者素质的良莠不齐导致了信息的真假不定,而自媒体交互强传播快的特点又让虚假信息以讹传讹的频率越来越高,对社会的危害也越来越大。


AI检测“不利”言论,防危害,防自杀

AI无界|注意社交媒体发言!AI可检测危险言论


面对这种状况很多自媒体平台都在寻找解决之法,其中Facebook利用AI检测仇恨性言论取得了一定的成果。


AI无界|注意社交媒体发言!AI可检测危险言论


据了解,Facebook宣布开发出一款新型人工智能系统,可用于检测仇恨性言论。这一系统的代号为“Rosetta”,可帮助计算机阅读和理解每天发布到社交网络的数十亿张图像和视频。凭借这套新系统,Facebook可以更容易地发现平台上哪些内容违反了反仇恨言论规则。

该系统同时适用于Facebook和Instagram,也可用于改进照片搜索和新闻流的表面内容。Rosetta通过从十多亿个图像和视频帧中实时地提取不同语言的文本,对网站内容实施监测。

今年7月,Facebook表示将开始删除旨在煽动或加剧暴力的虚假信息,包括书面帖子和受人操纵的图像。此前,Facebook只禁止直接调用暴力内容,当前的新政策还涵盖有可能激起身体伤害的假新闻。

除了用AI检测仇恨言论之外,也有政府开始借助AI监测社交媒体预防自杀行为。

随着社会节奏越来越快,相信不少的人身边都存在一些心理问题;特别是工作强度大而且还是独居的人更是需要被好好关心,这一类人因为没有朋友和亲人的陪伴很容易就产生轻生的想法。不过为了预防一些人的自杀行为,现在加拿大政府已经率先做出了行动,同时还采用了高科技手段。

目前加拿大政府开始与AI公司Advanced Symbolics进行合作,将用AI去监测和分析加拿大16万个社交媒体账户发布的帖子,从而去预测自杀的行为以及对可能出现增长型自杀行为的地区进行自杀预防,进而达到加拿大政府对心理健康资源的部署。

恰逢其时,蓝海巨大

AI无界|注意社交媒体发言!AI可检测危险言论


将AI用于检测社交平台上的仇恨性言论和监测社交媒体预防自杀行为,其社会价值不言而喻,背后的商业价值更是巨大。

近年来,社交媒体网站的数量在突飞猛进地增长。根据公布的统计数据,2018年已经有26亿用户使用社交网站和应用程序。网民们可随时随地通过社交媒体等渠道发布信息,由于传播主体广泛、传播渠道多样,很多网民可能还没有意识到自己的言论的错误,就已造成了负面影响。

为此,在我国网络舆情日益被提上政府议程,在2007到2018年,中央政府相继出台网络舆情的相关政策文件,积极干预和引导网络舆情演变和发展。在这样的政策支持下,随着AI检测社交平台危害言论的技术成熟,此技术将很有可能被政府广泛应用。

同时警方也可通过检测舆情,提前预知突发事件,以便做好预防工作。在国外,加拿大政府已经拨款近2.5万美元,利用AI监测社交媒体,预防自杀。随着该项目的继续实施,加拿大政府预计将支出高达40万美元。

此外,AI检测不利言论除了将被政府应用,也更加会受企业和社交平台青睐。

新环境下企业很容易受到竞争对手的舆情攻击。根据艾媒舆情调查结果显示,35.9%企业曾遭遇舆情危机,中小企业问题突出。而舆情危机事件影响企业利润、形象及凝聚力等多个方面,特别是上市企业股价受舆情危机的影响明显。因此,将AI用于检测危害企业的不实言论,将会很有市场。此外,全球的社交平台为了更好的净化平台环境,也大有可能搭载此项技术。


AI无界|注意社交媒体发言!AI可检测危险言论


我们正处于一个伟大的时代,仪器化、机器学习、更强大的计算机和人们处理大量数据的能力能够让检测“不利”言论方面获得进步。并且随着数据的丰富及系统的升级,在不久的未来,AI检测危害性言论和自杀性信息的技术还会更加完善,覆盖范围也将越发广泛。


分享到:


相關文章: