人工智能尚未准备好在可预见的未来有效地管理在线内容

来源:智汇工业

点击:1088

A+ A-

所属频道:新闻中心

关键词:人工智能 应用服务 人工智能技术

     

    人工智能技术这种概念其实很早就已经被提出了,但是要说人工智能技术的快速发展还是在近些年,我们也能够感觉到在我们的日常生活当中也存在很多人工智能应用服务,虽然可能其智能程度并不够高,但是也能够看出来这一类人工智能技术对我们的社会生活所带来的改变,而在未来随着人工智能的发展带给我们的惊喜也会越来越多。

    Ofcom和Cambridge Consultants合作完成了一份报告,研究了AI支持的在线内容审核的有效性。

    世界各国政府对社交网络和通信服务施加越来越大的压力,要求对发布在其中的内容负责。社会本身正越来越意识到直播恐怖袭击,网络欺凌,政治操纵等带来的危险。

    对于某些拥有数十亿用户的平台,手动管理发布的所有内容是不可行的。上载非法内容后,通常需要有人举报并等待人类主持人做出决定(这些主持人有时在暴露于此类内容后需要接受治疗)。

    Ofcom和Cambridge Consultants的报告建议,AI可以通过以下几种主要方式帮助减轻对主持人的心理影响:

    改变他们所接触的有害物质的含量和类型。

    自动模糊掉部分内容,主持人可以根据需要选择查看以做出决定。

    人们可以“询问”有关内容的AI问题以做好准备,或者知道是否对他们来说特别困难,这可能是由于过去的个人经验所致。

    手动审核内容的过程缓慢,通常意味着有数百万人在删除有害内容之前就将其删除。尽管当今大多数AI审核实施仍需要人工监督,但内容检测方面的一些进步有助于加快标记和删除内容的速度。

    本月早些时候,Facebook拥有的Instagram 公布了对人工智能驱动的审核系统的改进,以防止发布麻烦的内容。尽管以前只限于评论,但Instagram现在会问用户“您确定要发布吗?” 对于它认为可能对他人造成困扰的任何帖子。

    作为英国的电信监管机构,Ofcom的报告应有助于形成可行的政策,而不是政治家的通用要求,而不是真正了解这些事情的工作原理(有人能记得呼吁禁止加密和/或故意创建后门的呼吁吗?)

    该报告实质上确定了在可预见的将来,不可能进行有效的全自动内容审核。

    完全自动化的内容审核存在问题的主要原因之一是-虽然可以通过单独分析来识别一些有害的帖子,但其他内容则需要对上下文有充分的了解。例如,研究人员指出,对于当今的AI适度解决方案而言,很难解决国家法律中的地区和文化差异以及什么在社会上可以接受,但对于本地人类主持人而言却微不足道。

    一些内容也比其他内容容易分析。照片和预先录制的视频可以在发布之前进行分析,而实况直播则特别困难,因为看似无辜的场景可能会很快变得有害。

    剑桥咨询公司的报告说:“将继续要求人类主持人审阅高度上下文,细微差别的内容。” “但是,基于AI的内容审核系统可以减少人工审核的需求,并减少查看有害内容对他们的影响。”

    虽然我们对于人工智能技术抱以厚望,但是同时也是需要认识到,人工智能技术在目前也并不能说较为成熟,我们其实一直在人工智能技术大门的门口打转,想要真正的使得人工智能技术普及并发展,其实我们还有很长的道路要走。


    (审核编辑: candice)