AI学会造假,我们应该如何应对?

来源:智汇工业

点击:716

A+ A-

所属频道:新闻中心

关键词:AI 互联网

    奥巴马会和特朗普说一样的话,信不信?有视频为证。在一个对比视频中,二人不仅话语一致,连话语节奏甚至面部肌肉的动作都是一致的,但谈吐风格却能保持各自特点。

    “这是一种被称为GAN(生成对抗网络)的新兴技术。”日前,香山会议召开以“信息隐藏与人工智能”为主题的学术讨论会,北京电子技术应用研究所副研究员李鹏超介绍,GAN是一种生成模型,通过将两个神经网络的对抗作为训练准则,可以自动生成图像,包括自动篡改图像。实际上早在2015年,GAN就被用于制作教皇表演“抽桌布”戏法的假视频,由于过于逼真,很快就火遍网络。

    据统计,大量的合成信息占据了互联网,如合成声音、生成图像、AI合成不存在的人像等,约占网络信息的30%。“眼见为实”很可能已经靠不住了。

    机器人水军已经很成规模

    人们判断真假,经常会说“真的自然”。而人工智能造假,将在尽可能“自然”的前提下,完成自动生成。

    “淘宝上的机器人水军已经很成规模了。”浙江大学管理学院教授孔祥维举例道,例如商品评价已经由机器自动生成,不再需要雇人“灌水”。

    “自动生成带来的危机是规模性、密集度的大幅增加。”孔祥维说。以淘宝评价为例,如果虚假评价如潮水般涌入,它甚至不需要做到真假难辨,就能将真实评价淹没。

    在社会事件的舆论方面,“机器人水军如果操纵舆论,将使国家安全置于风险之中。”孔祥维说。

    除了自动生成之外,GAN的开源性也带来巨大的隐患。开源代码,意味着谁都可以用,代码一经开源将“变幻无穷”。相关研究人员表示:“这就意味着对这一代码的研究必须比对手更透彻,才能以不变应万变。”

    防造假需嵌入抗编辑水印

    抖音等微视频APP的普及,使得视频的发布非常频繁。有没有办法让公众的自拍不像前文提到的视频一样被篡改?清华大学计算机科学与技术系副教授王道顺表示,非法用户除了借助视频编辑工具复制后再修改,甚至未经授权转拍视频内容。这些操作都是为了得到可以任意修改的“白板”,“我们正在探索基于深度学习的抗编辑视频水印技术。”王道顺说。

    这就要求水印在视频中是隐藏着的,而且不能够被编辑,人工智能的深度学习技术被用来嵌入这些“入木三分”的水印。王道顺表示,他的团队希望能够完成嵌入和检测两方面的技术输出。

    网络对抗进化为智能化平台间的对抗

    GAN的魔力在于两个神经网络之间的竞争,通过让两个神经网络对抗,人工智能深度学习从识别事物升级到有能力创造事物。

    技术都有两面性,人工智能的“造假术”也可被加以利用。信息隐藏技术可以借用人工智能技术和思路,例如利用神经网络的对抗生成隐藏信息,获得人工智能相关技术与生俱来的自适应、海量等特点。相关专家表示,深度学习在许多模式识别领域取得了巨大的成功,给信息隐写和隐写分析带来新的方法和挑战。

    对于信息隐藏的基础研究者来说,因为“思路不同”,传统的分析手段难以发现的隐藏信息很可能在人工智能的深度学习模式下被轻易破解。香山会议就新课题的紧迫性进行了讨论,专家认为:人工智能的发展使得网络对抗从人与人的对抗进化为智能化、自动化的平台间对抗,作为数据保护和隐蔽通信中的关键技术,信息隐藏技术必须有所改变。


    (审核编辑: 林静)