避免AI陷入信任危机 欧盟先发制人制定规则

来源:智汇工业

点击:629

A+ A-

所属频道:新闻中心

关键词:人工智能 AI 信任危机

    欧盟委员会(European Commission)周一公布了人工智能道德准则,旨在在人工智能系统深入社会之前影响其发展。这种干预可能有助于打破监管机构被迫追赶新兴技术的模式,这些技术往往会带来意想不到的负面后果。

    周一,英国提出新规定,要求互联网公司对清除其平台上的有害内容承担法律责任,凸显了这么做的重要性。

    欧盟在科技监管方面已走在全球前列,去年出台了一项具有里程碑意义的数据隐私法,同时以反竞争行为和未缴税款为由,对大型科技公司提起诉讼。

    人工智能吸引了公众的想象力,并对潜在的滥用发出了可怕的警告,这是欧盟最新的监管领域。这不是一个简单的话题。例如,谷歌上周关闭了其新成立的人工智能伦理委员会,原因是一群员工要求该组织的一个保守派智库首领离开。

    欧盟委员会制定了指导人工智能发展和建立信任的7项原则。虽然这些指导方针没有约束力,但它们可能成为未来几年进一步行动的基础。

    透明度是关键

    欧洲负责数字经济的最高官员玛丽亚-加布里尔(Mariya Gabriel)表示,使用人工智能系统的公司应该对公众透明。

    例如,基于算法拒绝索赔的保险公司应该确保客户知道如何以及为什么做出这个决定,人类应该能够介入且可以推翻这个决定。

    欧盟委员会表示,未来的人工智能系统需要在整个生命周期内安全可靠。它还表示,数据保护必须是一个优先事项,用户必须可以控制自己的信息。这项规则指引将责任完全推给了那些构建和部署人工智能系统的人。

    避免歧视

    Gabriel还表示,公司需要确保他们的人工智能系统是公平的。她举例说,在招聘过程中使用的一种算法使用的数据来自一家只聘用男性的公司,这种算法可能会拒绝女性候选人。

    非营利性组织AlgorithmWatch表示,虽然制定指导方针是个好主意,但欧洲的做法存在问题。

    美因茨大学(University of Mainz)教授、哲学家托马斯-梅辛格(Thomas Metzinger)帮助起草了指导方针,但批评他们没有禁止使用人工智能开发武器。其他人则担心这些指导方针会对创新产生影响。

    欧盟现在将尝试与大型科技公司合作,通过一个试点项目来解决这些问题和其他问题。


    (审核编辑: 林静)