企业研究
    主页 > 综合新闻 >

专家:部分AI伦理研究仅起到洗白作用,应思考重

人工智能的伦理规则应该如何与技术创新相协调?如何重塑公众对科技公司的信任? 8月3日,多位专家在2021全球数字经济大会人工智能产业治理论坛上就此展开讨论。

曾毅,中国科学院自动化研究所研究员,国家下一代人工智能治理专委会委员,联合国教科文组织人工智能特设专家组专家智能伦理说,治理和发展从来都不是竞争关系,真正为人类和生态创造可持续的人工智能。同时需要注意的是,伦理规则的技术实施还存在诸多瓶颈。

中国社会科学院哲学研究所科技哲学研究室主任、科技与社会研究中心主任段伟文指出,根据新的治理环境,行业应着眼于“长期主义”,重建社会对科技公司的信任,否则将难以长期发展。


论坛现场。图片来自瑞莱智慧

1

以赚钱为目标,可持续的AI难以实现

人工智能应该先治理还是先发展?曾毅表示,治理与发展从来没有竞争关系。实现人工智能的稳步发展,前提是真正实现为人类和生态创造可持续的人工智能。

要实现人工智能的可持续性,首先要实现技术本身的可持续性。曾毅表示,一些看似智能实则知之甚少的信息处理工具,并不是真正可持续的人工智能。担心影响会带来大问题。相反,如果我们创造出真正的人工智能,并将其应用于人类生态、社会和世界的健康发展,并将负面影响降到最低,这样的技术才是可持续的。

此外,曾毅还强调,将人工智能应用于社会并不是可持续发展的目标,而是可持续发展的人工智能。例如,目前很多公司将人工智能应用于健康和教育,但它也可能对健康和教育产生负面影响。一些公司瞄准这两个领域,因为它们有很多机会并且可以赚钱。但是,如果每个人的目标都是用人工智能赚钱,人工智能就很难帮助全球可持续发展。

“因此,治理和发展哪个优先是没有问题的,只有两者相互配合,才能实现可持续发展的愿景。”曾毅说:“没有它就不行。”

p>

2

伦理规则的实施面临技术瓶颈

不过,曾毅指出,人工智能的一些伦理规则的制定相对容易,但技术落地还存在不少瓶颈。

“人工智能真的有道德吗?现在的情况很痛苦。”比如曾毅在很多西方国家禁止人脸识别,但并没有引起企业的太大反对。一个不争的事实是,公司可以找到替代方案。禁用人脸识别时,还可以使用固态识别、指纹识别、声纹识别等。事实上,人脸识别存在隐私泄露、违反公平、算法歧视等问题,其他识别方式也存在。这些技术还没有进入大众视野,所以没有被重视,但是禁用人脸识别技术并不代表问题就真的解决了。

曾毅引用的另一个例子是数据撤回。用户不再同意授权,可以从数据库中删除用户信息。但实际上,删除人工智能模型和服务中的用户数据和特征在技术上是极其困难的。几乎没有人可以在避免冲突的同时删除深度学习模型中的单个用户信息。训练结果的影响。可以采取的方法是对人工智能模型进行再训练,但训练成本非常高,一些大型模型甚至每次训练要花费500万元。所以目前的情况是,更多的公司会选择不更新。

联邦学习技术可以让不同的开发者在不共享自己的数据的情况下对数据模型进行联合学习,但这避免了用户是否同意共享数据的问题。否则,将违反知情同意原则。拆分私有数据在数据库时代曾经非常有用,但人工智能模型的引入会使识别率降低10%到30%。为了保护隐私或者保证服务效率,这对于企业来说也是一个非常艰难的选择。

“可以看出,在我们对道德规则的设想中,技术在实施的时候会遇到很多困难,因此需要设计师、开发人员、供应商、部署人员和管理人员共同努力。”曾毅说。

3

科技企业要重视社会信任重建

值得注意的是,曾毅观察到,在在全球范围内,目前谈论道德最多的人工智能公司,其道德问题也最多。这说明人工智能的伦理研究与技术研发之间存在脱节。

曾毅发现,有的公司建立了自己的伦理研究团队,有的公司是广告、公关等团队承担了这项任务。他们负责与公众、政府、媒体、学术界和潜在用户进行沟通。交流,但很难将伦理研究的结果应用到设计、研发、部署等步骤中,只能起到“伦理清洗”的作用。

对此,段伟文表示,行业应着眼于“长期主义”,重建社会对科技公司的信任,否则很难长期发展。