企业研究
    主页 > 综合新闻 >

人工智能产业治理论坛今开幕,众AI企业承诺自律

8月2日至3日,首届全球数字经济大会在北京召开。作为大会平行论坛之一,人工智能产业治理论坛备受关注。 8月3日,我国人工智能领域顶尖科学家、学者和知名企业家齐聚本次盛会,围绕“探索创新,共同担当”主题展开前沿对话,联合发布首份《人工智能行业责任宣言》。

中国科学院院士、清华大学人工智能研究所所长张博,北京市海淀区副书记、区长王和生,市委书记唐建国北京市大数据中心党支部、副主任舒必磊,中关村科学城管委会专职副主任、海淀区科信局局长,中国信息通信研究院副总工程师王爱华、北京致远人工智能研究院常务副院长曹刚出席论坛。

人工智能创新发展,深度协同安全治理<人工智能作为引领第四次技术革命的战略性技术,为社会建设和经济发展带来了重大而深远的影响。人工智能在纯技术层面上是价值中立的,但在实际应用中,它既具有创造性又具有破坏性。数据隐私、算法偏向、技术滥用等安全问题正在对社会公共治理和产业智能化转型提出严峻挑战。

“人工智能和信息系统在安全性上有显着差异。信息系统安全问题主要是软件设计上的漏洞,很容易解决。第二代人工智能的安全问题主要来自深度学习算法的不安全性更重要,也更难以克服。”中国科学院院士、清华大学人工智能研究所名誉院长、睿来智慧首席科学家张博在主题演讲中率先破题。他指出,管理人工智能,防止其被滥用,阻止其被滥用,一方面要从法律法规、伦理规范、行业共识等不同层面“标本兼治”。 ,并从技术创新层面“治本”。张波院士提出发展第三代人工智能技术,将第一代知识驱动和第二代数据驱动人工智能相结合,利用知识、数据、算法和计算能力四大要素,建立新的可解释和稳健的人工智能理论和方法,开发安全、可信、可靠和可扩展的人工智能技术。

曾毅,中国科学院自动化研究所研究员,中国科学院院士国家下一代人工智能治理委员会、联合国教科文组织人工智能伦理特设专家组专家认为,不存在“人工智能治理发展”“治理第一”这两个前提的矛盾人工智能的发展是人工智能的可持续发展和善治,两者深度协同C。如何实现人工智能的可持续发展?曾毅提出将伦理与治理嵌入人工智能产品设计、研发、部署、使用全生命周期的具体建议,形成政府、学术界、企业、公民社会、媒体、用户、服务供应商。积极共治的良性生态,使人工智能稳步发展,使全球可持续发展目标得以实现。曾毅教授表示,本次宣言的发布对企业具有重要参考意义,具有初步的实用建议。推动形成政产学研多方共治体系,稳步推进“负责任、可持续”的人工智能建设。生态,赋能人类与生态的可持续发展。

中国社会科学院科技哲学研究室主任、科技与社会研究中心主任段伟文就中国社会信任的危机与重建数字时代在他的演讲中。他表示,数字技术和人工智能产业发展的伦理风险带来了诸多社会信任问题。面对既具有预防性又具有追溯性的数字化治理趋势,人工智能企业应直接面对社会许可的挑战,切实感知公众对科技企业的认知。认可和评价。他建议人工智能企业不应逃避社会监督,而应继续思考和重塑科技的社会印象,技术进步与伦理设计应齐头并进,携手共建人工智能伦理治理。 .

中伦律师事务所合伙人陈继红结合9月1日起实施的《中华人民共和国数据安全法》分享。人工智能治理的实现需要多参与和多路径。为人工智能的发展制定规则是路径之一,法律在制定硬性规则。人工智能公司必须遵守《数据安全法》进行数据处理并符合合规标准。

一个人走得快,走得远。在主题演讲环节,与会嘉宾在分享中达成共识:在推动人工智能创新发展的道路上,只有从技术、伦理、法律三个维度“三管齐下”,高实现安全治理的效率。只有创新发展与安全治理深度协同,人工智能才能真正成为推动社会发展、增进人类福祉的有力工具。

分享科技使命,发布首份《责任宣言》在人工智能产业”

为更好地推动人工智能技术创新和产业稳定发展,形成更加完整规范的创新体系和产业生态,《责任宣言》人工智能产业》在本次论坛上正式发布。

该宣言由北京致远人工智能研究院和瑞来智慧共同发起。核心骨干企业和学术研究机构共同参与。

该宣言包含五项举措。首先,它强调人工智能系统的设计、研发、实施和推广应符合可持续发展的理念,以促进社会安全和福祉为目标,尊重人的尊严和权利。前提。其次,在技术能力方面,提出最大限度地提高人工智能系统的安全性和可信度,提高鲁棒性和抗干扰性,增强算法的透明度和可解释性,同时保护用户的权益和隐私。各方,并为用户提供足够的数据。安全。