为人工智能创造一个比较好的发展环境或创新环境,推动人工智能技术、应用发展,可能会对整个人类社会带来更多的正向功能和价值。技术监管更多地是一种平衡的艺术,即如何平衡技术发展、技术应用和技术监管的关系,如何平衡经济、社会和政治的关系,以及如何平衡风险与伦理,技术与规则之间的关系。
随着算法在各行业的广泛应用,算法已成为数字社会的重要构件和基础。不过,在对整个社会带来正向功能和价值的同时,也引发外界对其带来的社会风险和伦理道德的谈论。
为此,近日,由清华大学数据治理研究中心主办的“人工智能伦理与治理”专题研讨会在线上召开,邀请了来自中央党校、中国社科院、清华大学、复旦大学、浙江大学、中国政法大学、电子科技大学、山东大学、北京化工大学、中国农业大学、对外经济贸易大学、山东师范大学等多位专家学者,围绕人工智能发展与应用带来的社会风险、人工智能伦理的核心关切和构建方式等问题,展开了谈论。
新形势下的数据保护等问题受关注
研讨会上发表了《人工智能伦理与治理报告》(下称报告)。
报告认为,人工智能伦理准则可以分为安全、透明、公平、个人数据保护、责任、真实、人类自主、人类尊严等八个维度。会上,清华大学数据治理研究中心项目研究员戴思源分享了该报告的相关研究成果。他指出,网民对上述八个维度都有关注,其中在安全、公平、个人数据保护、责任方面关注的人数最多,对比之下,对透明、人类自主和人类尊严这几个维度较少关注。
公众数据保护一直受外界所关注。报告研究团队在调查中发现,公众认为最重要的个人信息包括自己的基本信息、人际关系信息、经济情况信息等。另外,在隐私泄露、信息盗用、信息删除、信息查阅等个人信息和隐私潜在风险的四个方面,网民对于个人隐私泄露和信息盗用最为担心。
政府和企业如何使用个人数据应具有双向约束的契约属性,当个人向政府或企业提供数据时,政府或企业应更透明、合理地使用个人数据。公众是否愿意分享个人信息的意愿应得到尊重;在不同情况下的收集个人信息的目的和用途应有更明确的界定。因此,对于责任属性的讨论和隐私的保护应细分大数据的用途、目的和属性,强调责任属性的互利性,这是政府、企业与公众的共同责任。
报告也指出,目前学界尚未对算法公平的定义、测量和准则形成一致意见,了解公众在主观上如何判定算法决策结果的公正性也非常重要,将有助于科技工作者研发出具有公平原则的算法,这些原则需符合公众对公平概念的普遍理解。
在了解大众基础上推动“算法启蒙”
上述报告调查发现,就人工智能伦理,中国网民最关注违背了公平原则的大数据杀熟等行为,其次是数据保护、人脸技术等安全性问题和自动驾驶汽车等的责任界定问题,而较少担心算法等人工智能的技术原理不透明、不公开或“人工智能越来越先进,普通人在社会中发挥的作用越来越小”等人类尊严问题。在所有场景中,有用性和伦理因素都是最重要的影响受访者使用智能产品的因素。
报告称,公众看重人工智能的公共安全性和个人数据保护,年轻群体倾向于发挥企业、用户、社会的自主性和多元共治作用,而50岁以上群体更倾向政府的行政监管;学历越高、所在城市经济越发达、收入越高的受访者,越看重技术伦理和法治方式对人工智能发展和规范的作用。
对于不同的群体为何会对人工智能的看法不尽相同,对外经济贸易大学政府管理学院讲师宁晶发表了她关于社交媒体用户算法接受度的研究。她称,社交媒体用户的技能熟练度和对算法推荐内容的接受倾向存在一个正相关关系,也就是说,越不熟练使用社交媒体,越没有办法接受算法推荐内容。
解决人工智能伦理问题需实证研究和发展技术
报告认为,人工智能伦理准则是指“当前在人工智能技术开发和应用中,依照理想中的人伦关系、社会秩序所确立的,相关主体应予以遵循的标准或原则”。就理想的愿景如何在现实中接受检验和落地,专家们也给出了各自的看法。
当前,数字技术、人工智能等已经广泛被应用在社会治理之中,如果看待这些技术的应用,以及带来的影响,也为这场研讨会所关注。中国农业大学人文与发展学院讲师曲甜认为,基层治理智能化转型,目前关于“场景”的开发和讨论已经非常多了。但是,关于智能技术与治理手段的结合,似乎还不充分。特别是在乡村地区,乡村有很多基于熟人社会、传统文化形成的治理手段,在长期实践中取得了很好的治理效果,如何让现代智能技术和传统治理手段有机结合而不是相互排斥,也是基层治理智能化转型应当关注的问题。
人工智能伦理应与具体国情相结合
由于人工智能颠覆了很多传统认知,解构了原有的生产关系,有关人工智能伦理的讨论也在各个国家开展。但研究发现,每个国家对待它的态度不尽相同。
报告对比发现,美国重视“培养公众对人工智能技术的信任和信心”,推动人工智能创新的三个基础性原则是“确保公众参与”;“限制监管过度”,要求监管机构在考虑提出与部署人工智能应用程序相关的法规之前,必须仔细评估风险和成本效益,重点是建立灵活的、基于性能的框架,而不是一刀切的法规;以及“促进可信赖的人工智能”;在治理标准上鼓励向私营部门和学术界提供政府数据集,促进机器学习模型的训练,形成政企研优势互补和数据资源的流动和利用。而欧盟的监管措施使人工智能企业的伦理治理更加规范,但相关限制性规定使欧盟人工智能企业在全球技术发展和应用中呈现相对劣势。
上述报告还提出了人工智能治理的“中国方案”:“发挥伦理委员会作用、设立伦理道德基本原则”,企业人工智能委员会可制定内部伦理风险管理政策、协调企业各部门伦理风险应对;“因地制定治理细则、构建伦理标准体系”,从众多伦理原则中提炼共识性通则,探索如何转化为全面覆盖、分级分类、科学合理、切实可用的标准细则,并通过技术研发实现落地;“制定智能治理法律法规、规范人工智能开发使用”,由于新技术快速发展,仓促立法不利于法律条文稳定性和可能限制新技术发展,可用行政文件和行业规范暂替法律条文来积累经验;“提高公众智能素养、畅通社会监督渠道”“出台伦理道德培训手册、增强责任主体风险意识”“搭建伦理治理共同体、加强人工智能国际合作”。
为人工智能创造一个比较好的发展环境或创新环境,推动人工智能技术、应用发展,可能会对整个人类社会带来更多的正向功能和价值。技术监管更多地是一种平衡的艺术,即如何平衡技术发展、技术应用和技术监管的关系,如何平衡经济、社会和政治的关系,以及如何平衡风险与伦理,技术与规则之间的关系。