随着AI适用性的迅速提高以及AI系统所带来的风险意识不断增强,构建负责任的AI系统和机器学习技术已成为所有行业组织的首要关切。与此同时,这促使许多组织就隐私、公平、偏见、透明度和问责制等社会和道德问题对AI制定更高级的原则。
如今,人工智能(AI)及其背后的计算系统已不仅仅是技术问题,同时也是国家和社会、治理和公共利益的问题。技术人员、政策制定者和公众所做出的选择将深刻塑造未来几十年机器和人类之间的关系。
随着AI适用性的迅速提高以及AI系统所带来的风险意识不断增强,构建负责任的AI系统和机器学习技术已成为所有行业组织的首要关切。与此同时,这促使许多组织就隐私、公平、偏见、透明度和问责制等社会和道德问题对AI制定更高级的原则。
如何将原则付诸实践尚未确定
MIT技术评论官网最新消息称,目前,关于AI已经有各种原则。例如,2019年,经济合作与发展组织通过了五项AI原则。同年,欧盟委员会发布了《可信AI道德准则》,确定了7项总体原则。特别是在处理个人数据方面,欧盟的《通用数据保护条例》中还有7条不同的原则。非营利性组织AlgorithmWatch也有一个包含150多条AI道德准则的资料库,并提出了《全球AI道德准则清单》。
麻省理工学院认为,这些原则的出发点是有建设性的,例如提出了人类监督对人工智能的重要性。这表明,监管机构和政府对AI的开发和部署很积极,但同时我们也需要开发工具来将这些原则付诸实践。
麻省理工学院斯隆管理学院官网近日报道称,即使各组织在负责任的AI原则上达成了广泛共识,但如何有效地将这些原则付诸实践尚未确定。
新原则制定需人人亲力亲为
据MIT技术评论称,在这些更广泛原则的基础上,该校苏世民计算机学院召开的全球性AI政策论坛将为政府和公司提供总体的政策框架和工具,从而为他们制定AI方面的具体措施提供建议。
“我们的目标是帮助决策者就AI政策做出切实可行的决策,”苏世民计算机学院院长丹尼尔·哈滕罗彻说,“关于AI的原则已经有了,但我们不是在制定另一套新的原则,而是针对AI的应用领域为全球的决策者提供特定的背景和指导。”
“超越已有的原则意味着要权衡取舍,并确定技术工具和解决这些问题的政策杠杆。我们创建了苏世民计算机学院来研究和解决这方面的问题,但这并不意味着我们要孤军奋战,”麻省理工学院教务长马丁·施密特说。“我们需要的是全球合作,要吸引科学家、技术人员、政策制定者和商业领袖参与其中。这是一个具有挑战性的复杂的过程,我们需要人人都亲力亲为。”
AI新阶段:创新性与社会化并存
据报道,AI政策论坛的设计预计历时一年。麻省理工学院计划于2021年春季举行线上峰会,并于2021年秋季举行后续活动,以展示迄今为止的研究以及未来对AI的需求。
政策论坛将就AI政策的一些最紧迫问题召集世界领先的技术和政策专家从AI在融资和流动性方面开展任务部署。2021年将有更多团体组织参与全球合作,共同目标是设计AI的新阶段:既发挥AI的创新潜力,又能使其回应社会需求。该论坛旨在为AI的新阶段提供具体的公共政策和框架,并帮助明确学术界和商界、民间社会和政府在实现AI方面各方需要发挥的作用。
衡量政策论坛举办成功与否的标准是,他们的努力是否弥合了群体之间的鸿沟,是否将原则性转化为可操作的实践,是否有助于加深人类和机器之间的信任。
英国媒体Lexology称,AI政策论坛的工作可能会产生全球性影响。在对AI如何监管和立法方面,不同司法部门之间可能存在差异。但是,AI的全球性以及政策论坛参与者的全球性意味着许多需要解决的问题也将是全球性的。(实习记者 张佳欣)