多位专家指出,目前人工智能技术已经在应用中引发了侵犯隐私、歧视等伦理问题,亟须建立全新的治理模式,进一步健全相关治理体系,推动法律法规标准规范的出台和落地,同时还应加强伦理教育、提高全民伦理意识。
人工智能产业的高速发展使其伦理与治理问题备受各界关注。
国家新一代人工智能治理专业委员会委员、上海交通大学人工智能研究院首席顾问教授李仁涵日前在北京智源大会“人工智能伦理、治理与可持续发展论坛”上表示,人工智能技术的未来发展势头迅猛,相关国际组织制定的人工智能标准进入井喷期,国际人工智能治理工作正在加速可操作化。
“当前,建立相应的可操作‘规则’对中国而言是比较迫切的,这不仅有利于让人工智能可持续发展,还有利于国际接轨和全球化发展。”李仁涵认为,建设人工智能评测平台有助于人工智能治理落地,是人工智能未来发展的重要基础设施之一。为此需要尽早规划,应形成人工智能治理“三步走”战略,即在安全方面做到可操作;在伦理方面,将软性举措变为刚性举措,从而促进落地;以及对不可控和变异的问题进行前瞻性研究。
会上,多位专家指出,目前人工智能技术已经在应用中引发了侵犯隐私、歧视等伦理问题,亟须建立全新的治理模式,进一步健全相关治理体系,推动法律法规标准规范的出台和落地,同时还应加强伦理教育、提高全民伦理意识。
清华大学公共管理学院教授、人工智能国际治理研究院副院长梁正指出,形成人工智能伦理和治理共识是当下的首要问题,否则将阻碍其发展。他介绍,目前全球已经有160多个国家出台了人工智能的伦理原则或指南,这里面既包括各国政府,也包括G20、欧盟这种国际组织发布的指引、倡议等等。
科技部中国科学技术信息研究所党委书记、所长赵志耘介绍,在建立组织推进机制方面,中国成立了新一代人工智能发展规划推进办公室、国家新一代人工智能治理专业委员会等;在治理实施文件方面,接连发布《新一代人工智能治理原则》《新一代人工智能伦理规范》等政策文件,国家科技伦理委员会人工智能分委会还在研究起草人工智能伦理高风险清单。