近日,首届《清华大学人工智能合作与治理国际论坛》成功举办。该论坛由清华大学人工智能国际治理研究院(I-AIIG)主办、联合国开发计划署(UNDP)作为国际支持机构,汇聚AI领域领军人物和机构,共同探讨人工智能技术带来的机遇和挑战。
近日,首届《清华大学人工智能合作与治理国际论坛》成功举办。该论坛由清华大学人工智能国际治理研究院(I-AIIG)主办、联合国开发计划署(UNDP)作为国际支持机构,汇聚AI领域领军人物和机构,共同探讨人工智能技术带来的机遇和挑战。
数字化发展的趋势还将继续,科技将加速融入生产生活的方方面面。与会者普遍认为,新技术的产生与快速发展,比如在线服务模式的迅速扩大,各种自动化、智能化方案得以快速推广,促使原有陈旧的社会治理模式升级等。与此同时,在旷视科技看来,人们还需要面对由技术引发的新的社会问题,尤其需要重视数字安全与用户隐私保护。
对此,旷视科技在论坛讨论中就“未来该如何对人工智能技术应用更好的进行治理”提出了三点建议:首先,AI治理的关键是平衡好创新发展与有效治理的关系,既需要对技术进行灵活化、精细化治理,又需要建立敏捷的监管和制度;其次,旷视科技提出了多元共治的构想,倡导建立“以多元共治实现对AI治理的长效机制”,有效规避安全风险;同时,企业在AI治理模式探索和相关行业规范落地实践方面发挥关键作用,因此企业要先做到自律,成为推动AI治理的中坚力量。
事实上,作为AI治理的积极倡导者和务实推动者,旷视科技一直以来都十分重视数据安全与个人信息保护,并不断通过技术创新与管理机制切实保障用户的个人信息安全。在此前,旷视科技基于企业自身管理标准制定了《人工智能应用准则》并自觉践行,同时也是《信息安全技术 个人信息安全规范》的试点企业之一、国内首个通过ISO27701的AI企业。此外,旷视科技积极参与相关标准规范的制定,是《生物特征识别信息保护要求》国家标准和《人脸识别数据安全要求》国家标准的主要编制单位之一,为引导人工智能产业良性发展贡献了企业的力量。
除了企业自身的严格自律,数据安全与隐私保护需要全社会共同的关注,此次论坛上,不只是旷视科技,国际组织、各国政府、学界、产业界等各方也都表达了对这个问题的关切与思考:只有全球加强交流,互相借鉴,才能逐渐形成共识,让人类在未来更好地受益于AI带来的价值。未来,旷视科技也将继续严格遵守国家相关法律法规、标准规范,携手社会各界加强数据监管机制建设、打造共治共享的数据安全体系,推动人工智能的健康发展。