数据隐私、算法偏见、技术滥用等安全问题给社会公共治理与产业智能化转型带来严峻挑战。中国科学院院士、清华大学人工智能研究院院长张钹等专家呼吁发展安全可控的第三代人工智能。
数据隐私、算法偏见、技术滥用等安全问题给社会公共治理与产业智能化转型带来严峻挑战。中国科学院院士、清华大学人工智能研究院院长张钹等专家呼吁发展安全可控的第三代人工智能。
近日在“AI安全与产业治理”论坛上,张钹说,“第三代人工智能”发展路径是融合第一代的知识驱动和第二代的数据驱动的人工智能,利用知识、数据、算法和算力4个要素,建立新的可解释和鲁棒的AI理论和方法,从而发展安全、可信、可靠和可扩展的AI技术。
与会者表示,第三代人工智能的提出恰逢其时,将助力中国实现人工智能在安全可信领域的突破。
“现阶段人工智能产业正经历从高速增长向高质量发展的转变,产业期待的提升让金融、医疗等更复杂的高价值场景的应用需求不断增加,安全性的重视程度也不断提升,但由于传统技术范式存在天然的算法漏洞和缺陷,难以支撑人工智能的长久高质量发展。”瑞莱智慧CEO田天在论坛上说。
田天表示,作为第三代人工智能的践行者与引领者,需加快发展第三代人工智能,发展“安全、可控”核心能力。他解释说,“安全”是指打造数据安全与算法安全两大核心能力,解决数据强依赖带来的隐私泄漏与数据投毒等隐患,同时提升算法的鲁棒性与可靠性;“可控”既指应用层面的合规可控,更指核心技术的自主可控,以自主可控为根基,通过理论创新、技术突破形成核心竞争力。安全可控是发展第三代人工智能的核心基准,也是加快人工智能高质量发展的有力支撑。
会上,中国信息通信研究院安全所信息安全研究部主任魏薇从伦理规范、法律法规、标准体系、技术手段、人才培养等角度出发,提出多项数据安全治理建议,以期为实现人工智能行业数据安全合规实践提供支撑。
与会专家强调,发展安全可控的人工智能是一项系统性的工作,需要行业标准、法律规范等治理工作与技术发展等多个维度共同推进,打造与之配套的“基础设施”。
清华大学人工智能治理研究院副院长梁正对此提出,首先需进行分领域、分级治理,并确定治理优先级,目前聚焦于利用个人信息进行的自动化决策系统,未来聚焦于涉及人身安全的高风险领域。同时在算法治理中识别和区分规则问题和技术问题,采取针对性的措施,以及坚持安全、公平、透明和隐私等基本原则,实现负责任的人工智能。
在业界看来,技术基础设施的打造仍将发挥起基础性的作用。对此,RealAI联合清华大学等发布了基于深度学习模型的对抗攻防基准平台。
清华大学计算机系教授、RealAI首席科学家朱军表示,此基准可以更加公平、全面地衡量不同算法的效果,提供方便使用的鲁棒性测试工具,全面衡量AI模型的安全性,用户通过提交模型的方式可以获取安全性的得分。
“数据对于AI发展非常重要,通过对于不同攻击和防御算法统一全面的对比,相信这次的平台可以为机器学习模型的安全与稳定性验证提供更全面的支持,并为进一步设计开发新的安全、强壮的学习算法提供有力的技术背书。”伊利诺伊大学计算机科学系教授李博说。