人脸识别、语音识别、智能机器人……数字经济时代,人工智能已经走入生产生活中,被视为经济增长的新引擎、国际竞争的新阵地和推动智慧社会建设的有效工具。与此同时,人工智能在应用过程中产生的网络系统攻击、隐私泄露、数据权属等安全问题也让整个产业如鲠在喉。人工智能发展面临哪些安全问题?产业有何应对之策?请关注本版报道。
5角钱一份的人脸信息被低价打包后在电商平台上出售,之后被用于虚假注册、网络诈骗等违法犯罪活动,被盗人在毫不知情的情况下“丢了脸”;智能驾驶场景被“数据投毒”,自动驾驶汽车经过一个停车标志时,经过精心设计的噪声扰动让目标检测系统无法准确识别标志,“眼见不为实”很可能导致交通意外……
现在,人工智能的数据挖掘分析能力不断提升,收集个人信息呈现精准化、全面化、简便化、隐秘化趋势。人脸、指纹、声纹、虹膜、心跳、基因等具有很强个人属性的信息被收集、分析和利用,如果这些数据一旦被泄露或者滥用不仅会给个人带来损失,还将对社会生产、社会治安乃至国家安全造成重大威胁。
发展可信赖的人工智能
从智能音箱在对话中“劝主人自杀”,到人工智能简历筛选系统对女性存在偏见,人工智能的安全问题不断浮出水面。
人工智能系统面临安全风险。加入微小的干扰,语音识别系统就可能出现识别错误;在生物特征识别过程中,构造一些对抗样本的攻击,系统会做出错误决策;网络攻击者通过分析人工智能系统的输出结果和输入数据之间的关系,可以逆向还原出原始数据……训练数据的污染会导致训练的算法模型决策出现偏差;输入数据的异常会导致智能系统的运行错误;开源框架的漏洞为网络攻击者窃取系统数据提供“便利”。
人工智能应用引发安全质疑。数据深度伪造可以生成虚假视频、虚假语音,如果这些内容大量生成与扩散,对个人隐私、社会安全、国家安全都将造成威胁;在新冠肺炎疫情防控过程中,人脸等生物信息也面临被过度采集的安全风险;随着人工智能辅助决策应用场景的增多,一些隐藏的社会偏见将破坏社会公平公正;手机软件利用人工智能算法“杀熟”,根据手机类型的不同推荐不同类型的商品,打车时推荐不同价格、档次的车辆……数据的过度采集、深度伪造、偏见歧视、智能窃取、资源滥用是人工智能面向产业化落地时遇到的安全挑战。
专家表示,从人工智能到可信赖的人工智能,意味着产业需要在技术层面上解决鲁棒性(稳定性)、可解释性和可复制性等核心技术问题。同时,为了大规模产业化应用,还必须考虑到人工智能的公平性和负责性,这些是人工智能必须解决的安全问题。
谈“虎”色变大可不必
“人工智能相当于一个锤子,不能哪一个钉子都砸。”人工智能的技术进步可以给社会带来正向的效益,不应因为现在面临的安全忧虑而谈“虎”色变。
以人工智能最受关注的数据安全领域为例,它与人工智能是互促发展的关系。当前人工智能尚处于海量数据“喂养”阶段,数据安全是人工智能安全的重要保障,数据的质量和安全直接影响到人工智能应用的安全,如果能够妥善处理数据,能够促进高质量数据的集成,就能够很有效地驱动人工智能往正向发展。
同时,人工智能技术应用到数据安全治理方面,能够驱动数据安全治理向精准化、智能化、高效化和自动化等方向发展。人工智能能够实现智能化的分析决策,提升海量数据的处理效率,提升数据内容识别的准确率。这些优点能帮助安全治理自动化、智能化、高效化和精准化。
在发展中解决安全问题
人工智能发展中的安全问题在全球备受重视,各国都在战略规划、伦理规范、技术发展等方面采取了多种举措。我国高度重视人工智能安全的建设,推进人工智能的安全应用和数据安全风险防范。
对于安全问题,中国信通院安全所信息安全研究部主任魏薇认为,因噎废食不可取,要在人工智能发展中解决数据安全的问题。
伦理约束,法规引导。魏薇建议,构建我国人工智能优质的数据资源,在发展中规避数据偏见、数据权属等问题,同时,以数据安全促进人工智能发展。引导社会遵循人工智能的伦理规范,同时要积极参与到国际规则的制定中。建立人工智能数据安全相关的法律法规,特别是其中备受关注的算法、人脸识别、深伪等方面亟须相关的规章引导。加强对人工智能数据安全的监管,包括线上线下多种方式的监督检查,对人工智能相关的产品应用和服务进行监测评估。
技术应对,安全防御。健全标准体系,通过设置专门的人工智能安全研究组,开展一些急需标准的研制。创新人工智能安全技术手段,包括加强基础理论的研究、建设完善我国人工智能开源学习框架,促进人工智能数据安全应用。培养人工智能安全方面的人才,通过企业和科研机构、高校等联合进行人工智能安全课题的申报、技术的研发与应用,共同促进人工智能数据安全治理。