日本总务省已准备研拟安全认证内容,以规范所有内建AI的产品、机器人,以确保使用者的安全性,建立社会大众对AI的信任。预计最快在2018年起正式推行。
人工智能(AI)除了方便,但也一直存在是否会反过来危害人类安全的疑虑,日本政府为了促进AI产业发展,打算自2018年起推动AI安全性标准与认证,希望透过建立社会信任的方式,加速AI产业发展。
位阶类似我国内政部但同时负责管理通讯传播与国势的日本总务省,近日表示将研发一套审核人工智能科技的审查制度,用来管理未来市场上所有配备AI技术的产品,包括已知的IBM Watson以及AI机器人等,确保其对使用者的安全性,以赢取社会对AI技术的信任。
总务省已经开始研拟认证内容,预计最快将由2018年起正式推行该制度。该部门估计,AI、Big Data与物联网相关产业,可望在2020年为日本增加33兆日圆(约合新台币9兆元)的国民生产毛额(GDP)。
总务省的政策目标并非透过审核制度来限制AI产业的发展,而是希望透过该制度,让符合安全规范的产品,能有认证来提高市场能见度。该计划认证的内容可能将包括产品设计具备可让人类随时取回控制权的安全性设计,以及预防AI系统在遭到未经核准使用者取用时,泄漏敏感个资,而一般操作时的个资取用设计,也会列入审核项目。
总务省预计将组成独立团队,针对AI技术进行审查,同时要求研发人员解释在遭遇特殊意外事件时,配备AI技术的设备进行反应的设计逻辑等。此外,总务省也将针对AI设备在运作时倘若发生伤害他人的结果时,相关的责任归属,进行研究,以控制可能的风险。
微信扫描二维码,关注公众号。