英国《自然》网站12月10日发表社论指出,近年来,围绕人工智能(AI)技术的研发与应用,全球各类智库、组织及团体展开了广泛对话,发布了大量白皮书并提出诸多建议。然而,在将这些规则转化为全球共识,以最大化AI效益并降低其风险的过程中,全球领导力却显不足。中国正致力于改变这一局面。
英国《自然》网站12月10日发表社论指出,近年来,围绕人工智能(AI)技术的研发与应用,全球各类智库、组织及团体展开了广泛对话,发布了大量白皮书并提出诸多建议。然而,在将这些规则转化为全球共识,以最大化AI效益并降低其风险的过程中,全球领导力却显不足。中国正致力于改变这一局面。
中国倡议成立一个全球性的AI协调机构——世界AI合作组织。社论认为,建立此类机构符合各国共同利益,世界各国政府均应积极参与。
AI风险需要警惕
AI模型具有惊人的能力,既能推动科学进步,亦可促进经济增长。然而,由于其对世界的理解尚不完整,这些模型可能以不可预测的方式出错,并通过加剧不平等、助长犯罪、传播错误与虚假信息等方式造成伤害。有知名学者甚至认为,未来可能出现的“超智能AI”——即在所有任务上超越人类最高水平的AI系统,可能对人类存续构成威胁。
然而,在目前快速发展的AI竞争中,这些风险尚未得到足够重视。美国虽拥有部分最强大、应用最广泛的AI模型,却缺乏国家层面的统一监管机构与法律,仅依赖各州零散立法。总体而言,美国仍期待企业通过自我监管建立内部防线。
不过,总部位于美国加州的“未来生命研究所”于12月3日发布了针对大型科技公司安全与风险政策的最新评估报告——《AI安全指数》。在该评分体系(A—F级)中,没有一家美国公司获得高于C+的评分。
欧盟去年提出的《AI法案》要求最强AI系统的制造商加强对模型风险的评估。该法案正分阶段实施,但对违规行为处以高额罚款的威慑效果尚未显现。据报道,企业界正持续向欧盟施压,要求放宽相关限制。
中国倡议值得重视
社论指出,中国选择了一条不同的路径。中国政府在积极推动AI融入社会各领域——从地方政务聊天机器人到提升生产效率的工厂机器人,同时也通过监管机构要求AI输出具备可追溯性,并落实企业主体责任。
自2022年起,中国已出台一系列法律法规与技术标准,要求开发者在部署生成式AI模型前接受安全评估,并在生成内容中嵌入显著且不可去除的标识,以防止欺诈与虚假信息传播。这一进程正在加速:据北京协和人工智能咨询公司统计,仅2025年上半年,中国发布的国家级AI相关要求数量已接近过去3年之和。
理解中国在AI领域的标准对国际社会日益重要。中国企业提供的免费或低成本“开源”模型,正促使全球越来越多的公司基于中国AI技术构建服务。与此同时,中国研究人员也正通过多边参与,协助评估何种全球治理机制既有效又可行。
全球治理乃大势所趋
目前全球层面的AI监管努力,如经济合作与发展组织的《AI原则》与欧盟委员会的《AI框架公约》,或因缺乏约束力,或因执行不足而效果有限。有效的AI治理需要创新思路。世界AI合作组织或可借鉴维也纳国际原子能机构监管核能的模式,以确保共同遵守协定。
《自然》社论强调,全球AI竞赛并不能确保人类更安全或更富裕。更合理的路径是国际社会就“何为安全”以及“如何利用AI”达成共识。中国发起成立世界AI合作组织的倡议值得欢迎,全球研究人员与相关机构应积极参与其中。