人工智能时代的算法权力:逻辑、风险及规制
2020/12/30 08:44   河海大学学报      关键字:人工智能 算法权力 逻辑 风险 规制      浏览量:
人工智能时代已然到来,具备自主学习能力和预测能力的智能算法开始由虚拟空间向现实空间延伸。算法已不仅仅是特定的技术,更是社会权力运行体系中的重要变量。
  一、问题的提出
  人工智能时代的到来使技术产生了颠覆式的变革与发展,大数据、机器学习、深度学习和神经网络等新型技术在社会方方面面的应用,构成了智能时代独特的表征。这些技术以人工智能为主线,串起了一张完整的技术网络。大数据是人工智能技术发展的基石;机器学习能对数据进行分析、决策和预测,是实现智能的方法;深度学习是使用包括复杂结构在内的多个处理层,对数据进行高维抽象的算法。人工智能相关技术的本质是基于数据的算法。数据是现实世界的数字化反映,可以被收集,但不能被创新,算法的发展决定了智能革命的进程。
  算法的运算机理是用机器语言刻绘现实世界,对研究对象进行抽象的简化,建构出数学模型。它本质上是解决问题的一系列指令,是用系统的方法处理问题的一种策略机制。随着数据体量的扩充和计算能力的发展,算法广泛地应用于信息处理、生物识别、数据挖掘、医疗健康、新闻生产和保险投资等多个领域,全方位改变着人类社会的生产、生活方式和运行结构。算法新闻、算法经济、算法伦理、算法权威等新概念层出不穷,算法成为新兴的力量,“算法即权力”的命题由此开始引人关注。
  算法权力是掌握算法技术的个人和企业利用自身的技术优势和行业便利,把控社会资源及信息,引导政府做出决策,从而形成的一股不可小觑的力量。算法权力具有先进性,并不同于威胁公民自由和权利的纵向强迫性国家权力,而是一种横向的“非国家力量”,能够利用技术实现新型的引导。马克思·韦伯曾指出,“权力意味着在一种社会关系里,哪怕是遇到反对也能贯彻自己意志的任何机会,不管这种机会是建立在什么基础上”。算法权力建立在技术发展的基础上,将社会所产生的数据进行转化、控制,形成一种“准公权力”。算法权力并不涵盖对敌对力量的权力夺取和暴力执行等行为,它与传统意义上的政治统治权不同,是一种内化的、泛在的权力关系,普遍存在于个人生活和社会运作的方方面面,表现为对公众和社会组织的操纵和引导。这种技术权力以治理为目标,不但体现着宏观的政治管理和结构,而且也表现为对个人和群体行为的直接引导。
  算法权力过大会引发社会问题,过小会制约智能技术的发展。合理地界定算法权力,能够调整社会利益的分配,避免技术主体为取得权利而产生不当行为。认清算法权力的逻辑和风险,能够有效地避免权力滥用和权力异化。智能算法的研发与应用以商业市场为主,大型企业集团作为技术持有者,其资格、立场和行为没有固定的标准,企业人员的文化、思想及欲望更加难以掌控。算法权力存在内生性的风险,会侵害政治正义,导致制度羞辱,引发权利保护的危机,如何对算法权力进行恰当的规制是必须要考虑的问题。
  学界从多个领域对算法权力进行了研究,并取得了一定的研究成果。比如法学从算法权力本身出发,讨论权力与权利之间的关系;新闻传播学认为“传播是一种权利”,集中讨论新闻生产过程中算法技术的“赋权”问题;政治学侧重分析算法权力的沿革、作用和规制,部分对于风险的探讨也多聚焦于权力本身,较少探讨算法权力带来的社会风险。对于算法权力的规制,则多从算法技术本身出发,具有较强的针对性,比如赋予算法解释权、强化算法透明度等工具性措施。但算法已不仅是一种独立的技术,而是与社会权力结构融为一体的自主性体系。探讨算法的规制核心在于认清算法权力的运行逻辑,对算法权力的风险进行对应的分析。要在政府、司法、企业、社会等层面展开多维规制,既要保障技术安全,降低资本依赖,也要构建算法治理体系,完善算法治理机制。
  二、算法权力的运行逻辑
  算法权力作为一种“软权力”,有其自身的运行逻辑。智能算法的研发与使用依托于大型互联网企业,注定了算法权力以利益为导向,遵循商业逻辑,具有与生俱来的歧视性和偏好性。技术有自身的发展要求和规律,技术理性能够催生合作性的社会权力,将自身的强制性特征隐形化,显现出商业逻辑、偏好原则、技术理性和隐性运行的特征。
  1.商业逻辑先于管理逻辑
  算法权力的根本是利益,既以特定的利益为出发点和落脚点,也为特定的利益而存在。商业逻辑与管理逻辑的首要区别在于对利益的定位不同。一方面,算法作用于公共领域,其权力来源和目标指向都具有公共性,属于有关社会成员的公共事务。算法权力会不可避免地涉及公共利益、产生公共问题,需要以管理逻辑强调秩序和资源配置的合理性。另一方面,算法的研发与运行需要投入巨大的资金和人力,资本为技术研发提供物质保障,成为算法运行中的把控者。算法是技术,也是产业,这种市场化的运作方式遵循商业逻辑,追求资本利益最大化。商业逻辑与管理逻辑的博弈是权力与资本的斗争,表现于算法权力所导致出的社会利益分化。恩格斯指出,社会伊始就存在着共同利益,维护这种利益的工作,虽然是在全社会的监督下,但不能由个别成员来担当。算法技术掌握在少部分企业的手中,具有不透明性,“个别的社会成员”承担了算法利益的维护,公共利益让位于资本利益,加剧利益的冲突和分化。
  管理逻辑让位于商业逻辑的根源在于技术对市场的过度依附。算法的研发和运行作为商业秘密,受到各个企业的保护,具有“黑箱”性质,资本可以轻易地将自身的利益诉求植入算法,利用技术的“伪中立性”帮助自身实现特定的诉求,实现平台的发展与扩张,追求利益最大化。研发者的价值导向会内化在算法运行的过程中,进行意识形态的催化和导向。享有资本支持的算法技术能够享用更全面的数据样本,建立更优化的运行架构,强化对政府、公民、社会的影响力和控制力。算法权力可以操纵企业和市场,对社会权力进行再梳理和再发现,改变传统官僚体制下的行政权力的发生模式,降低公共利益的地位。在这种行业格局下,算法权力势必以商业利益为导向,挤占公共利益的空间,侵害社会的公平正义。
  2.偏好原则驱逐平等原则
  权力的实质并不平等,是社会分工、整合、发展及进化的自然结果,但权力的形式具有平等性,强调一种始终贯穿于社会的正义。它要求保障公众受到平等对待的权利和可能,使社会中的每个个体都享有获取、支配和运用权力的机会。平等原则是获得权力的机会平等的体现,正如德沃金强调的,“人们所分享的不是权力,而是得到权力的机会和场所”。算法权力以自身的偏好性打破了这种机会的平等。一方面,算法可以循环偏见,把输入的数据作为程序运行的基础,再把产生的决策转化成新的数据。这种转化缺乏审核和保障,一旦输入的数据出现偏见,算法的结果就具有偏见,并且这些偏见会转化成新的数据。在算法技术出现之前,消费者大多会收到相同的宣传和优惠,但算法催生了歧视性定价和差别性宣传,能够分类进行信用评估、雇佣评估、喜好预测、广告推送等,对不同的人群形成不同的规则。另一方面,算法的研发门槛较高,运行环节并不透明,只有掌握资源和技术的大型企业和机构才能拥有自己的算法。公众只能扮演一个“提线木偶”的角色,放弃选择的思维、意识和能力,被算法的价值取向所裹挟。这种双向控制的维度从根源上侵害了公众获得权力机会的平等性。
  罗尔斯指出,在任何可辩护的机会原则里,平等并不意味着每个公民的生活机会在涉及任何并非是基本的善时必须是相等的,其仅仅意味着机会应该是公平的。算法权力一方面遵循偏好原则,另一方面限制公众的选择,说明人们没有在算法权力体系中受到平等的对待。这种偏好是实质上和形式上的双重不平等,导致算法权力在运行中出现失衡,拉大数据鸿沟,催生强弱分化。算法受制于自身的技术模式,无法突破“无知之幕”,做到合理地差别对待,反而会产生针对特殊主体的个体性规则,打破法的一般性,加剧实质的不平等程度。“法律面前人人平等”的理念被算法歧视和差别性宣传等个体性规则所掣肘,颠覆了平等的理念和逻辑。
  3.技术理性优于价值理性
  近代科技革命的浪潮催生了以技术为导向的技术理性,理性成为一种工具,变成了纯粹的目的,人自身的目的性和主体性在这种理性活动中被加速掩盖。技术驱动着社会的进步,人们批判的焦点实现了人与人之间到人与自然之间的关系的转换,科技的内生性规律转化成了世界演化的必然性规律。算法技术由一种知识体系演化成意识形态,进阶为新的统治形式,正如哈贝马斯所指出的,“技术统治论的命题作为隐形意识形态,甚至可以渗透到非政治化的居民的意识中,使合法性的力量得到发展”。算法权力依托于技术而产生,限制了人对自我的认知、意识和价值的评判,使人不再反思制度,也不再关心实践。
  算法权力使人陷入主体性困境。算法能够通过数据对人进行构想和透视,将人还原为数据,在物理和社会双重语境中消解人的概念,侵害公众的自由和权利。智能算法的个性化服务使人的需求受制于数据,人性自身的超越性自由和可能性力量被迅速限制。人不是数据的简单集合,但算法正在将数据化的信息进行归纳与整合,进行以技术为导向的区分及决策。人不是算法权力的主体,反而成为算法权力之下可被预测和计算的客体。算法由此控制并预测人的生活,消除个体的行为不确定性,对人进行赋值,界定个体的意义和价值,威胁人的地位。算法权力要防止对社会的道德、伦理及价值基础的背离,要看清技术理性的局限,让技术真正地服务于人,确保人的价值与意义。
  4.隐性运行替代显性运行
  算法催生了隐性社会权力。加尔布雷斯认为,社会权力的实现不再单纯地依赖强制性手段,而是开始向合作性手段转化,其建立在人的意愿之上,凸显个体人格的意志,使社会朝民主、自由、平等的方向演变,但这并不意味着显性权力的退化,而是意味着强制性权力远离了社会的个体意识,由显性运行转化为隐性运行,是智能时代下算法权力的一种重要实现技术。在智能社会里,算法黑箱、技术壁垒和数据流转的不透明性为权力的隐性运作提供了空间和条件。表面上,算法权力建立在知情同意的基础上,依靠平等的协商而实现,减少了社会的强制性胁迫。实际上,现实中不平等的权力结构反而依靠算法的不透明性获得了进一步的发展空间。算法的隐蔽性、高专业性和模糊性脱离了监管的范围,凭借着“分类”“筛选”“优先”“过滤”等模式塑造了个人在互联网上的感知,主导了建构受众感知的权力,形成了一种隐性的强制力量。
  在法理型统治的社会里,人类的现代理性被认为是权力合规化、合法化的基础。现实的权力结构是不平等的,权力的隐性运作既来源于不平等也会加大不平等,这种不平等内化在人类社会的区隔中,支配权力场域中的个体,人们无法意识到权力施加在自己身上的影响和作用。算法权力的隐性运行更能对社会产生结构性影响,形成福柯所指出的“全景敞视监狱”。在网络社会中,施加在人们身体的暴力场景逐渐消失,但惩罚和规训依然存在,时时刻刻监视着场域中每个人的动态。公众产生的数据被算法进行再操作,但公众却并不明晰这种算法机制是如何发挥作用的。隐性运行的算法权力更能够构建拟态真实,将自身的主张和态度伪装成具有唯一真理性的话语,拓宽权力自身实现的空间。
  三、算法权力形成的风险
  新型的权力结构会带来新的社会风险。算法权力的运行遵循商业逻辑、偏好原则、技术理性和隐性规则,呈现出资本化、歧视化、工具化和私密化的态势,形成一种以技术为中心的新型权力,脱离了监管的范围,会侵害社会的公平与正义,造成新的社会风险。
  1.政治正义解体
  权力运行逻辑的改变直接影响到政治的实现方式和社会的运行模式。算法权力会损害政治正义,造成潜在的道德风险和伦理危机。政治正义是政治价值的终极形式,核心在于公平正义,是一个现代国家所必须保障的政治基础。罗尔斯指出:“正义是社会制度的首要价值,正像真理是思想体系的首要价值一样。”政治正义建立在理性的公民资格上,能够以规范来制衡私利,保障政治秩序公正、稳定、有序地运行。算法权力借助技术的“伪中立性”影响公众的意识形态及价值取向,消解了公民的主体性地位,剥夺了公民理性思考的能力。在权力运行的偏好原则下,资本会将自身的价值观融入社会规则,选择性呈现部分社会现实,加剧社会中固有的歧视、偏见与不平等。
  资本和技术对弱势群体有天然的歧视性与剥削性,当这二者与权力结合在一起时,就会催生技术资本化和资本技术化,使歧视变为隐性的社会心态,甚至显性的社会制度。算法权力作为一种“准公权力”,能够从虚拟空间延伸到现实空间,引导公众及社会组织的思想和行为,消解主流价值观的地位。算法权力是技术权力,融入在技术的研发和应用的全环节,算法偏见、数据歧视、信息茧房、数字鸿沟等会导致种族、性别、年龄、阶层区域等政治歧视。特别是算法权力运行中具有黑箱性质的偏好原则,会使贫困社区和少数群体变成“高风险群体”,使其在医疗、就业、住房、执法、信贷甚至教育上受到歧视,使弱者一直处于弱势地位,陷入数据歧视的怪圈。
  2.制度羞辱盛行
  一个体面的社会应当从制度上减少对社会成员的歧视,否则会造成社会隔阂、对立甚至撕裂,造成正义缺失和两极分化。马加利特在《体面社会》中指出:“一个体面社会就是一个其社会组织不羞辱人民的社会。”羞辱的核心内涵在于伤害人的尊严、价值及人格,由罗尔斯的“公平正义”到马加利特的“不羞辱”的转向,彰显出人类社会伦理的进阶。这种“羞辱”的重点在于把人当作物体、机器和次等人对待。算法权力的显著特征就是“不把人当人看”,强调人的非人格性特征。技术理性的“人格数据化”使人成为技术网络的附属品,成为算法运行中的一个元素和节点。以技术理性作为社会价值的导向,压抑了每个社会个体与生俱来的人格和尊严的诉求。
  技术权力的共性在于依托大规模的集成数字化平台,靠全覆盖的摄像头、传感器、分析中心和智能终端汇总社会个体和群体的生活形态和生活轨迹,将分散的价值与意识集中成公意,从而强制执行。这种信息的收集、分析属于隐性运作的范畴,缺乏合理的监管,消减了规范与道德的作用能力,反映出权力日渐内化的操纵方式。虚拟与真实的界限日渐消失,算法成为了规则本身,消弭人的尊严和价值,人在数字的圈养下成为一种量化系统。在技术理性的侵入下,人与物没有本质的区别,算法评分机制将人的价值量化为不同的级别和层次,进行分类管理和分级应用,加剧制度对人的羞辱。比如,算法评分机制为资本打造了私人化的基础设施,将政府的科层制管理体系扩展为社会性平台,却并不能准确核查平台主体的身份来约束受传者和传播者,公众由此失去了现代意义上的人格权和隐私权[。权力和制度之所以合理,是因为其可以保护社会成员的权利不受侵害,人本价值的失落和隐性规则的盛行使公众难以逃脱制度羞辱的牢笼。
  3.权利保护危机
  权利是经由社会判断、协商和权衡后,得到公认并受到保障的每个社会成员所应分配的合理利益。在法理学的视域下,权力是为权利而设置的,权利是对利益分配的处置。权力的根本是利益,既为特定的利益而存在,也以利益为基础和依托。算法权力的利益代表是资本,意味着资本能够从事权利的界定及权衡,成为一种“公共机关”。算法权力的商业逻辑使得权利的协商和权衡缺乏公共监管,加剧权力隐性运作的程度。资本是算法权力的享有者,但算法权力的概念和主体依然不明晰。在权力与权利的正常转化中,权力能够保障、界定、协调并且反作用于权利,调整社会的利益关系。但算法权力更倾向于进行非正常的转化,比如资本滥用技术、操纵公众为自身谋利,侵犯公民的隐私权、人格权等,引发权利保护的危机。技术“必须”以人民为根本服务取向,其价值依归和方法手段都需经受人民立场的拷问,强调的是公共理性,决不能以“技术决定论”为由肆意破坏公共理性。
  权利的保护依赖于“人”和“物”两种因素,人是权力的首要主体,物是次生的利益和资源。保护公民的权利,要明晰两方因素的范围、指向并订立标准,如果标准是清晰的,则权利保护的方向、程度就是可被信任的,能够避免权力的过剩及滥用。在算法权力中,对“人”的权利的界定十分模糊。人作为权力主体,其自然属性是追求最大化的利益,但社会属性要求权力主体按照一定的标准对利益进行取舍。权力既有相应的利益支撑,又可以与利益之间进行转化,算法权力的运行遵循偏好原则,难以与权利进行正当的转化。利益具有遍在性,权力也具有遍在性,技术本身的黑箱和监管的不透明性会更加促使权力化公为私,加剧对物质、精神资源的掠夺程度,导致权力的滥用和扩张。
  四、算法权力的规制
  秩序的构建是人类社会文明的本质,规制算法权力是建立网络空间秩序的重要命题。规制权力也是规制技术,技术的良性发展不仅取决于自身的创新,更取决于人的正确引导。算法权力的运行逻辑给政治传播、政治治理带来了变革,造成新的社会风险。这些风险源于权力的逻辑矛盾和技术的内生缺陷,必须紧抓算法权力的运行逻辑,一方面治理算法的技术性缺陷,加强对算法的立法规制与监管;另一方面转换制约权力的思维与方式,适应新型技术,让算法助力社会治理,维护社会的公平正义,加强保护公民权利。
  1.以政府干预弱化资本依赖
  权力与资本的关系是一种博弈关系。在制度设计与运行的过程中,二者在理论上保持着规则性边界,但在实际运行中二者经常会出现越界状态,越界的正当性与否,既取决于社会实践要求,也取决于博弈态势。权力与资本在算法的设计与研发中也存在同样的问题。在不同制度体系的国家,其性质与做法不同,结果在性质与程度上也不同。对于西方国家来说,因其民主宪制对权力及其社会政治力量的保障和限制,使得算法权力难以形成破坏性力量。对于中国来说,因其制度不完善,网络技术及其算法权力难以实现有效的制约,在算法权力滥用的时候,就需要政府及时干预。唯其如此,才能让算法权力及其隐藏的社会政治力量得到及时有效的规制,避免技术对资本的过度依赖冲击国家治理的秩序。
  商业逻辑的威胁不在于智能企业是否有挑战传统权力的意图,而在于是否有挑战传统权力的能力。强大的技术研发能力是算法权力发展的重要推动力,政府干预的核心是打破商业资本与技术之间强烈的依附性,避免商业利益成为权力的方向盘。目前,国内政府的算法应用多由少数巨头企业提供,企业占据了数据、技术和市场等多方优势,呈现垄断化态势,即使是在算法运行过程中,也需要研发企业不断提供技术支持与技术修复,维持系统的正常运转。人工智能时代,算法治理是大势所趋,政府要加大对算法技术的把控,建立透明的算法运行机制和协调的智能政务系统,设立算法技术研发和运行的标准,嵌入公共利益的价值观,平衡多元价值。政府要加大对算法设计和研发的重视,加强高校和科研院所相关资金的投入力度,进行政策扶植,建立算法研发科技中心,将智能算法系统的核心技术掌握在政府手中,避免演变为逐利的工具,确保国家在智能转型过程中的技术安全。
  2.以法律规制限制算法偏好
  算法权力运行的偏好性意味着算法黑箱、数据歧视、技术壁垒等问题会侵害社会的公平正义,技术的偏好会进一步演化为现实空间的歧视,在教育医疗、信用评估、广告推送、价值制定等方面对社会施加影响。算法的结果看似是自动化的,但实质上遵循着一套人工编译的运算法则,尤其是回报函数的设计和运算,集中凸显了编译者的意识形态和价值观念。应当加强法律规制,将法的价值融入算法程序里,将算法权力视为智能社会的组成部分而进行驯化。正如何明升所指出的,新的技术一定要进行转化,将其从陌生、不确定之物变为能够融入日常生活及社会文化中的驯化之物。
  社会发展是制度进步的元动力,法律制度也应随社会的进步而完善,逐步走向精细化和人文化。对算法权力进行法律规制时,既要坚持预防,又要考虑成本效益,增强算法技术本身的透明度和算法权力运行的公开程度。要进行具体法律条文的精细化修订,增强法的可解释性,并设置监管环节,不能以“技术中立”为借口,逃避意识形态和法律的责任。可以设立“算法解释权”,使公众在质疑智能决策时能够享有请求算法开发者和数据使用者进行解析的权力,避免产生价值误导和算法偏见,在重大决策上甚至能够要求系统进行再运算与再决策。算法权力的产生意味着技术向国家行政的跨领域迈进,能够催生多行业的协同工作,如美国计算机协会公开的算法透明性原则就鼓励使用算法机构和系统对算法的运行和决策结果提供说明。只有完善法律保障,才能够以制度保障权利并给人以尊严,避免制度性羞辱的产生。
  3.以算法伦理保障人的价值
  算法伦理的核心是保障人的价值和尊严,充分尊重个人权利,智能技术对大量信息的掌握会导致人类失去隐私和主体性价值。人类成为技术下可量化的个体,甚至需要借助算法认识自己,这种认知权力的转移会导致决策力量的转移,使人的批判与自由成为形式上的概念,沦为技术的奴隶。有学者指出“代码即法律”,认为代码具有去管制化的特点,本身是不固定的,会被政治、商业所操纵,通过更改代码,能使人们的行为产生变化。这种变化的重点在于代码对人的把控,其方向和作用具有不确定性,缺乏伦理的指导。没有脱离价值的算法,任何算法的研发和运行都要经过道德及价值的判断,做到合理性与合价值性。但算法技术在研发阶段就已承载价值并被赋予权力,与人的主体性地位发生冲突,人成为算法权力之下可被预测和操纵的客体。要重新突出人的主体性地位,对算法设立标准,加以限制。
  技术没有偏见,但研发技术的人有,“价值中立”是伪命题。数据在收集层面上就难以做到准确和客观,数据样本不全面、数据采集不准确、数据归类不科学、数据处理不规范等一系列情况都会导致数据失实,从根源上加强算法偏见,侵害政治正义,伤害人的基本权利。康德指出:“意志自律是一切道德法则和与之相符合的义务的唯一原则。”算法伦理要将人视为重要的、有权利的并且有价值的个体,体现技术关怀和以人为本的理念,尊重人的自由和人格;要保证信息的完整性,对重要信息进行保密。好的算法要具有为长远负责的能力,能够预测算法可能的后果,充分考虑其道德、社会和环境因素,并对形式、组织和内容等信息进行公开。在实践中,一方面要对算法技术相关从业人员进行技能培训和伦理培训,在道德层面上进行自律;另一方面,要加强人工智能行业的伦理建设,加强行业标准的设立。
  4.以外督内审显化权力运行
  算法权力具有易于滥用的趋向。算法权力是网络社会与权力的定向融合,网络空间的虚拟化和智能技术的垄断化使算法权力无处不在、无孔不入却又难以被具象化。权力的隐性运行摆脱了传统社会的合法性,使权力由理性转化为无限制和无意识,模糊了权力的性质、主体、范围、程度及影响,加大监管的难度。要将审查和监管打造为一个有确切原则、标准和价值的体系,清晰地划分算法权力的作用范围,界定出制约的界限和标准,打破隐性运行的弊端。《新一代人工智能发展规划》指出需要实现智能算法设计、研发和应用等全流程的监管和审核,建立健全公开的智能技术监管体系,建设应用监督和设计问责并行的监管结构。这种监管加强了行政部门对算法的监督权,也强化了企业对算法的审查责任。
  算法的基础是数据,外督内审的核心在于盘活多边的监察资源对数据进行合理地规制。企业具有数据分析和数据利用的主导权,迫于市场需求,收集数据不规范、挖掘数据不节制、运算数据不精确、使用数据不合法等行为已经成为行业常态,要建立具体的标准,确立数据收集的知情同意原则;要提升对数据使用的授权程度,做到用户和平台的二元授权,消除灰色地带和算法阴影。做好算法审查,需要企业和网络平台主动承担义务,监控算法的运行状态和运行结果。数据审查以内部为主要力量,数据监督则要依靠行政力量和法律手段,对审查进行查漏补缺。监管部门多采用约谈的方式进行干预,但约谈具有滞后性,可以准备提前的预案工作,进行数据备案,要求企业对数据可能的用途加以说明和预测。
  权力产生于依附。算法的发展决定了智能革命的进程,作为人工智能与大数据之间的关键节点,算法已不仅是一种独立的技术。虽然算法本身并不具有传统意义上的权力,但其为社会权力结构注入了新的不确定因素,代表传统权力和资本的博弈,个体难以意识到自己被算法权力所操纵。要理顺算法权力的商业逻辑、偏好原则、技术理性和隐性运行四大规则,解决算法带来的一系列问题,在政府、司法、社会等多个层面进行联合规制,平衡算法权力的博弈,构建算法治理体系,建立良序的网络空间,保障社会的公平正义。

微信扫描二维码,关注公众号。