人工智能时代下算法治理的内核与路径

文章正文
发布时间:2024-09-09 07:11

  随着时代生产要素的演进,当前人工智能时代的本质在于算法和数据。算法带来飞速便利的同时也带来了诸如大数据杀熟、算法黑箱、信息茧房、算法操纵等新的社会风险问题。2021年12月底,四部门联名签署对外公布《互联网信息服务算法推荐管理规定》(简称“《算法推荐规定》”),并已于2022年3月1日正式实施。基于此,有必要进一步厘清算法治理的基础内核,探究算法时代治理新路径。

  一、当前我国算法治理的法律体系

  当前我国算法治理的立法体系已初步建成,构建起立法层级广、多部门联动、快速扩张的法律体系。立法监管由此前聚焦在网络安全、数据信息保护转变为当前深度的治理,即人工智能时代的算法治理。

  在顶层设计方面,《法治社会建设实施纲要(2020-2025年)》就提出健全算法推荐、深度伪造等新技术应用的规范管理办法。另外,《“十四五”数字经济发展规划》指出加快构建算力、算法、数据、应用资源协同的全国一体化大数据中心体系。

  在法律法规依据方面,《民法典》《网络安全法》《数据安全法》《个人信息保护法》《互联网信息服务管理办法》分别从人格权、网络安全、数据安全、信息保护利用、互联网服务等角度进行了统筹性的规范。

  在算法的专门性规范方向,有2021年9月发布的部门规范性文件《关于加强互联网信息服务算法综合治理的指导意见》和2022年《算法管理规定》对算法相关规范进行了全面细致的规范。

  在其他规范性文件或国家标准方面,多部门对机器学习、人工智能伦理、信息合成、平台监管等多方面有间接性的规范,如《国务院反垄断委员会关于平台经济领域的反垄断指南》《国家市场监督管理总局、国家网信办、国家发展改革委、公安部、人力资源社会保障部、商务部、中华全国总工会关于落实网络餐饮平台责任切实维护外卖送餐员权益的指导意见》《新一代人工智能伦理规范》《互联网信息服务深度合成管理规定(征求意见稿)》《信息安全技术 机器学习算法安全评估规范(征求意见稿)》《信息安全技术个⼈信息安全规范》等。

  虽然我们已经在多个层面进行立法,但是当前算法相关立法体系还存在问题。一是立法层级分散,主要聚焦在部门规范性文件。法律法规的制定时间成本明显高于部门规章和各类规范性文件,这就导致目前针对算法这一新兴问题主要在部门规范性文件及国家标准中,容易出现强制性不够、执法监管效果打折扣、部门职责划分不清等问题。同时多部门的规范性文件给平台企业也造成无法适从、标准不统一、专项行动式的紧急应对等情形发生。二是对平台的监管主要在事后被动监管,缺乏精细化的平台监管规范。对平台的监管主要根据平台的过错、行为、责任采取行政处罚措施,而此种监管模式在于缺乏事前的过程性监管,即便现在有算法备案制度,也是主要停留在特定重要领域的算法备案,再者对于备案的算法审查逻辑和标准也需要根据算法分级分类制度及时调整。三是对算法的技术性规范监管较少,立法缺少回归算法本源。算法是一个技术概念,是“计算的方法”或“处理数据的方法”,同时算法也是具备一定的学习能力的,能够根据现有的算法基础和数据不断演变。对于这些计算机指令的技术规范当前仍缺乏立法上的规范,目前主要规范是从网络安全、法律风险等角度来规制的。

  二、算法治理的内核、路径与体系建设

  为了促进算法相关立法体系的完善,实现算法的精准治理,笔者认为算法治理的内核在于数据信息安全。一方面算法是在自然语言基础上建构起来的一系列程序逻辑,本质上就是且、或、非的逻辑运算。但无论算法多么复杂,其本质也是“用数据训练的模型”,也就是通过不断投喂数据来实现算法的不断运行和进化。算法离不开数据的支持,当数据的处理活动出问题,那算法必然就出问题。因此关注算法的治理,本质就是数据的安全和合理处理。

  另一方面自动化决策算法引发的“大数据杀熟”等法律风险已引起越来越多的社会关注,这说明算法治理的本质还在于信息的合理利用。此外,算法的灵魂在于其正向的价值观。数据信息的利用处分需要追求正向价值观,逐步实现算法的可验证、可审核、可监督、可追溯、可预测、可信赖,同时具备普惠性、公平性和非歧视性。

  需要说明的是,数据信息安全包括数据安全和信息安全两大块,数据安全就是规范数据处理活动,保障数据安全,维护各方利益,保障数据开发利用和产业发展;信息安全就是以《个人信息保护法》为主体,规范个人信息处理活动,促进个人信息合理利用,从严保护个人隐私。

  明晰了算法治理的内核,才能聚焦立法规范和监管的重点,对于当前实践中算法治理的困境问题有新的解决方案。人工智能乃至整个经济社会的发展离不开海量数据和个人信息的填充,自动化决策算法充分利用数据信息发挥更大的经济和社会价值。因此,笔者认为应当构建算法治理的“两内在一外延”保障路径,两个内在要素是强化隐私保护和拓宽数据的广度、深度和精度,一个外延保障是算法安全保障机制。

  一是强化隐私保护。《民法典》对于隐私权的保护是在人格权编中的,足以显示隐私保护的重要性。当下各大平台的隐私政策都在调整更新,而这一轮的更新势必会对相关平台的算法无序发展带来更多的限制。隐私保护与算法发展是相对的,强化隐私保护势必会阻碍算法的更多元化发展,但正是基于隐私保护的重要性,避免算法侵害他人合法权益。强化隐私保护可以从以下几点着手:

  其一,强化隐私保护体现在立法内容、算法设计和应用、备案审查、执法监管重点、法律责任承担等方面,这是算法治理的基本理念也是底线原则。

  其二,强化重点人群的隐私保护,特别是不满十四周岁的未成年人、老年人隐私保护,劳动者和消费者等群体也十分重要。按照《民法典》隐私权保护相关规定和《个人信息保护法》中敏感个人信息的相关规定进行信息保护与数据处理。个人信息处理活动满足个人信息处理的五项重要原则,还有遵照“告知-知情-同意”的核心个人信息处理规则。

  其三,有关隐私保护的纠纷主要是通过私法救济的方式解决,而算法治理中涉及到的隐私保护问题就必然需要结合更多公法救济的渠道,因此更多公法治理算法时需要关注隐私保护的传统属性与公私法治理的融合问题。

  二是拓宽数据的广度、深度和精度。算法治理绝不是过度强调监管惩罚,而是要强调事前的统筹管理。类似深度学习等自动化决策是需要海量数据的投喂,缺乏数据量基础、数据不精准都会导致算法算到错误的方向。如企业在进行“用户画像”的时候,当用户数据基数少或某一维度数据缺失的时候,就无法精准推送相关信息或提供相应服务。而在拓宽数据的广度、深度和精度的时候,必然要受到数据合法处理活动的限制,处理该问题的要点如下:

  其一,拓宽数据的过程首要是保障数据安全,数据安全才能确保算法的安全稳定,此为数据处理的基石。

  其二,建立重要数据和数据分级分类管理制度。大量数据的涌入可能会打乱算法的基本秩序,因而对数据进行分级分类是各大平台,尤其是超大型平台需要规范的。

  其三,建立算法中的验证纠错机制,即对数据的质量进行验证,如抽检机制、结果预警等发现数据的缺陷,以便及时纠偏。

  三是算法安全保障机制。有了前两者隐私保护和数据的基础,接下来健全算法安全保障机制就尤其重要。安全保障机制包括科技伦理审查、立法保障、安全评估监测与安全事件应急处置等多方面,形成技术、法律、管理的多重保障。具体措施包括如下:

  其一,算法向善。算法备案审查的基础性要点在于科技伦理审查,此项审查的难点在于算法的不可预判性,即便当下算法规则审查合理,但随着算法本身外延式的延伸,就会导致算法的结果存在不确定性。因此,应当建立类似算法伦理工作小组的专门性组织,由科技、法律等领域专家及监管部门和第三方行业代表等共同组成,加强定期审查与跟踪监督,严防算法价值观问题。

  其二,立法保障方面。当前有关算法治理的立法顶层设计已逐步完成,接下来除了算法推荐管理外的其他算法活动需要加以重视,如算法的技术研发、数据挖掘、规则内容、运营支持、人员管理等多角度构建起算法治理新格局。

  其三,健全安全评估监测、安全事件应急处置等管理制度和技术措施。对企业来说,要落实算法安全主体责任,守住算法安全的第一道防线,建立健全算法机制机理审核。对监管部门和行业组织来说,制定算法安全行业标准体系,宣扬算法安全基本理念,形成全社会多渠道监督合力。

  算法化的时代给各行各业带来了深刻的影响,也导致现在的组织形态发生新的动态变化。算法滥用所导致的问题可能是行业巨大的,算法治理需要跟算法开发同步开展,有效构建算法治理的“两内在一外延”保障路径,建立良好的数字营商环境,促进数字经济社会的稳步健康发展。

  【本文系上海杉达学院科研基金(校基金)重点项目《民法典解决互联网权益争议机制研究》(项目号2020ZD01)和上海杉达学院科研基金(校基金)一般项目《法治思想在高校法治人才培养模式中的应用研究》(项目号2021YB11)的阶段性研究成果】

[ 责编:郑芳芳 ]