科研论文

杨福忠、姚凤梅:人工智能赋能社会治理之维度及风险法律防治

发布时间:2024-07-21

作者简介:杨福忠(1967-) ,男,河北承德人,中共河北省委党校( 河北行政学院) 政法部副主任、教授、法学博士、河北大学法学院博士生导师,研究方向: 立法基本理论;姚凤梅(1968-) ,女,河北承德人,中共河北省委党校(河北行政学院) 国际战略研究所教授,研究方向: 跨文化交流。

原文发表于《河北法学》第40卷第11期(2022年11月),为便于编辑和阅读,已将相关注释省略。


摘 要: 人工智能技术对社会治理具有赋能作用,能够促进多元主体有效参与、提升公共政策的精准度、全方位升级政府治理系统,提升治理效能。同时,人工智能技术的应用也存在诸多风险,包括人工智能应用带来的新型社会纠纷、赋能政府治理进程中存在较高的不确定性、技术不完善造成社会公害等。防治人工智能风险,在防治策略上要坚持法律规制与保障并重,在出台规制措施时必须考虑人工智能技术创新发展的要求; 在防治手段上,要做到软法与硬法同向发力,既要发挥软法的价值引领作用,更要发挥硬法的刚性约束作用; 在防治方式上,要强化权力治理与技术治理协同。

关键词: 人工智能; 赋能; 社会治理; 社会风险; 法律防治


人工智能是一种颠覆性技术,其蓬勃发展和广泛应用,不仅正在塑造越来越多的行业,而且对绝大多数应用场景进行赋能,形成“人工智能赋能 + ”效应,社会治理是其中一个重要方面。正如国务院印发的《新一代人工智能发展规划》( [2017]35 号) 所指出的: “人工智能带来社会建设的新机遇。”“人工智能技术可准确感知、预测、预警基础设施和社会安全运行的重大态势,及时把握群体认知及心理变化,主动决策反应,将显著提高社会治理的能力和水平,对有效维护社会稳定具有不可替代的作用。”2018年 10 月,习近平同志在中央政治局集体学习时强调: “要加强人工智能同社会治理的结合,……运用人工智能提高公共服务和社会治理水平。”了解人工智能赋能社会治理的主要维度、认识人工智能技术应用可能产生的社会风险,探究人工智能风险的法律防治对于深化“人工智能赋能 + ”的认识具有重大意义。本文就上述相关议题展开讨论,以期起到抛砖引玉的作用。


一、人工智能赋能社会治理之主要维度

目前,国际上对人工智能并没有形成一致的定义,人们普遍认为,人工智能是指在人制造出来的机器(计算机、机器人)上所表现出来的智能行为,比如感知、决策、预测、从数据中自动提取知识、互动交流以及逻辑推理等。人工智能的重要特征是像人类一样“感知”“思考”和“行动”,能够从事人类所从事的活动。从历史上看,每一次大的技术进步在带来经济社会快速发展的同时,都会赋能社会治理。今天,人工智能作为引领新一轮科技革命的颠覆性技术也不例外。根据治理理论,治理是政府、企业等非政府组织、公众等为实现共同目标而进行的持续互动过程。有效性是社会治理追求的核心目标。有效性体现在三个层面:治理主体层面,多元主体有效参与;治理技术层面,治理措施科学合理;治理效果层面,治理效能显著提升。人工智能赋能社会治理主要体现在这三个层面。

(一)促进多元主体有效参与社会治理进程

参与主体的多元是治理的显著特征,多元主体有效参与是治理目标实现的必要条件。改革开放以来,我国取得了经济快速发展和社会长期稳定两大奇迹,后一成果得益于国家与社会力量的良性互动,及时化解由于改革所造成的各种利益冲突。改革的过程实质上是政府放权,进而重塑国家和社会之间权力关系的过程。特别是互联网的发展,对国家和社会都进行了赋权。互联网具有去中心化、去地域性的特点,普通民众能够突破时空限制参与公共事务,表达意见。国家不能再像过去那样视自己为实现公共利益目标的唯一力量,其不能忽视并且必须借助社会的力量来实现社会治理的目标。正如有学者所指出的:“互联网的发展产生了分权的效果”,其“为国家和社会靠近(或摆脱)对方创造了一个新的基础结构”,二者在“互联网上的互动,最终重塑了国家和社会。”人工智能技术进一步对国家和社会进行了赋权,促进了企业和公众有效参与社会治理。

首先,人工智能技术存在引发社会风险的可能性,因而其成为社会治理的对象。换言之,人工智能技术的出现拓宽了社会治理领域,赋予政府更大的权力对其实施治理。

其次,人工智能的高技术门槛以及“算法黑箱”赋予掌握人工智能技术的企业在社会治理中以更多的话语权和影响力。特别是对算法的治理,政府必须依靠掌握人工智能技术的企业帮助才能实现预期目标。因此,人工智能算法提供了一个舞台,它使得政府和企业相互赋权,促进了二者之间的互动。“国家和社会力量之间的互动(而非分裂),其效果是能够为双方一同创造更多的权力。”

再次,人工智能技术提升了公众集体行动的能力。以前,公民发表在网络空间的有关公共事务的言论是以碎片化形式存在的,除非由典型事件形成网络舆情,否则难以被政府注意到。现在,人工智能算法可以将网络空间存在的海量有关公共事务言论的信息进行分析、处理后,自动向政府精准推荐,普通民众的意见有机会进入决策程序并影响政府决策。

(二)提升公共政策的精准度

在多元主体参与的社会治理中,政府发挥着主导作用。实践证明,政府掌握被治理对象的信息状况往往决定着其治理能力和治理水平。在古代社会,由于受认知水平和技术手段的限制,人们从事各种活动的信息不能被感知、整合和利用,因而国家“几乎是盲人。它对它的统治对象所知甚少:他们的财富,他们所有的土地及产出,他们的居住地以及他们的身份……结果,国家对社会的干预往往是粗劣的和自相矛盾的。”今天在信息化时代,国家不仅掌握着其在履行公共事务职能过程中所制作和形成的大量信息,而且还掌握治下各行业、各类组织乃至于民众个人活动的信息,这些信息以电子或者其他方式记录下来,形成海量数据。这些数据成为人工智能机器学习的素材。机器学习算法通过分析大量历史数据,从中学习、总结相应知识,建立相应模型对以往的数据进行解释并预测未来。同时,它还能使用统计推理工具来识别风险,预测错误并将其最小化,为变量分配权重,实现最佳输出,政府据此可以精准施策。比如在城市交通治理中,公安部门利用人工智能分析通过摄像头和各种传感器收集到的车辆运行状况的海量数据,形成能够实时反映整个城市交通状况的动态画面,了解交通拥堵路段和时段,据此引导车辆选择出行,缓解城市交通压力。

(三)全方位升级政府治理系统

集成智能语音、机器视觉、自然语言处理等一种或多种应用技术,面向特定应用场景需求,形成软硬件产品或行业解决方案,是人工智能技术应用的价值所在。人工智能可为就业、医药卫生、教育、食品安全、社会保障以及社会治安等治理工作场景提供智能化解决方案,全方位升级社会治理系统。

从效果上看,每个场景的应用都起到了赋能的作用,治理效能显著提升。比如公安机关利用全球定位系统,可以掌握犯罪嫌疑人的行踪;依靠人脸识别、虹膜识别、步态识别等技术手段,可以从熙熙攘攘的人群中快速找出要找的目标,使犯罪嫌疑人无处遁形,从而大大提高了破案的效率。审判机关利用人工智能可以将庭审过程中各方陈述转写成文字,形成庭审记录;对案件的关键信息进行分析和类案对比,给出裁判建议;辅助司法文书处理,自动生成案件审理报告和法律文书等,不但提高了案件审判的效率,在一定程度上还保证了审判的公正性。总之,人工智能技术在这些领域的应用,增加了违法犯罪后被抓的可能性以及法律制裁的威慑作用,使很多人萌发了不敢犯罪、不想犯罪的心理。根据联合国犯罪趋势调查报告,自20世纪90年代中期以来,全球犯罪率总体上呈下降趋势。特别是中国,目前是世界上犯罪率最低的国家之一。

二、人工智能技术应用之社会风险分析

“风险”通常具有“危险”“不良后果的可能性”“损失或损失的机会”等含义。任何新技术的应用都可能带来社会风险,如有学者所说:“技术赋能本身具有较强的不确定性,可能因各种社会力量的博弈呈现出不同的演变路径,其对社会的影响也可能截然不同。”人工智能技术在赋能社会治理的同时,也会带来社会风险。目前学界对人工智能风险的认识主要有两种思路,一种是根据受影响的法益不同,将人工智能应用的风险概括为生命权、健康权风险;平等权风险;思想与行为自由风险;财产安全风险;获得公平裁量或审判机会风险;劳动权或获得就业机会风险;国家安全、社会安全及金融安全风险等。另一种思路聚焦于治理本身,认为人工智能嵌入社会治理将带来治理技术的不确定性、治理主体的角色替代、治理过程的价值失衡和治理责任的边界模糊等。本文这里拟基于产生风险的原因不同将人工智能风险归纳为以下三种类型。

(一)人工智能应用引发新型社会纠纷

今天人工智能正越来越广泛地应用于各行业、领域,日益渗透进我们生活的方方面面,随之而来的是因人工智能的应用带来的法律纠纷问题。这类法律纠纷包括人工智能体侵权纠纷、著作权纠纷以及人工智能技术滥用带来的权益纠纷等。

1.人工智能体侵权纠纷。2015年,德国大众汽车制造厂的一台机器人抓住一名承包商并将其压在金属板上,致其死亡。2018年美国发生了全球首例自动驾驶汽车致人死亡案。案发时,优步(Uber)公司的一辆自动驾驶汽车正处于自动驾驶模式,当遇到十字路口穿越人行横道的一名行人时,其并没有及时采取刹车制动措施,致行人被撞死亡。随着人工智能技术产品化、实用化,应用场景越来越广,诸如此类的人工智能侵权纠纷将越来越多,成为社会治理中面临的新的难题。这类纠纷带来的法律问题在于:法律是调整人类行为的社会规范,它通过权利、义务、责任模式来调整人们的行为。人最重要的特点是具有自我反省的能力。正如约翰·洛克(John Locke)所说,一个“有智慧的个体”(intelligent Agent)必须“具备遵守法律、感觉幸福和痛苦的能力”。康德同样强调了自我意识的重要性,指出人具有自我意识,他知道自己的意志支配自己的行为,知道什么是本可以避免的行为,因而应对自己的行为负责。

关于人工智能体发生侵权行为后的责任承担问题,目前学界尚未形成定论。代表性的观点认为人工智能体不承担责任。正如有学者所说:“每个社会都需要一个计划来分配责任,从而为给他人造成损失或损害的活动分配责任。它针对的是个人(包括公司),而不是技术。这是因为法律用来控制或影响行为的杠杆,如给予赔偿或处以罚款或监禁,只能适用于个人。法律和法规似乎与技术有关,实际上总是与负责该技术的人的行为有关。”既然人工智能体的侵权行为,应当由人来承担,那么紧接着的问题是究竟由设计者、开发者、所有者或使用者他们谁来承担?到底适用过错责任还是无过错责任来追究他们的责任?责任如何在他们之间进行分配?这些都有待法律做出明确的规定。

2.著作权纠纷。著作权纠纷与人工智能体的创作有关。近年来,出现了许多人工智能体创作的事例。2017年一个名为“小冰”的人工智能体的第一部原创诗集《阳光失了玻璃窗》获得出版,一时引起热议。此外,媒体上还有人工智能体创作音乐、绘画的报道。人工智能创作的本质是“算法对大量现有作品样本进行解码、学习和训练,形成这类作品集规律的概率模型,并依此进行模仿和预测。”与之相关的法律问题是,人工智能体是否享有著作权?对由此产生的权利纠纷如何解决?《著作权法》《刑法》等法律并没有给出明确答案。学界关于这些问题有一些讨论,但尚未形成定论,有待于立法机关修改或解释法律,为解决此类纠纷提供法律依据。

3.人工智能技术滥用带来的权益纠纷。爱因斯坦曾经说过:“科学是一种强有力的工具。怎样用它,究竟是给人类带来幸福还是带来灾难,全取决于人自己,而不取决于工具。”人工智能技术也存在滥用的问题。以深度伪造技术(Deepfake)为例,利用机器学习算法将视频或图片合并叠加到源视频或图片上,借助神经网络技术将个人的身体动作、面部表情及声音拼接成原本不存在的内容,可以达到“以假乱真”的效果。近年来,该技术屡遭滥用。在国外,有人用于诋毁官员、敲诈勒索以及实施色情报复等行为。在国内,也有不法分子利用深度伪造技术伪造手机用户的人脸动态视频,注册虚拟手机卡,从事违法犯罪活动。深度伪造技术的滥用,不但会侵犯个人的肖像权、隐私权以及财产权等合法权益,还可能激化社会矛盾,破坏社会稳定,危害国家安全。人工智能技术滥用其他方面的例子,比如利用算法虚假评论,过度推荐,诱导未成年人沉迷网络;利用人脸识别系统非法采集个人隐私信息;通过家用机器人进行间谍活动;利用算法在交易价格等交易条件上实施不合理的差别待遇;利用高速交易算法破坏股市稳定,等等。

人工智能技术滥用具有如下特点:一是它是通过人工智能系统自动地、有系统地进行的,作用范围广,社会影响面较大。二是对他人的侵害以非直觉、微妙、无形的方式进行。相对于人类实施的侵害,人工智能侵害更难发现和证明,受害者可能永远不会意识到自己处于不利地位。三是救济方面,对人类实施的侵害行为的权利救济,主要依靠直觉来检测、调查、预防和纠正,而人工智能决策不透明、甚至不可预测,使用人工智能实施侵害行为,难以在受害者和侵权者之间建立因果关系,因而救济难度加大。

(二)人工智能赋能政府治理进程存在较高的不确定性

近年来,政府越来越重视用人工智能技术来提高社会治理效能,比如各地探索“人工智能+互联网+政务服务”模式,运用大数据、人脸识别、智能语音交互等技术,为办事企业和个人提供个性化、精准化服务,实现“最多跑一次”“就近办”,服务效能大大提升。人工智能专业门槛高、技术性强,政府在社会治理中大量使用人工智能技术提供的方案进行行政决策、实施监管,会导致对人工智能企业的依赖度增强。有学者一针见血地指出:“复杂莫测技术的文化逻辑经常被用来证明人工智能企业密切参与政策制定和监管的合理性。”“一个相关的担忧是,企业对人工智能监管施加的影响。在某些情况下,它们扮演着半个共同监管机构的角色。”政府对人工智能企业的依赖,会导致人工智能赋能政府治理的过程本身具有较高的不确定性。

首先,人工智能技术因存在滥用问题,本身是社会治理的对象。国家为规制企业滥用人工智能技术而出台的法律、法规、规章最终要依靠企业去落实,监管人员拥有人工智能方面的专业知识,深谙算法运作机理,才有可能对企业落实法律法规情况实施有效监督。而事实上,一个社会,企业通常是技术创新的主体,新技术掌握在企业手中。政府监管人员对新技术的认识以及作为知识掌握具有滞后性,因而新技术的发展、应用客观上会造成监管人员知识结构出现短板。再加上人工智能技术具有高度复杂性、决策过程具有不透明性,这些因素叠加会进一步导致政府监管能力不够。在监督者主要依靠被监督者解决其自身存在问题的情况下,监督效果恐难以保障。

其次,人工智能自动决策系统像人一样,容易出错、存在偏见和任意性。特别是,机器学习算法能够根据新信息转换其内部结构,通过大量数据中的经验自我学习并进行独立决策,生成甚至连算法的研发人员也可能无法预见、无法解释的方案。目前人们对人工智能系统内部运作的工作原理以及决策时到底依赖哪些因素尚不清楚。这种情况下,一旦算法决策出错,不像人类决策失误那样容易纠正。

再次,社会治理需要坚持人类社会赖以存在的自由、公平等价值理念,而人工智能赋能政府治理的过程则在一定程度上侵蚀了这些价值基础。基于大数据驱动和机器学习,人工智能算法自动生成技术性的解决方案。然而,社会治理不单单是要解决技术性问题,更要体现以人民为中心的发展理念和社会主义核心价值观的要求,而人工智能系统往往难以将道德要求代码化,因而难以满足有效治理的要求。

(三)人工智能技术不完善造成社会公害

人工智能技术不完善会造成算法歧视、泄露敏感隐私数据等一系列社会公害问题,其中以算法歧视最为典型。平等,自古以来是人们的价值追求。在中国历史上,那些不堪忍受封建统治阶级的残酷压迫而被迫走上反抗道路的农民在发动起义时,通常把实现平等作为动员广大民众参与的、最具有正当性的口号。今天,平等仍是人们普遍的价值追求,那些与平等价值观相冲突的歧视性做法都有可能成为社会不稳定的因素。人工智能算法歧视就是一个饱受诟病的问题,已经引起国内外官方和学界的普遍关注。人工智能算法歧视主要由以下五种因素所导致,如表1所示:

微信图片_20240721212336.png

上述五种情形可以分为两类:一类是数据采集偏差构成的歧视。人工智能是由数据驱动的。研发者在给人工智能系统输入数据时通常优先考虑的是数据的可获得性而非数据的适当性。如果易于收集的数据本身单一、片面或存在偏见,缺少完整性,那么受这些数据训练的人工智能系统在应用时势必产生歧视性问题。另一类是算法偏见。算法本质上是以数学方式或计算机代码形式表达意见,其本身不具有道德立场,只是根据代码和参数进行判断。但是代码和参数是人在一定的道德价值观支配下有意识、有目的地设计开发出来的。算法模型是价值观的载体,体现着研发者的价值观念。如果算法模型的研发者对某个特定群体存在偏见,那么就有可能把这种“预先存在的”显性和隐性的偏见嵌入算法模型当中。而人工智能本身不能进行价值判断,无法发现和决定是否存在歧视,因而人工智能的应用有可能继续、加剧并最终固化现有的社会偏见。

三、人工智能技术应用风险之法律防治

由前所述,人工智能技术应用是一把“双刃剑”,它在赋能社会治理的同时也会引发各种已知和未知的社会风险。基于此,2018年10月,习近平同志在中央政治局集体学习时强调:“要加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可靠、可控。”鉴于人工智能技术的战略地位,在防治人工智能技术应用引发的社会风险时应注意把握如下三点。

(一)防治策略上,坚持法律规制与保障并重

一项新技术在从研发到进入市场,再到融入社会成为现代生活一部分的过程中,产生社会风险是难以避免的,人们不能因为风险的存在而放弃新技术的研发和使用。在收益与风险并存的情况下,人们所追求的理想目标应是把风险最小化和从新技术应用中获利的最大化。这种目标追求对法律和政策的要求是规制与保障并重。规制就是规范、治理,主要是通过法律手段解决人工智能造成的风险,确保人工智能安全可控,实现有序发展。保障就是保护、促进,通过法律和政策来确保人工智能创新发展,更好地赋能经济、社会。规制和保障之间可能存在价值冲突,规制不当可能会扼杀人工智能的创新发展以及人工智能用于社会治理之解决方案的开发和实施,甚至可能无法改善安全、控制风险,因此必须审慎地处理好二者之间的关系。2021年习近平同志在谈到发展数字经济时指出:“要坚持促进发展和监管规范两手抓、两手都要硬,在发展中规范、在规范中发展。”“在发展中规范、在规范中发展”可以理解为要把规制纳入人工智能,从技术研发到进入市场再到融入社会的发展全过程,通过有效法律规制保障人工智能健康发展。习近平同志关于“在发展中规范、在规范中发展”的重要论断为防治人工智能风险确立了基本原则。

“立法者是实施人工智能规制首要的也是最重要的主体,应该积极回应人工智能带来的挑战。”立法者贯彻上述原则,在制定规制性的法律时必须考虑人工智能创新发展的要求。美国等发达国家在这方面的做法值得我国研究借鉴。2017年美国制定了《自动驾驶法案》(SELFDRIVE Act,2017),该法不仅统一了自动驾驶汽车的标准,禁止各州实施自己的规则来管理自动驾驶汽车的设计或性能,而且允许汽车制造商每年可部署多达100000辆自动驾驶汽车,规定收集这些车辆在现实世界中表现的数据,不受现有汽车安全标准的约束,这样规定就为自动驾驶汽车的快速发展提供了制度保障。我国在出台规制性的法律时,要遵循必要性原则和利益衡量原则,审慎地评估规制措施。评估的主要内容包括:(1)现有法律法规是否能够应对人工智能带来的风险。如果可以,则没有必要采取新的规制措施。正如有学者所说:“观望的方法可能会产生比仓促监管更好的长期效果,而仓促监管充其量是基于对需要监管的内容非常片面的理解。”(2)如果必须采取新的规制措施,则要评估该规制措施是否存在遏制人工智能技术发展的可能性。因为毕竟技术从来都不是一种不可阻挡或无法控制的自然力量,而是人们运用智力活动创新的成果。不适当的规制会遏制人们技术创新的动力。(3)如果规制措施不可避免地会限制人工智能的发展,则要评估这种限制对发展造成的损害是否最小。总之,国家立法要坚持合理控制风险原则,防止规制过当对人工智能发展造成伤害。

(二)防治手段上,注重软法引导与硬法约束同向发力

依据制定主体不同以及有无国家强制力保障实施为标准,可以将立法分为软法(soft law)和硬法(hard law)。所谓软法是指依法不享有国家立法权的组织为规范本组织的活动及成员的行为而制定的各类具有约束力的文件;而硬法是指经国家严格的立法程序制定或认可并由国家强制力予以保障实施的行为规范,如宪法、法律、法规、规章等。软法同硬法一样,都是由人们理性、审慎地制定或认可的行为规则,一经实施便产生约束力。所不同者,硬法主要依靠国家强制力保障实施,而软法主要靠组织成员的自觉以及舆论或纪律形成的压力,“如果违反,他会遭到舆论的谴责,纪律的制裁,甚至被共同体开除,不得不被迫离开相应共同体。”由前所述,人工智能赋能政府治理进程中产生的不确定性风险,既可能是由于人工智能技术不完善造成的,也可能是由于人工智能技术滥用造成的。因不确定性风险产生的原因不同,因而对其防治,应使用不同的手段。具体来说:

对由于人工智能技术不完善引发的风险主要靠软法规范来防治。软法规范的特点是原则性、倡导性强。比如国家新一代人工智能治理专业委员会于2019年6月颁布实施的《新一代人工智能治理原则———发展负责任的人工智能》提出把和谐友好、公平公正、包容共享、尊重隐私等八项原则作为研发者、使用者及其他相关方应遵循的基本原则。其中的每一项治理原则表述得都比较笼统、抽象,比如在“共担责任”原则中强调:“人工智能研发者、使用者及其他相关方应具有高度的社会责任感和自律意识”,要“建立人工智能问责机制”“应确保人类知情权”“防范利用人工智能进行非法活动”。这些内容具有道德呼吁和价值引领作用,能为人工智能研发者、使用者明确行为上努力的方向。此外,软法规范制定得灵活性较强,能够及时弥补硬法滞后所引发的社会风险。甚至在一项新技术真正引发社会风险之前,就可以通过制定指南或行业自律规范等方式引导技术向善,防范潜在风险发生。因此,软法规范是防治人工智能风险不可或缺的手段。

对滥用人工智能技术引发的社会风险主要靠硬法来防治。硬法规范的特点是规定得具体明确,可操作性强,能够为人们如何行为提供具体指引。特别是硬法规范有法律责任的规定,有国家强制力的保障,执行力更强。随着人工智能广泛应用于各行业、领域,滥用人工智能技术问题也多发频发,这就需要国家通过硬法规范治理人工智能滥用问题。目前美国是为防治人工智能技术滥用而制定法律最多的国家。典型者如《自动驾驶法案》要求汽车制造商制定隐私计划和安全政策,解释他们如何收集、使用和保护数据,并且不会对匿名数据施加任何限制,不会对消费者隐私构成风险。《算法责任法》(Algorithmic Accountability Act,2019),要求大型科技公司对现有的和新的“高风险自动决策系统”进行影响评估。根据该法规定,评估必须详细描述该系统;评估该系统的相对成本和收益;确定个人信息的隐私和安全风险,以及解释为最小化这些风险而采取的步骤。《人工智能数据的政府所有权和监管法案》(GOOD in AI Act,2021)要求职能机构采取措施保护公民隐私;解决好承包商代表联邦政府创建、使用、处理、存储、维护、传播、披露或处置的数据和其他信息的所有权和安全性;保护任何人工智能系统的训练数据、算法和其他组件的要求以防被滥用、擅自改动、退化或无法使用。《加强反恐中使用人工智能监督法案》(AI in Counter terrorism Oversight Enhancement Act,2021)增加了隐私和公民自由监督委员会监督在反恐中使用人工智能的职责,要求不断审查反恐工作中使用人工智能的技术,并确定采用此类技术进行的相关数据收集、获得与使用是否保护隐私和公民自由并遵守相关政策。我国为防治因人工智能技术滥用而引发社会风险也出台了相关立法,比如《数据安全法》(2021)、《个人信息保护法》(2021)等法律都可以作为防治人工智能技术滥用的法律依据。2022年3月,国家网信办等四部门联合发布了《互联网信息服务算法推荐管理规定》(以下简称《规定》),这是国内首部规制算法以防止算法滥用的立法。《规定》为算法推荐服务提供者划定了若干不能逾越的红线,为治理算法滥用提供了有力的制度支撑。总体而言,目前我国专门针对人工智能技术滥用而出台的法律数量少、位阶低,国家亟需加大这方面立法的步伐。

(三)防治方式上,强化权力治理与技术治理协同

今天人类进入到了法国哲学家福柯所说的“知识—权力”主导政治和公共治理活动的时代,知识与权力紧密结合,知识是权力化的知识,权力是知识化技术化的权力,二者相互融合形成一种“共生”关系。在“知识—权力”社会,权力治理与技术治理协同成为社会治理的典型特征。

党的十九届四中全会提出要“完善党委领导、政府负责、民主协商、社会协同、公众参与、法治保障、科技支撑的社会治理体系”。根据这个要求,在人工智能风险的治理中,政府毫无疑问应占据主导地位,担负主要监管职责。具体而言,政府应扮演的角色是:

1.人工智能负责任发展政策的制定者。人工智能的发展存在技术和社会潜在风险的双重不确定性,政府应将“负责任”作为发展人工智能的价值追求并转化为具体的政策措施,确保人工智能健康发展。

2.治理议程的设置者。“议程设置是指对各种议题依重要性进行排序。”马修·A·克伦森曾比较过美国两个城市,甲城市污染较轻,当地政府和民众却十分重视减少污染问题。乙城市污染较重,当地政府和民众却很少讨论污染问题。原因是乙城市有势力强大的利益集团想方设法避免污染问题引起当地政府和民众的注意,在操控着治理的议程设置。在人工智能风险治理中,由谁掌控着治理的议程设置非常重要。比如,算法歧视对人工智能技术研发和应用的企业来说也许根本不是问题,因为其是既得利益者因而不会主动提上治理议程。但算法歧视对公民的平等权构成侵害,严重影响社会公正和社会稳定,因而是必须加以治理的。基于此,政府在人工智能风险的治理中应当扮演治理议程设置者的角色。

3.法律法规实施的监督者。政府监督人工智能法律的实施,必须解决监督的有效性问题。首先,考虑到人工智能技术的专业性,政府可以成立各种类型的人工智能专业委员会,由其提供技术方面的决策咨询服务。改革开放以来,受过技术训练的专家凭借他们的专业知识在政府决策中扮演着重要角色,特别是党的十八届四中全会提出把“专家论证”作为出台重大行政决策的必经程序之后,技术型专家的作用日益明显,他们“利用科学知识和技术方法来解决社会—经济问题。他们对待社会问题的科学方法是独特的,他们驾驭着科学的语言,只唯实不唯上。”在人工智能风险防治中,要明确各专业委员会的地位并赋予其相应职能,通过发挥其专业能力来弥补一般行政执法人员专业技术知识上的不足。其次,法律要科以企业提高人工智能系统运行透明度的义务。人工智能系统通常被描述成复杂且难以解释的“黑箱”。“黑箱”的说法本身具有一定的误导性,人工智能系统的工作原理,对于普通用户来说可能是不可知的,但对研发者来说则是可解释、可说明的,其能够解释系统是如何选择以及为什么做出选择的。法律科以人工智能技术的研发者解释性的义务,提高人工智能系统运作的透明度,将有利于政府开展有效监管。

在强调权力依法治理的同时,绝不能忽视技术治理的作用,政府必须加强与掌握人工智能技术企业的合作,依靠其采用技术手段治理人工智能公害。比如,为了防止敏感隐私信息泄露,企业将差分隐私法应用于机器深度学习中,增强隐私保护能力。为了治理算法歧视引发的不平等问题,企业实施的技术方案包括:构建完整异构数据集,将数据固有歧视与偏见最小化;对数据集进行周期性检查,保证数据的高质量;通过公平决策量化指标的算法来减轻或消除决策偏差及潜在的歧视,等等。总之,企业是人工智能技术、产品或服务研发和使用的主体,也是发展负责任人工智能的责任主体。在人工智能风险防治中,政府的权力治理与企业的技术治理相辅相成,相互保障,才能起到比较好的效果。