文章来源于《治理研究》,作者何宇华、李霞
生成式人工智能虚假信息治理的
新挑战及应对策略
——基于敏捷治理的视角
本文转载自微信公众号“治理研究”,“生成式人工智能虚假信息治理的新挑战及应对策略——基于敏捷治理的视角”,原文刊载于《治理研究》2024年第4期。为方便读者阅读,本文省略了原文的注释。
何宇华:浙江警察学院讲师。
李霞:中国社会科学院法学研究所宪法与行政法研究室主任、研究员。
摘要
生成式人工智能的基础数据来源复杂,数据的真实性与合法性存在极大不确定性,由此出现的虚假信息在技术逻辑上具有必然性和无限复制性;在传播规律上具有瞬时性和隐蔽性;在危害后果上具有复杂性和不可控性。现有多中心协同论、二元治理结构论和层级治理论分别从不同的视角提出治理策略,但过于关注协同合作本身却忽视了治理主体的协同能力和响应效率;过度依赖政府与市场的互补却遮蔽了二者面临新技术时容易懈怠的共性;盲目信任分层治理极易陷入技治主义的困境。对此,应转向敏捷治理下以政府主导强化多元主体间的协同效能、提升治理结构的适应性、破除层级障碍的治理新思路。以虚假信息治理的法治化和技术化为基本方向,保持制度的原则性要求和技术工具价值的协同,实施虚假信息等级评估制度,构建治理主体高效协作机制、快捷响应机制和容错纠错机制,搭建生成式人工智能虚假信息敏捷治理新模式的基本框架。
关键词
生成式人工智能 虚假信息 敏捷治理
目录
一、问题的提出
二、生成式人工智能对现有虚假信息治理理论的挑战
三、敏捷治理–生成式人工智能虚假信息治理的新模式
四、敏捷治理新模式的实现路径
五、结语
一、问题的提出
近日,Open AI公司发布的文生视频大模型Sora极大地提升了文本与视频之间的转换效能,Meta的V-JEPA、谷歌Genie等产品亦在推测生成环境中积极探索生成式人工智能的多场景运用。而此前,ChatGPT也凭借强大的信息整合能力、自然语言处理能力和多模态交互能力,以前所未有的“人机互动”模式引发广泛关注。
然而,无论是文生视频大模型Sora还是人机对话的ChatGPT,都加剧了生成和传播虚假信息的风险。首先,在技术逻辑上,生成式人工智能虚假信息具有必然性和无限复制性。ChatGPT通过深度自主学习、人类强化反馈和Transformer算法运作,被不断解码至完成最终运算,但“解码-运算-调适”的技术机理本身略过了信息的真实性与可靠性,所以极易“主动”生成或“被动”训练出虚假信息,并被无差别地保存、复制和利用。其次,在传播规律上,生成式人工智能虚假信息具有瞬时性和隐蔽性。一旦有虚假信息纳入基础数据源,随时可能被提取出来,而只要搭上算法的“快车”,就会在互动、转发过程中放大、裂变,使其具有瞬间聚合与扩散的传播能量,“污染数据”的使用与传播几乎同时完成。此外,在“技术性输出”“计算式答案”外表下,生成式人工智能虚假信息自身已经不具备典型谣言的外在特征,输出文本具有“唯一性”“权威性”,也具备很强的迷惑性。同时,借助算法的自动化、智能化,虚假信息能更快更智能地在网络中流动,而算法“黑箱”的存在,使信息的流向与运用很难被追踪与控制。最后,在危害后果上,生成式人工智能虚假信息具有复杂性和不可控性。因为数据高度融合的特点,生成式人工智能最终生成的虚假信息可能来自源数据库、用户端或算法,甚至上述几种因素共同所致。因此,“多因一果”的复杂关系加剧了责任认定与司法救济的难度。加上Sora、ChatGPT等人工智能技术支持文本、图像、视频的深度加工和转化,“有图有真相”“图文并茂”或者以假乱真、半真半假,都会导致“偶然的事实、创造性的想象、情不自禁地信以为真”。若操纵生成式人工智能的内容生成,有目的地制造网络热点、挑动公众情绪或歪曲历史事实,甚至针对特定人群发布仇恨性言论或者煽动族群攻击,就会形成新型“技术霸权”“计算宣传”,将直接威胁公众信任、社会稳定和国家安全。
[美]沃尔特·李普曼:《公众舆论》
阎克文、江红译,上海世纪出版集团 ,2006年版
(图片来源于豆瓣)
为此,欧洲《人工智能法案》将“缺乏真实性”列为生成式人工智能的核心风险。同时,我国《生成式人工智能服务管理暂行办法》也规定“不得生成虚假有害信息”。针对生成式人工智能虚假信息的治理问题,学界从不同角度进行了广泛讨论:从治理机制角度提出多元共治、协同治理;从主体角度强调政府要加强与技术研发者的合作、强化平台治理;从法律规制角度提出建构特定算法诽谤制度或软硬法兼施的复合型AI信息治理框架;从治理思路角度提出要以产业链为视角进行类型化治理。总体来看,传统理论框架无法高效快捷地应对生成式人工智能虚假信息的海量生成和快速传播。
技术进步对治理创新的速度提出了更高的要求,两者的时间差凸显了敏捷治理的必要性。2001年8月,《敏捷宣言》的发布使敏捷的概念在不同学科领域得到广泛关注和研究。敏捷治理最初在软件开发领域,继而在企业管理领域得到应用,并逐渐拓展至公共管理领域。2018年,世界经济论坛提出了敏捷治理(Agile Governance)的概念,着重思考第四次工业革命中的政策制定问题,它意味着是“一套具有柔韧性、流动性、灵活性或适应性的行动或方法,是一种自适应、以人为本,以及具有包容性和可持续的决策过程”。2019年6月,我国《新一代人工智能治理原则——发展负责任的人工智能》已将敏捷治理作为八项原则之一。2023年,国家网信办在《全球人工智能治理倡议》中明确指出要实施敏捷治理。作为人工智能治理的重要组成部分,生成式人工智能虚假信息的治理自然也应是敏捷治理的题中之义。因此,厘清生成式人工智能虚假信息所带来的治理困境、探讨敏捷治理框架下生成式人工智能虚假信息治理尤有必要。
二、生成式人工智能对
现有虚假信息治理理论的挑战
面对生成式人工智能虚假信息的治理问题,中央及地方立法都给予了积极回应,形成了多方协同共治、强化政府及市场行为和类型化治理等代表性主张。在国家层面,2022年3月施行的《互联网信息服务算法推荐管理规定》明确了网信、电信、公安及市场监管部门的共同治理责任和服务提供者的信息发布审核义务,要求建立识别虚假信息特征库并针对违法及不良信息进行类型化处置。此后,《互联网信息服务深度合成管理规定》进一步要求服务提供者建立健全辟谣机制,强化其训练数据管理义务和特定标识义务。而《生成式人工智能服务管理暂行办法》将数据管理责任往前延伸至技术研发、预训练阶段,同时提出要根据服务应用情况进行分类分级监管。在地方实践,2020年《天津市网络虚假信息治理若干规定》要求建立网络虚假信息综合治理体系,并通过信息共享、会商通报、联合执法、案件督办、谣言处置等方式开展协同治理。2021年9月,《浙江省人民代表大会常务委员会关于网络虚假信息治理的决定》明确多主体间协同治理的原则,强调建立跨部门、跨区域执法联动响应和协作机制,实现了各区域和各部门间的信息共享、监管互认和执法互助。上述立法所作的积极探索极大地推动了生成式人工智能虚假信息的治理效能,但由于其治理理念受限于传统治理框架,因此未能真正解决生成式人工智能深刻变革所带来的诸多问题。
(一) 多中心协同治理理论面临协同困难的挑战
“多中心”最初由Michael Bollany提出,它强调在遵循法律的前提下,保持人与人之间的独立、平等,由此达成一种合作、协调的关系。20世纪70年代,美国奥斯特罗姆夫妇将其发展为多中心治理理论,强调由多个主体共同参与,特别是在政府与市场之外,以自主组织为中心进行公共事务管理。面对各参与主体间的关系,赫尔曼·哈肯主张“协调合作”,认为协同中“序参数”可以通过伺服原理和自组织原理发生集体行为和自组织行为。以互联网技术为基础的虚假信息复杂多变,对其治理往往涉及国家利益、社会公共利益、企业平台利益和个人合法权益间的冲突与协调,以多中心理论与协同学统合形成的多中心协同治理模式成为虚假信息治理的重要选择。在此模式中,具有治理职责的政府、平台企业、社会组织和网民为主的社会公众均为独立且又相互关联的“中心”,各“中心”独自发挥优势,各自保持着作为子系统的良性循环,彼此之间达成平等与协作,是一种多元主体的平等合作关系。在协同治理格局内部,主体构成、动力机制、支撑机制、合作机制等内部要素与文化、组织、制度、权力等外部要素相互建构与内化,既保持各“中心”的完整性,又要求相互间的协同性。进入数字社会,虚假信息的技术性特征日趋明显,传统自上而下的中心化辟谣模式转向以互联网平台企业为关键责任主体的非中心化、人机协同治理新范式,这一范式顺应了人工智能时代治理环境技术化、智能化发展的趋势。
[美]迈克尔·博兰尼:《自由的逻辑》
冯银江、李雪茹译,吉林人民出版社2002年版
(图片来源于豆瓣)
新一代生成式人工智能持续改变现有社会信息资源的供给与秩序。从AIGC事故分析看,虚假信息呈现客体多元性、范围广泛性和潜在危害复杂未知性的特点,技术运用所触发的深度伪造、信息伦理等问题,使得任何传统单一行动主体的资源与能力都无法应对,需要政府、社会组织、平台企业、社会公众等多个利益相关者密切快速配合,强化互联网把关人和媒体的作用,积极落实平台的法律责任。此时,传统协同治理主体作为“中心”的完整性和独立性需要不断被打破,协同性需要进一步提升。但现有多中心协同论以“平等”“协同”“合作”为主要特征,在治理快速生成、瞬时传播的人工智能虚假信息时,容易出现“协同迟缓”“协同真空”“协同僵化”等问题。首先,因响应不能导致协同迟缓。多中心协同论强调协同主体的广泛性,对生成式人工智能的快速协同能力与反应力重视不够,从而导致各协同主体无法迅速作出响应。其次,因协同机制不畅导致协同真空。目前各主体协同的具体内涵与实现路径不够明确,难以发现隐蔽在数据预训练、人工微调、强化学习甚至人机互动等各阶段的虚假信息;加上现有治理规则清晰度不足,协同主体依然遵循传统治理体系中的分工原则各司其职,难以避免协同真空。最后,关系调适欠佳导致协同僵化。在多中心协同论中,政府、社会组织、平台企业和社会公众之间的协作机制尚未完全体系化、规范化,彼此间关系未能完全理顺,加上现有治理以后置式、弥补式为主,而多元异质的协同主体所处地位与资源迥异,因此无法真正有效实现协调合作。
(二)二元治理结构论面临“双重失灵”的可能
20世纪90年代,治理理论得到进一步发展。罗西瑙认为,治理既包括政府机制,也包含非正式、非政府的机制。随着治理范围的扩大,各类人群或组织得以借助这些机制满足各自利益需求。一直以来,互联网被认为具有自净功能,即无需外力干涉也会在一定范围内自行“消化”网络谣言。因此,在互联网空间规制特别是网络虚假信息治理问题上,学界对更多地采用政府规制还是以市场调节为主进行治理存有分歧。
二元治理结构论主张政府规制和市场机制是治理体系中的两种手段,代表着两种不同的价值取向,二者共同构成了虚假信息治理结构。一方面,实施政府规制具有正当性。宪法的明确授权构成了政府规制的合法性基础;同时,网络自律能力不足、公共产品外部性以及信息不对称成为政府对网络媒体实施管制的必要前提,并且仍然需要进一步明晰规制手段与内容,以此来强化管控效果。从现实层面看,正是“互联网市场机制失灵所无法解决的互联网安全、网络隐私受侵害等严峻问题使得政府的适度规制变得越来越有必要”。从具体策略看,政府规制依然以传统虚假信息治理中的法律规制合理化、政府信息公开化、平台责任明确化等作为主要内容。另一方面,发挥市场机制具有合理性。因为政府规制往往存在反应迟缓、敏捷度不足或者辟谣措施不到位的问题,所以,单靠政府的宏观调控和组织协调,远远不能达到理想的治理效果,必须加强公众和其他社会组织的参与力量。而且,为避免刚性过度的政府规制压制新兴行业的活力,也应当更多地通过市场的自我调节,达到理想的治理效果。更有甚者认为随着平台经济异军突起,网络平台作用日益突出,所以强调要以网络平台规制为主,辅之以行政机关的外部管制、独立第三方机构的核查以及网络用户的自我规制,实行事中和事后监督为主的“经销商式”网络平台规制模式。上述观点表明,现有二元治理结构论主要包含了政府规制与市场机制两种手段,或以政府规制为主推进虚假信息治理,或以市场机制为基础进行自我调整,但都没有绝对排斥对方的存在,而是将政府规制的“有形”控制和市场机制的“无形”自律有机结合,形成政府与市场共同参与的二元治理结构。该治理结构倚靠政府资源集中、权力集约和行动统一的优势,同时发挥市场机制技术占优、灵活可变的长处,在面对传统虚假信息治理时呈现出良好治理效果。
然而,面对生成迅速、传播隐蔽、危害难以控制的生成式人工智能虚假信息的治理问题,政府规制与市场机制出现“双失灵”的情况。首先,受科层制结构的影响,政府的治理理念和治理手段更新慢,技术水平相对落后,规制的压力性和被动性特征明显。这种被动式规制,与生成式人工智能虚假信息的“主动”生成、快速蔓延形成巨大反差。如果一味强调政府规制,当相应的技术不能正常供给时,监管的有效性、治理的能动性均不能得到保证。另外,在网络化、平台化、市场化趋势下,政府规制和市场机制的界限变得模糊,出于主动避责考虑,政府规制变得更为被动。其次,面对新一代人工智能技术,信息的虚假与否并不是市场机制首要考量的因素,在私利的催化下,市场无暇优先顾及公共利益。而技术的工具属性会使其忽略价值功能,片面追求技术自身的革新与应用。但事实上,技术远非简单的工具,它已成为促进社会发展的生产力要素,也是重塑社会生产关系的重要因素,“现代国家内部权力结构或将由于人工智能而重构,资本与技术将会合谋为超级权力”。面对这种超级权力,市场本身缺乏主动进行“自我约束”的动力,一旦赋权平台进行治理,容易出现公权私利化倾向。简言之,政府规制和市场机制构成的二元治理结构无法适应复杂易变的生成式人工智能虚假信息治理需求。
人工智能
(图片来源于网络)
(三) 层级治理论面临信息跨层流动而失效
不同于多中心协同论和二元治理结构论,层级治理论以技术的可分性为前提展开。在技术上,互联网具有三层结构:以网络、设备为主体的物理层,以协议、标准为主体的逻辑层,以及以内容、服务为主体的应用层。进入人工智能时代,技术应用出现新的趋势,生成式人工智能未来可能成为社会的新型基础设施,通过开放应用程序接口的方式逐渐成为产业链中的基础底座,并获得较之以往更加中心化的社会权力。针对生成式人工智能的应用前景,形成了三种不同的分层治理思路:简单化区分技术研发者和提供者并重点规制技术提供者的“简易分层”,差异化配置技术研发者和提供者义务的“弱分层”以及精细化设置多个层面技术研发者和提供者责任的“强分层”。在强分层治理思路下,风险控制义务区别配置、重心后移,若基础模型层仅对商家提供技术服务,则只承担最基本信息内容的安全义务,由下游服务层承担主要风险控制义务和作为内容生产者的责任,技术支持服务和内容生成服务需进行有效分割。同样地,在“基础模型-专业模型-服务应用”分层业态下,因为基础模型层和专业模型层与现有“内容生成者”规制目的关联性不强,为减轻其相关注意义务,应配以不同的规制思路与工具,支持企业将面向用户的传播信息内容切割出来单独承担责任。所以,应当建立基础模型层构建公共性发展为导向的制度、专业模型层以分级分类为目标关注重点场景、服务应用层关注信息内容安全等权益的分层治理体系。
作为新近出现的生成式人工智能治理思路,层级治理论立足于技术应用分层的现实,尝试运用差异化的价值导向和治理手段,使技术治理对象更具象化、精准化,特别是在治理策略上区分内容生成与技术服务,以尽可能减轻生成式人工智能作为基础模型与专业模型时对于信息内容的注意责任。然而,单纯以推动技术创新应用发展的分层治理思路并不能完全适用于生成内容分层治理的逻辑,从技术应用分层到内容治理分层的演进仍需进一步认证。而且按照分层治理思维,针对不同层级的技术应用,其治理对象、治理目标及治理流程相对固化,不同层级之间的治理将相互割裂、不能贯通,分层思维所要建立的是坚实但静态的模型,这通常不适合处理需要快速响应的复杂状况。事实上,在应用程序接口模式下,信息内容风险或者虚假信息生成既可能来自基础模型层,也可能来自于后续的专业模型层或服务应用层,生成式人工智能作为一个内部相互勾连的整体,所生成的虚假信息并不会止步于某一个技术应用阶段,而是穿梭在不同的层级之间,因此,人为地进行基于内容的分层治理明显具有理想化倾向。另外,由于生成式人工智能多种应用业态的存在,按照层级治理论,同一治理对象由于处于不同层级存在适用多种不同治理策略的可能,比如针对同时提供基础模型和服务应用,应适用何种治理策略会变得难以选择,加上不同层级之间的治理相互关联、相互影响,彼此割裂的治理策略容易导致整个治理流程被中断,从而出现治理流程的阻滞。
三、敏捷治理——生成式人工智能
虚假信息治理的新模式
随着生成式人工智能技术的进一步应用,对其产生的虚假信息治理需要摒弃传统治理理念下的“被动式治理”“外包式监管”“分散式治理”,转向以敏捷治理为导向的新治理模式。
作为一种处理问题的策略,敏捷一开始出现在制造业领域,强调企业需快速自我调整,以应对急剧变化的市场。后来,这种敏捷思维被应用于软件开发领域,《敏捷宣言》就是针对传统瀑布软件开发的弊端而提出的软件开发方法。继而,受敏捷软件开发方法启发,被进一步应用于敏捷项目管理和敏捷采购,美国联邦政府在2012年明确采用了敏捷政府方法。由此,敏捷治理逐渐进入公共管理领域。Mergel将敏捷的概念与响应能力、韧性、适应性相结合,把敏捷视为嵌入正式结构的一套新的程序和过程,一种组织文化和协作的方法,从而重塑政府、公共管理和整体治理。此后,为进一步提高政府效率,大规模敏捷方法被应用于各种业务并协调所有业务单元,来适应外部动态环境的变化,从而获取高额绩效和竞争力。
国内学者关于敏捷治理最初的研究集中在新兴产业发展与监管模式领域。后来逐渐扩展至数字政府全领域,既包括超大城市治理、乡村治理、智慧社区治理等综合领域,也包括共享经济、药品网络交易、生态环境、科技伦理等细分领域。对生成式人工智能的高度关注加强了学界对敏捷治理的思考,有学者认为敏捷治理是人工智能治理的新模式,并进一步提出要以全面性治理格局、适应性治理机制与灵活性治理工具来实现治理范式革新。也有学者认为敏捷治理模式具有适应性、柔韧性和包容性的特质,并主张采用“预防与应对并重”“多元合作互动”“技术叠加法律”的治理模式。不难发现,目前学界普遍认为回应性、适应性、灵活性是敏捷治理的重要特征,但如果仅以此来归纳敏捷治理,仍不够准确。换言之,“敏捷”有余,而何为“敏捷治理”的特性体现得还不够充分。相对于传统治理,敏捷治理对组织、效率、韧性都提出了更高的要求。这些要求必须从以下三方面进一步强化,才能凸显其作为治理模式的特性。
首先,政府主导是敏捷治理的组织特性。新技术发展带来的“去中心化”,让以往等级结构分明的治理组织形式转变为以信息技术为媒介的主体互动形式,这一转变进一步促使治理主体地位平等化、权力均等化。当治理权力趋于平等且缺乏控制时,握有不同资源与立场的治理主体便很难迅速统一行动,因此技术创新背景下政府部门与其他治理主体之间如何进行决策权的平衡成为实现治理目标的关键要素。因为决策权的共享程度极大地影响着治理的效率,敏捷治理强调要在政府和非政府行为者之间保持决策权的极化,即仅在一方保持决策权。在生成式人工智能虚假信息治理领域,治理效率是首要问题,同时又事关意识形态风险防范,因此应且仅应由政府来主导。同时,明确的政府导向和有效的高层管理支持是提升组织敏捷性的重要因素,为创造更大的公共价值和提高治理的敏捷性,必须以强有力的政治领导推动敏捷治理的关键流程。具体体现为,当多主体共同参与生成式人工智能虚假信息治理时,政府需要主动式、前置式协调来自社会各个层面和不同部门的参与资源,有效地组织工作和信息交换,以消解“去中心化”带来的权力泛化、决策困难和合作懈怠。研究发现,即使是注重市场治理手段的欧美学者也认为,在敏捷治理中“由强有力的政治领导力驱动的分析文化对于创造更大的公共价值至关重要”。另外,敏捷治理还需要在政府各个关联领域共同实施,因此,政府主导还体现为由政府的高层领导在所属政府的不同领域推广敏捷方法。
其次,组织弹性是敏捷治理的结构特性。技术快速迭代带来治理的复杂性需求,也进一步凸显了习惯于稳定和问责价值观的传统治理模式的局限性,为此需要调整政策、立法、制度甚至内部结构以应对新的变化。敏捷性是指组织灵活并快速适应不断变化需求的能力,旨在改变组织文化和协作方法,以实现更高水平的适应性。本质上追求灵巧的敏捷治理主张以高适配性回应不确定性,通过将不同的规则和要素彼此形塑、援引,进而形成组织结构的优化,总体上提升应对环境挑战的适应能力。基于生成式人工智能虚假信息存在的必然性、隐蔽性和不可控性,这种适应能力既包括治理结构所应具备的调适与自我恢复能力,也包括因追求快速应对不确定风险而出现错误时的自我纠错能力。作为治理结构的自我调适能力,在面对复杂而不确定的问题时,需要吸纳更多的资源进行结构调适并及时作出回应。在基础策略上,需要创新人力资源政策,如美国的总统创新研究员项目招募IT人才进行“职责之旅”,其意在激励人们短暂地为国家服务,特别是向联邦政府注入来自私营部门的技能和实践,在组织内部结构上实现传统政府治理与市场技术治理的有机融合。在自我纠错能力上,组织弹性体现为以学习和控制为核心。一方面,因为新技术带来的社会发展、技术更迭和行为嬗变迫使在治理结构内部注重边学边做、动态调整、容错纠错,让各类主体从错误中迅速汲取智慧并加以改进,提高整体适应性;另一方面,作为治理结构本身需要保持一定的稳定性,通过定期反思如何变得更加高效,然后相应地调整其行为,从而实现稳定性与适应性的平衡。
最后,穿透式治理是敏捷治理的流程特性。“新产品管理”的敏捷方法专注于短周期开发以及每个阶段与客户的彻底合作,这一方法与传统瀑布式软件开发中后一顺序严格遵循前一顺序的原则截然不同,其主张可跨越的“橄榄球”式治理流程,即“一个团队作为一个整体,来回传球,走完全程”。于是,程序化、层级式、固定化的传统流程被改变。由于生成式人工智能虚假信息存在反复被提取、复制和利用的情况,对其进行敏捷治理,需以敏锐感知为前提快速逼近治理目标。这种穿透式治理流程以追求最终目的为基础,不再遵循固有的标准操作流程,所有治理主体都以阻断虚假信息生成和传播为目的而采取治理行动。因此,传统不同层级和固有的信息烟囱不断被超越,治理各方对于治理的共同责任不断强化,彼此间更容易保持密切的沟通,形成集中统一的治理整体。穿透式治理在横向上能弥合不同职能、不同资源、不同功能主体之间的差异,相互间能够灵活组合、快速响应;在纵向上,能破除不同层面的权力设置、响应能力、资源力量的屏障,集中优势形成整体性治理。
[美] 詹姆斯N.罗西瑙:《没有政府的治理》
主父笑飞译, 江西人民出版社,2001年版
(图片来源于豆瓣)
四、敏捷治理新模式的实现路径
对生成式人工智能虚假信息的治理本质上仍属于对技术的规制,“灵敏感知—高效协作—快捷响应”的敏捷治理新模式需要汇聚制度价值、技术理性和政策效能的共同作用,以治理的法治化和技术化为基本方向,保持制度的原则性要求和技术工具价值的协同,以实现新治理模式的灵活性与适应性。
(一)灵敏感知:建立虚假信息等级评估制度
对生成式人工智能虚假信息的灵敏感知、有效辨识和等级评估是进行敏捷治理的前提。
一是建立虚假信息的灵敏感知制度。结合生成式人工智能虚假信息的生成机理可以发现,数据、文本质量难以控制,人工标注夹带算法偏见,技术固有的伦理风险以及人机互动机制中的偏差等多种因素与虚假信息的出现息息相关。在欧洲,2018年9月,主要线上平台、媒体巨头、广告主和经营者代表联合发布《反虚假信息行为准则》,提出要有更广泛参与及合作的快速警报系统,同时建立欧洲数字媒体观察站,加强对虚假信息的监控和感知。为有效发现与搜集生成式人工智能虚假信息,一方面,在生成式人工智能系统内部通过深入运行机制,在模型研发、训练运行、内容生成等各阶段,根据可能存在的缺陷和漏洞,确定虚假信息感知的重要节点,建立虚假信息的感知模型嵌入系统。另一方面,在生成式人工智能系统外部,以其行业生态链为方向,选择各类专业应用作为虚假信息的“哨点”,一旦出现虚假信息,以最快的速度、最广的范围使虚假信息能够在第一时间被捕捉到。
二是建立虚假信息的等级评估制度。目前我国《互联网信息服务算法推荐管理规定》第27条、《互联网信息服务深度合成管理规定》第20条和《生成式人工智能服务管理暂行办法》第17条均要求具有舆论属性或者社会动员能力的技术服务应当开展安全评估。根据要求,安全评估的内容主要包括信息服务的合法性、安全措施和防控风险的有效性三个方面。从根本上看,该安全评估制度属于信息服务合规审查及安全风险保障能力的评估。为精准有效治理虚假信息,还应当建立虚假信息的等级评估制度。2023年,欧洲议会的《人工智能法案》根据人工智能产品的风险程度,分成不可接受的风险、高风险、有限风险和最低风险四个等级,同时要求风险较高的参与主体的运作程序更加透明、使用数据更加准确。对照刑法规制的网络言论型犯罪,以可能侵犯国家法益、社会法益或个人法益,区分为煽动宣扬型、编造传播型和侮辱诽谤型三种类型,相应地,虚假信息也应根据侵犯利益的严重程度,区分为高等级、中等级和低等级。高等级虚假信息侵犯最高等级的国家利益,比如涉及煽动民族仇恨、社会意识形态领域的虚假信息,应当给予优先快速处理。中等级虚假信息为涉及社会利益,如涉及公共安全、社会环境和社会经济方面危害的虚假信息。低等级虚假信息仅涉及个人利益层面,如个人虚假信息使用或恶意使用。
三是建立特殊虚假信息的评估制度。目前《互联网信息服务深度合成管理规定》第15条明确提出,当涉及人脸、人声等生物识别信息,或可能涉及国家安全、国家形象、国家利益和社会公共利益的特殊物体、场景等非生物识别信息的,应当依法自行或者委托专业机构开展安全评估。这一规定强调针对特殊信息运用需开展安全评估的法定义务,但没有完全摆脱“自我定义”安全评估的局限。参照2021年《关于加强互联网信息服务算法综合治理的指导意见》,组建包括技术研发者、服务提供者、行业组织、技术专家在内的专业技术评估队伍,以行业组织和技术力量为主体开展具体的评估工作,应将此类涉及特殊信息运用的评估方式改为联合评估、行业评估或者独立的第三方评估。另外,需建立合成数据类虚假信息的评估规则。未来对数据、算法的治理将跃升至对基础模型、专业模型的规制,在现有数据完全纳入基础模型之后,合成数据使用也变得越来越频繁。因其会夹杂原始数据、中间数据和最终数据,数据的运用过程一旦被拉长,产生虚假信息、不实信息的可能性也将进一步加大。因此,需要有针对性地对合成数据所致虚假信息的机制、过程以及风险作出单独的评估。
(二)高效协同:建立政府主导的协作机制
敏捷治理强调突破既定框架的限制,克服部门之间的数据壁垒,实现跨部门机构之间的信任和互惠。在我国《生成式人工智能服务管理暂行办法》第5条第2款和第16条第1款针对性地规定了各相关主体、行政机关及组织加强协作、依法履职的要求。目前,根据国务院《互联网信息服务管理办法》第20条规定,公安机关、国家安全机关是进行谣言相关行政处罚的主责部门。2014年《国务院关于授权国家互联网信息办公室负责互联网信息内容管理工作的通知》明确规定由国家网信办负责互联网信息内容的监督、管理与执法。针对生成合成类算法推荐服务,《互联网信息服务算法推荐管理规定》第3条提出由国家网信部门统筹协调,电信、公安、市场监管等有关部门参与。随着网络社会发展和机构改革的推进,中央网络安全和信息化委员会办公室、国家数据局也对网络安全及信息数据资源的管理负有一定责任。2018年4月,习近平总书记在全国网络安全和信息化工作会议上强调,要提高网络综合治理能力,形成党委领导、政府管理、企业履责、社会监督、网民自律等多主体参与,经济、法律、技术等多种手段相结合的综合治网格局。为此,首先必须以技术支撑打破“协同迟缓”。针对治理主体协同不能,要在生成式人工智能数据来源核查、信息评估预警、谣言监管监测、快速响应处置等环节对关键技术和算法逻辑进行梳理,开发针对性的内容审核、检测跟踪、纠正处置等应用模型,建立以政府为主导的协同算法来打通协作通道,用技术驱动合作,提升协同效率,实现高效协同。其次要以风险沟通填补“协同真空”。生成式人工智能虚假信息产生的风险本身具有极大不确定性和各种可能性,治理规则清晰度的不足进一步助推风险的复杂程度。“从风险的发展态势来看,风险的传递和运动经常是潜在的、内在的,在不知不觉中风险已经悄悄逼近。”这就需要各治理主体运用各自不同的资源,保持适度的开放性和风险沟通的有效性,通过对风险沟通的参与合作、反馈评估,进行良性的双向互动。同时,在各治理主体内部,建立类似人工智能专员,负责沟通存在的相应风险,明确风险种类、内容和可能导致的后果并采取防范性措施。最后,以信息共享化解“协同僵化”。“在政府与非政府行动者之间建立决策、参与和问责的共享流程”是敏捷治理的路径之一,这也要求不同的治理主体能突破固有利益藩篱,建立信息的快速共享机制,通过共享调适不同主体间的利益关系。具体而言,应在政府部门内部建立职能部门联动机制,对外构建以政府组织为主体,技术开发者、技术服务提供者、社会组织、行业协会、网络媒体、社会公众等多层次利益主体参与的定期信息共享机制,以提升治理的协调性和时效性。
(三)快捷响应:精准应对不同阶段的虚假信息
敏捷治理不仅要求加快治理的应对速度,更需重置具体的处置流程,提高处置机制的灵活性和有效性。相比传统媒介,生成式人工智能虚假信息生成、传播周期都将变短,信息传播的萌芽期、扩散期、消退期的时间节点变得模糊。在大语言模型和算法的支持下,智能化、精准化信息分发模式实现了传播对象的选择、固定和分化,使传播路径更隐蔽、更具破坏力。因此,针对生成式人工智能虚假信息的治理,不仅要“快”,而且要“准”。目前,针对虚假信息的治理措施除已有行政规制、刑事处罚外,《互联网信息服务算法推荐管理规定》第9条规定,发现违法信息的,算法推荐服务提供者须采取立即停止传输、消除等处置措施;《互联网信息服务深度合成管理规定》第10条要求深度合成服务提供者以“技术或人工”的方式审核输入数据和合成结果,并可对使用者采取警示、限制功能、暂停服务、关闭账号等措施;另外,《生成式人工智能服务管理暂行办法》第14条规定,提供者在发现违法内容后要及时采取停止生成、停止传输、消除等处置措施,并对模型进行优化训练。可以看出,现有规定多以技术服务者的后置行为、弥补措施作为治理手段,尚不足以覆盖生成式人工智能虚假信息治理的全周期。在敏捷治理理念下,应按照灵活快速的原则,在不同阶段设置不同的处置主体和处置手段,实施“尽早介入-精准处置-有效反制”的全链条式治理策略。一是尽早介入。通过治理主体的积极干预,提前嵌入信息感知与检测模型,针对发现的可能生成虚假信息的内容,及时要求技术开发者修正、删除,技术开发者应将模型优化训练后再投入应用,实现治理从“外部控制”到“内部疏导”。二是精准处置。结合定期审核、评估、验证生成式人工智能的机制机理以及虚假信息等级评估制度,及时发现需要处理的风险因素,准确识别不同等级风险。高等级和中等级虚假信息按照“谁发现、谁处理”的原则,立即实施停止生成、停止传输、限制传播、有效消除等措施,尽可能防止危害的进一步扩大。对于低等级虚假信息可以按照常规治理流程进行处理。三是有效反制。针对已经生成并进入传播的虚假信息,通过附加标注、暂停服务等处置措施降低进一步传播的可能性,并且运用算法进行反制,借助技术反馈机制进行辟谣信息的精准推送。
(四)弹性容错:建立柔性容错纠错机制
面对科技的迅速发展,敏捷治理主体需及时响应、尽快决策,而现有行政管理机制和科层制又难以容纳不确定后果的行政决策,这种结构性张力会贯穿于治理的全过程。为消解这种结构性张力,首先要建立容错文化。作为保护和激励改革创新的重要举措,容错就是要容纳更快更积极的态度处理不确定事项带来的消极后果,对此进行特殊的责任减免。与传统事后规范性治理不同,生成式人工智能虚假信息治理必须是更迅捷、更主动的治理,甚至是前置式的预测性治理,而更快的决策也意味着出现更多错误的可能性。从一定意义上说,治理的能动性是以“人”的能动性为基础的,也容易因为“人”的判断出现偏差,因此必须要放弃传统的零失败文化,建立适应鼓励与规制新技术发展的容错文化。其次,确定容错空间。当前,我国《生成式人工智能服务管理暂行办法》已将包容审慎纳入监管框架,但尚未列明容错情形、容错条件和容错结果。敏捷治理要动态关注技术发展过程,通过低成本的试错,在不断优化中实现渐进而快速的治理,因此,需要构建技术容错和行为容错为主体的双层容错机制。技术容错是指因为生成式人工智能本身还存有悬而未决的技术空间,需要逐渐强化技术的“清晰度”“可问责性”,故应允许技术研发者、技术服务提供者采取可弥补、可补救的技术治理手段。对此,应保持较高弹性的容错空间。行为容错需要区分基于治理规则的尽责行为和试探性行为,如果是现有治理规则已明确的内容,则应排除在容错范围之外。只有通过勤勉尽责、积极推动治理规则尚未明确的事项或因注重治理的敏捷性所致的行为差错,才能适度纳入容错范畴。最后,建立柔性纠错机制。通过试错、纠错并持续地改进是敏捷治理追求的目标之一。在政府治理角度,可以综合运用检查会商、研讨交流、联合声明等柔性方式弥补传统治理手段的不足。在技术研发者角度,可以立即采取模型暂停服务、离线修复、加注标识、紧急声明等应急补救措施,在最小范围内防止损害继续扩大,并及时告知社会公众、用户和监管部门。
五、结语
当一项新技术出现,相伴而生的必然是技术的各种弊端和不良反应,而谋求技术创新与安全发展之间的平衡是治理模式的重要命题。以ChatGPT为代表的智能传播将带来人类信息传播范式的根本转变,也意味着旧有治理范式的失效和阙失。技术发展不会阻碍社会进步,反而促使人们更为积极地去寻找社会发展的动力和规律。生成式人工智能带来的新一轮技术革命及其溢出效应一方面体现为人工智能技术提速,另一方面是不断催促治理模式的升级迭代。敏捷治理新模式需要在不断探求虚假信息识别技术、解码通用模型的底层算法逻辑基础上,构建更为灵敏、高效和具有较强适应性的治理机制,并以价值理性为引导推动技术向强向善。
往期推荐