来源:《学习时报》 发布时间:2025-04-10
大语言模型是基于深度学习技术构建的,能够处理和生成自然语言文本的复杂系统,当前已成为人工智能领域最引人注目的代表性应用之一,不仅在自然语言处理方面取得了显著成就,还在跨语言交流、智能客服、内容创作等多个领域展现出广阔的应用前景,对于培育和发展新质生产力、抓住新一轮科技革命和产业变革机遇而言有重要价值。与此同时,大语言模型也可能引发一系列风险,需要紧扣相关技术规律和产业特性,形成科学、系统、精准的治理思路,促成技术创新、产业发展与安全保障目标的融合实现。
从本质上说,大语言模型是一种从训练数据中学习一定模式的概率模型,训练数据、学习进程和应用过程都包含了复杂的风险来源,这些风险大致可归结为以下类别。
一是信息内容安全风险。在大语言模型的训练数据中,若存在质量缺陷、认知偏差或价值倾向等问题,模型在生成文本时就可能输出违法、不良或误导性的信息。更为复杂的是,模型还可能因为“模型幻觉”,即模型对训练数据的过度拟合或误解而产生错误的信息输出。随着网络空间中由大语言模型生成的信息越来越多,个人查询大模型以获取信息和知识的行为日益普遍,如对此不加规制,此种信息内容安全风险将日益复杂和庞大,甚至可能造成严重的认知误导和信息污染。
二是数据安全风险。训练大模型需要处理大量数据,应用大模型需要向大模型输入一定信息,在线精调和后训练等操作也需要向大模型提供各种数据,这些数据来源广泛,涵盖公开数据集、网络爬取数据、用户生成内容等,每个环节都可能造成数据安全隐患。既可能因模型学习了敏感信息而被使用者通过一定方式推理、还原,也可能因用户向模型提供敏感数据或个人信息而被国内外相关服务提供者获取,存在安全漏洞。
三是恶意利用风险。由于大语言模型学习了广泛的知识和信息,部分模型甚至具备编写和修改代码的能力,这使得它们有可能被不法分子恶意利用于制作病毒木马、制造危险物品、生成诈骗素材等违法犯罪活动。尽管模型开发者通常会设置一定的安全防护措施,但这些措施大部分比较容易被攻破,难以完全抵御恶意攻击者的技术手段。因此,恶意利用风险始终是大语言模型法律治理中的一块难啃的硬骨头。
四是侵权风险。在训练模型时,收集和处理数据可能侵犯他人的知识产权和个人信息;在模型应用时,输出的信息也可能构成对公民名誉权、隐私权等权益的侵害。特别是在多模态大模型领域,由于其融合了图像、音频等多种信息形式,使得侵权问题更加复杂和多样。近年来,国内外已经出现了一系列涉及大模型的法律纠纷和司法裁判,引起社会关注。
在上述风险之外,大语言模型的训练和应用还可能引起多种其他风险,如学术不端风险、大规模劳动岗位替代风险、输出错误行动指令的风险等。大语言模型属于新生事物,其技术基础、行业应用和产业链条都在快速发展演化之中,对大模型的风险治理并无现成的成功经验可循,各种治理工具仍处于探索阶段。不仅如此,大语言模型的法律治理还需要兼顾发展和安全、国际竞争和生产关系变革等不同方面的考量,应对这一挑战并非易事。
习近平总书记指出:“谁能把握大数据、人工智能等新经济发展机遇,谁就把准了时代脉搏。”大语言模型在人工智能的发展中占据关键位置,把握时代脉搏、应对治理挑战刻不容缓。我们不能等到大语言模型的风险充分暴露、治理措施及其技术基础完全成熟才着手展开治理,而是应当及早研判风险、梳理需求、整合可用技术、探索措施组合,基于合理可行的原则,逐步形成有针对性的治理路径。
一是平衡多重目标。人工智能的治理不能陷入单纯的风险规制视角,相关法律与政策应兼顾伦理维护、风险防控、创新激励、市场培育、权益保障等多方面的目标,寻求最佳的多目标融合实现方案。当前,大语言模型之间的竞争涉及人类科技“奇点”的抢占:谁先实现真正意义上的通用人工智能(AGI),谁就在未来的科技竞争乃至综合实力竞争中占据优势。我们必须加以高度重视,既要牢牢守住底线,又要想方设法使相关规制目标以负担较轻的合理方式融入模型开发与应用过程,避免影响人工智能底层技术发展、限制人工智能产业的创造性与竞争力。
二是保持规制弹性。鉴于大语言模型技术、应用、业态、产业都在不断发展演化,相关的立法应保持足够的弹性以应对技术创新、产业发展和风险治理的不确定性,避免刻舟求剑。保持“规制弹性”并不等于不需要“规制刚性”,而是需要根据新技术、新趋势、新证据,及时调整各项风险认知与评价结果,并通过法治方式精细调整和更新规制措施,同时保持制度预期的稳定性。
三是探索综合治理。大语言模型及其应用有独特的技术规律和产业特点,需要建立健全相应的“治理工具箱”,不能寄希望于单一的规制措施或治理工具。在算法备案和技术标准等已有治理工具的基础上,还需要探索发展模型测评、红队测试、算法解释、应急预案、监管沙盒、安全港等“工具包”及其组合运用方案,通过治理工具的选择、配合与结构化调整实现精准治理。对于大模型的法律治理而言,开源生态培育、基础模型安全、领域模型监管、测评体系构筑、规制负担分配等关键难题,对于整个人工智能的发展和安全举足轻重。我们应深入研究切实可行、动态迭代的组合式治理方案,逐步充实和完善人工智能法治体系。
四是加强国际合作。基于人工智能产业发展与风险链条全球联动的特点,人工智能的治理应积极加强国际合作,既有利于寻求主动形成价值与制度共识,也有利于预判外部风险、增强国际支持和形成治理合力。在加强国际合作的过程中不可避免遭遇国际规则博弈,这就更需要提前谋划,充分研判可能由外部输入的技术、产业与监管风险,在规则协调、技术普惠、安全可控等方面不断取得突破,以确保人工智能的发展符合全人类的共同利益。
(来源:《学习时报》2025年4月9日,第3版;作者:苏宇;图片来源:央视新闻微信公众号)