编者按:本文来自微信公众号 腾讯研究院(ID:cyberlawrc),作者:大模型研究小分队,创业邦经授权转载。
开源之所以宝贵,是因为其低门槛、高透明度带来了源源不断的创意和改进。但与此同时,大模型技术本身蕴含的风险——从幻觉到被非法滥用——也真实存在。开源大模型治理需要实现“双重目标”,一是确保开源生态的生命力。为善意的开源贡献者搭建可预期的责任避风港,实现“创新自由”;二是协同防范大模型的重大风险。开源生态透明开放、平等协作的特征,已不再适配传统的中心化监管模式,开源大模型治理应回归开源社区,构建“社区治理秩序”。
一、开源:数字创新的源头活水
开源在过去几十年间成为数字世界的基石。从互联网早期的Apache Web服务器,到移动时代占据70%以上智能手机的安卓系统[1],再到云计算领域无处不在的Linux操作系统[2],开源软件构筑了全球信息基础设施的脊梁 。在人工智能领域,Google开源TensorFlow使深度学习工具触手可及,而中国团队推出的开源大模型DeepSeek-R1则在受限算力下逼近闭源模型的性能水平,更是推动AI创新浪潮推迈向新阶段[3]。
开源之所以能推动创新,关键在于其开放协作的文化。全球各地的开发者不分昼夜地贡献代码、发现漏洞、优化功能,共同塑造技术的未来。特别值得注意的是,中国在开源浪潮中正从跟随者变为重要贡献者。《全球开源生态洞察报告 (2024年) 》显示,中国开发者近840万,占全球三分之一,在全球活跃度排名前100的开源软件项目中,中国开发者主导的开源软件项目占比17%,排名第二,未来仍有巨大增长空间[4]。
二、在人工智能领域,开源大模型快速崛起
2022年以来,开源模型呈赶超之势。开源与闭源模型在性能和应用领域的差距迅速缩小,甚至在某些方面实现超越[5]。它们为何后来居上?
其一、开源的“集市协作模式”似乎正在AI领域重演,开启“万众创新”新局面。 开源大模型将底层能力公开,公众可免费下载权重自行部署,进行“二次创作”,在不同行业和场景中微调形成专用版本,灵活适配性大大增强。开发者共同分享工程经验,共同参与技术路线试错,加速了AI发展进化。这一趋势让人不禁联想到经典著作《大教堂与集市》中提出的开源范式——任何人皆可参与创新,形成“无边界的技术市集” [6]。AI领域有望继续谱写开源的传奇。
其次,开源模型提升了AI系统的透明度和安全性。 “正如最知名的加密算法往往是最安全的一样, 最知名的AI 模型也可能是最安全的。”[7 ]由于模型架构、权重开放,外部研究者可以深入“解剖”模型,及时发现偏见或漏洞并共同改进。相反,封闭模型如同“黑箱”,外界难以对其进行监督。
最后也最重要的是,开源打破了AI领域的既有封闭格局。 此前最先进的AI模型往往为少数巨头掌握,产业下游通过API付费使用,对其缺乏议价或约束能力。开源减少了单一供应商的锁定效应,提升了技术自主权。在大模型领域,开源社区用更低算力复现了商业闭源模型的大部分能力,也迫使大型科技公司不得不重新评估策略,保障了行业的良性竞争。
三、当前主要开源大模型的开放程度
尽管人们常用“开源”与“闭源”做二元对比,但在现实中,模型的开放程度呈现出一个递进的光谱 [8] 。从仅提供API接口的全封闭,到模型架构、权重公开,乃至训练数据开放的完全开源,中间有许多层次。
图1 主要开源大模型开放要素及许可证比较
注1:图片根据斯坦福大学基础模型研究中 心论文 [9] 结合公开的许可证信息制作
注2:开源要素——模型参数架构、模型权重、源代码、实现方法、训练数据
注3:在当前开源的主流大模型中, DeepSeek-R1模型的开放更为彻底:开放权重、代码,并通过技术文件公开重要的训练方法。相比之下,LLaMA 2采用定制许可,允许商业使用但附加条件(要求月活跃用户在超过7亿的用户必须向Meta单独申请许可)
综上,大模型的开放程度形成了一个丰富的谱系。从治理角度,也需要针对模型开放度的不同层次分类施策。为便于讨论,下文所提到的开源大模型,以目前行业主流标准为依据,是指模型参数公开透明, 开源许可中除禁止用于违法用途等一般声明外,允许用户自由运行、研究,修改的模型。
四、开源大模型治理——从开源文化中汲取智慧
开源之所以宝贵,是因为其低门槛、高透明度带来了源源不断的创意和改进。但与此同时,大模型技术本身蕴含的风险——从幻觉到被非法滥用——也真实存在。具体来说,开源大模型治理需要实现“双重目标”:
一方面,首要确保开源生态的生命力,实现“创新自由”,为开源者搭建可预期的责任避风港, 对善意的开源探索给予充分的空间,以吸引更多开发者参与开源,推动开源技术繁荣发展;
另一方面,针对开源风险的独特性,构建开源AI治理的“社区秩序”,不致引发重大危害。 这其中:开源本身的发展历史提供了许多宝贵经验,从社区自治到协同治理,将为开源模型的安全治理提供重要启示。
围绕以上两方面目标,本文提出以下建议:
(一) 为开源者搭建可预期的责任避风港:
具体说来,避风港由两个清晰的责任边界组成:
一是在纵向上:区分产业上下游,明确模型开发者与应用者两类角色,明确责任边界。
责任分配的基本出发点是要考虑主体的“风险管控能力”。 模型开发者掌控模型设计研发与训练,而部署者深入具体应用场景的细节,二者就大模型的安全风险在管控能力上存在本质差别。因此,当下各国AI治理的共识之一便是对产业主体角色进行区分,并适配不同的治理责任。例如:
欧盟《人工智能法》 明确了两类不同主体:模型开发者 (Provider) ,其主要责任在于保障其开发的AI系统符合安全性、透明性等要求。采取风险评估、适当的技术措施来增强AI系统的可靠性;模型部署应用者 (Deployer) 主要确保AI系统在应用过程中符合法规要求。对高风险AI系统进行持续监控,面向用户提供充分的权利保护机制等。
美国加州2024年SB-1047法案 中的争议也体现了分类治理的认知。该法案初始没有明确区分“开发者”和“部署者”,而是几乎将所有义务集中加在“模型开发者” (provider) 身上。此提案引发包括李飞飞在内的产业界人士强烈反对 [10] 。有专家指出:SB-1047 将部署者应承担的使用责任转嫁给开发者,相当于让“电机制造商为电锯的使用事故负责” [11] 。该法案最终被否决。
我国《生成式人工智能服务管理暂行办法》 将分类治理的思路往前推进一步。规章对模型研发阶段做出了整体性的豁免。除非面向公众提供服务,作为服务提供者承担研发阶段的相关要求,如数据治理的基本规范。这实际形成了一种“激励研发探索的沙盒”:在研发阶段,允许包括开源社区在内的各类主体自由探索;一旦进入应用阶段,特别是公众可触及的服务,再将服务本身纳入监管。
开源模型普遍采用的许可证协议中对下游应用的“免责声明”,与以上责任分界逻辑是自洽统一的。 开源许可证作为开源社区的“社会契约”,其核心功能是通过授权条款,明确开发者与下游用户之间的权利和责任关系。如BSD许可证明确,开发者不对任何直接或间接损失负责。MIT许可证强调“按原样”提供软件,不提供任何明示或默示的保证。开源许可证符合著作权法和合同法的基本原则,并通过责任框架,免除了开源贡献者的后顾之忧。促进了开源社区的协作创新。这也是各国在法律、司法上在通常情况下认定开源许可证具有明确法律效力的根本原因。
二是在横向上:基于开源与闭源的显著差别,开源不应承担与闭源同等的责任。
训练一个模型就像制造一台机器,若模型存在基本的明显缺陷,开发者需要对此有预见并尽可能防范。因此无论开源或闭源,开发者理应承担基本的安全责任。然而与闭源相比,这种“基本责任”对于开源模型开发者应有边界。
一方面,开源开发者往往缺乏足够的控制力。 开源开发人员在发布模型后,“不可能实际监控和防止下游滥用” [12] 。下游人员可以微调并规避原始开发人员设置的安全护栏,对此开源者不可能预见所有极端用法。相比之下,封闭模型的开发公司通常也是模型商业服务的提供方,从提供稳定可靠的AI商业服务的目的出发,闭源模型公司通常会在模型研发阶段有更大规模的安全投入,如进行内部红队测试和安全优化 [13] ;而布鲁斯金学会的相关报告指出:“开源者通常不会从他们的贡献中获利,且他们没有预算和合规部门能够完成那些繁重的义务。” [14]
另一方面,治理需要考虑到开源开发者的积极性。 如果要求开源开发者承担与闭源的商业提供者相同的义务,将会导致开源社区或研究人员为了避免责任而选择不公开发布模型,从而抑制开源创新。 [15] 相关智库曾批评:“未能区分封闭源与开源AI”的做法,实际是把透明开放的项目和封闭商业系统“一同缠入监管之网,结果就是开源开发者不知道自己的善意贡献会招来称赞还是惩罚,从而对开源创新形成寒蝉效应。” [16]
正因如此,即使在监管最为严格的欧盟,其《AI Act》亦规定:免费且开源发布的AI系统通常不受该法案的义务约束;而在通用模型领域,开源提供者也被免除了编制文件,提供信息等义务。美国则采取了更为宽松的做法。美国国家电信和信息管理局 (NTIA) 指出:目前尚无充分证据证明开源模型比封闭模型更危险,当下并无必要立即出台针对开源模型的强制规定,强调以持续监测作为风险托底,在必要时才考虑采取行动 。
(二)从开源文化借鉴治理智慧——信任社区的力量
开源生态凸显了透明开放、平等协作的特征。 如果僵化地将其适用于中心化、科层化的传统监管模式,不仅无法达到预期的监管效果,也将对开源的生态活力带来巨大的负面影响。开源大模型的安全治理应回归开源社区,在开源文化中借鉴治理智慧。
社区自律与监督是开源治理的核心一环。 以开源AI模型的集散地Hugging Face平台为例,其已经形成了一套成熟的社区治理经验。平台方:要求模型发布者提供详尽的模型卡 (Model Card) ,对模型训练数据、性能、伦理影响等做说明,并特别列出模型的适用和不适用范围。同时平台将对模型作额外审查,明确禁止带有恶意后门代码、用途违法的模型。一旦发现,管理员会迅速下架处理。如果某个模型被多次举报存在有害内容,社区和舆论的谴责也会形成一定威慑力。对于某些高风险模型,Hugging Face 会要求添加“非面向所有受众”标签,从而在用户访问时弹出警示并默认隐藏该内容。 [17] 社区用户:则可对有害内容或可疑模型进行标记举报,或贡献改进的数据集来微调纠偏。类似的,Open Assistant 项目利用GitHub issue和Discord频道收集用户对模型输出的反馈,鼓励大家参与“红队”测试来发现模型弱点 [18] 。
除开源社区外, 开源AI模型开发和部署涉及多个利益相关方,包括:云计算提供商、模型托管平台、下游使用及应用开发者、分发渠道、第三方评测审计者、终端用户乃至政府监管部门,每一方都拥有独特的能力和责任,只有通过充分协作才能达成有效的AI风险治理 [19] 。
“足够多的眼睛,能让所有问题浮现。” 1997年,埃里克·雷蒙 (Eric S. Raymond) 提出的“Linus 定律”至今仍熠熠。无论是在软件时代还是AI时代,在开放的社区中,错误和缺陷更容易被发现和修正。这种精神也浸润在每一个社区实践中——Linux内核的安全维护靠的是全球成千上万开发者的共同监督与补丁提交;主要发行版厂商负责将安全更新及时推送给用户;大型IT企业资助漏洞悬赏计划;政府部门出台网络安全基线要求……同理,在开源大模型领域,我们也期待形成基于社区机制的开放治理生态——生态中的每一类参与主体对其最有能力管控的风险环节,实施包括预警、感知、纠正、消减风险的各类措施,达成开放协作敏捷高效的安全协作。
本期文章主要由腾讯研究院-大模型小分队:王融、钟雨霏、袁媛、王强等完成
注释来源:
[1] CounterPoint Research. Global Smartphone OS Market Share Q4 2024. 2024. Web.
https://www.counterpointresearch.com/
[2] The Linux Foundation. "The Linux Foundation: It's Not Just the Linux Operating System." Linux Foundation, 21 Jan. 2020,
www.linuxfoundation.org/blog/blog/the-linux-foundation-its-not-just-the-linux-operating-system.
[3] Yang, Zeyi. "How Chinese AI Startup DeepSeek Made a Model that Rivals OpenAI." Wired, 25 Jan. 2025,
https://www.wired.com/story/deepseek-china-model-ai/?utm_source=chatgpt.com.
[4] 中国通信标准化协会. 全球开源生态洞察报告(2024 年)[EB/OL]. (2024-07-05) [2025-03-25].
http://221.179.172.81/images/20240705/27981720160008486.pdf.
[5] David, Emilia. "Meta Says Llama 3 Beats Most Other Models, Including Gemini." The Verge, 18 Apr. 2024,
https://www.theverge.com/2024/4/18/24134103/llama-3-benchmark-testing-ai-gemma-gemini-mistral.
[6] Raymond, Eric S. The Cathedral and the Bazaar: Musings on Linux and Open Source by an Accidental Revolutionary. O'Reilly Media, 1999.
[7] Third Way. "Open-Source AI Is a National Security Imperative." Third Way, February 2025, www.thirdway.org/report/open-source-ai-is-a-national-security-imperative. Accessed 25 Mar. 2025.
[8] National Telecommunications and Information Administration. "Dual-Use Foundation Models with Widely Available Model Weights." National Telecommunications and Information Administration, July 2024, .
[9] Considerations for Governing Open Foundation Models,
https://hai.stanford.edu/sites/default/files/2023-12/Governing-Open-Foundation-Models.pdf
[10] Raji, Timnit. "Godmother of AI Says California's AI Bill Will Harm U.S. Ecosystem." Fortune, 6 Aug. 2024,
https://fortune.com/2024/08/06/godmother-of-ai-says-californias-ai-bill-will-harm-us-ecosystem-tech-politics/?abc123.
[11] "California SB 1047: Executive's Guide." FairNow, https://fairnow.ai/california-sb-1047-executives-guide/.
[12] Gent, Edd. "Protesters Decry Meta’s 'Irreversible Proliferation' of AI." IEEE Spectrum, 6 Oct. 2023,
https://spectrum.ieee.org/meta-ai#:~:text=The%20self,how%20the%20AI%20is%20used. Accessed 26 Mar. 2025.
[13] La Malfa, Emanuele, et al. "Language-Models-as-a-Service: Overview of a New Paradigm and its Challenges." arXiv,
https://ar5iv.labs.arxiv.org/html/2309.16573v2#:~:text=et%C2%A0al.
[14] Karabus, Jude. "GitHub CEO says EU AI Act shouldn't apply to open source devs." The Register, 7 Feb. 2023,
https://www.theregister.com/2023/02/07/github_ceo_ai_act/.
[15] "AI Act: How the EU Can Address the Challenges Posed by General-Purpose AI Systems." OpenFuture, Jan. 2023,
https://openfuture.eu/wp-content/uploads/2023/01/AI-Act_Mozilla-GPAI-Brief_Kx1ktuk.pdf.
[16] Denton, Jake. "The U.S. Shouldn't Go the Way of Europe on AI." The Heritage Foundation, 8 May 2024,
https://www.heritage.org/big-tech/commentary/the-us-shouldnt-go-the-way-europe-ai.
[17] Solaiman, Irene, 等. "Ethics and Society Newsletter #3: Ethical Openness at Hugging Face." Hugging Face Blog, 30 Mar. 2023,
https://huggingface.co/blog/ethics-soc-3#safeguards.
[18] Castaño, Joel, 等. "Analyzing the Evolution and Maintenance of ML Models on Hugging Face." arXiv, 版本2, 2024年2月5日, https://arxiv.org/pdf/2311.13380.
[19] U.S. AI Safety Institute. "Managing Misuse Risk for Dual-Use Foundation Models." National Institute of Standards and Technology, 2025年1月,
https://nvlpubs.nist.gov/nistpubs/ai/NIST.AI.800-1.ipd2.pdf.
本文采摘于网络,不代表本站立场,转载联系作者并注明出处:https://m.ylfx.com/shangxun/53545.html