作者:傅宏宇、贾开、彭靖芷
导语:
开源已成为人工智能技术创新和产业应用的重要模式,但当前围绕人工智能开源风险和价值的争议,仍然没有得到很好的理论回应。基于传统开源软件或开闭源对立的思维窠臼,既不能看到人工智能开源的特殊性,也无益于人工智能开源生态治理的未来改革。在认识到人工智能开源并未产生“增量风险”的基础上,应从“技术可及性”角度发现人工智能开源价值,进而理解人工智能开源生态七类主要主体所构成的复合式、网络式结构特征。为更好回应人工智能开源生态的动态演化,人工智能开源生态治理应摆脱沿袭传统开源定义进而将人工智能开源视为独立静态监管对象的既有思路,基于“增量风险”理念,构建“利益平衡-风险防范-协同治理”的三维敏捷治理创新框架。
本文发表于《电子政务》(2025年6月网络首发)
一、引言:人工智能开源争议及其治理困境
在人工智能发展历史上,开源一直是推动技术创新发展的核心动力,同时也带来了显著的经济价值。在预训练大模型出现以前,人工智能开源主要包括开源算法以及数据集等,供开发者社区自由利用以进行二次开发和复现验证。深度学习以及大模型革命的发生,在很大程度上都受益于开源创新项目,其中最有代表性的例如由Alex Krizhevsky、Ilya Sutskever和Geoffrey Hinton提出、并通过学术渠道公开了代码和训练模型的Alexnet,其启发了后续模型(如VGG、ResNet)的设计,形成了“开源-改进-再开源”的正循环,推动了深度学习的复兴,同时也促进了GPU加速计算和框架(如CUDA、cuDNN)的普及;类似案例还包括作为大语言模型算法构建基础的transformer架构,该架构首次在2017年Vaswani等人的论文中提出,通过引入多头自注意力机制让语言处理并行化,不仅改变了语言模型的发展方向,也被广泛适用于计算机视觉(例如Vision Transformer)、蛋白质结构预测(例如DeepMind的AlphaFold)等领域,谷歌公司基于此开发的预训练模型BERT也早在2018年就开源。
但这并不代表开源就是人工智能的唯一生产模式,闭源大模型GPT的“横空出世”不仅震惊了世界,同时也对人工智能开源模式带来了挑战,甚至推动预训练大模型领域逐渐形成了闭源/开源两大阵营,前者以OpenAI、百度为代表,而后者则以Meta、阿里为主干。自此之后,围绕闭源/开源的争议便成为人工智能当代发展进程中的重要议题,而业界普遍存在针对人工智能开源的两方面质疑。
一方面,开源模型总体上被认为各个维度的性能指标不能与闭源模型相提并论。有观点认为闭源模型性能更优,选择使用开源模型属于“智商税”,在同等参数规模下开源模型比不上闭源模型,而基于开源模型开发的产品和服务也被认为缺乏韧性;同时由于开源模型的开发者或用户被认为不够专业,对模型的实际部署、使用以及风险信息了解不充分而可能造成误用或滥用。另一方面,即使在开源社群内部,人工智能开源也面临着“身份合法性”质疑,人工智能领域的开放模式能否被理解为传统开源软件意义上的“开源”概念尚存争议,这又主要针对人工智能开源在开放度及商业包容性方面的修正而展开。相应观点指出,人工智能开源只是“开放洗白”(Open Washing,即虚假开源),因模型厂商大都只开放了模型权重,但核心代码、训练数据等关键组件并没有相应对外提供,使得第三方公众无法实现进行完全的技术复现,典型案例如开放源代码促进会(OSI)试图将传统软件开源定义扩展到人工智能领域,但在是否需要强制开放训练数据方面产生了严重分歧。而人工智能开源协议相比于传统开源软件协议所添加的种种商业化限制,也被质疑是通过开源引流以实现商业盈利而非对开源社区的真正贡献。
面对上述两方面质疑,2025年初引起全球关注的DeepSeek开源模型系列无疑为人工智能开源的价值提供了最佳的实践证明。凭借模型优秀的推理能力、对模型权重以及训练方法的开放以及对后续利用最低限度的限制,其向世界展示了预训练大语言模型开源的竞争实力。即使如此,DeepSeek现象仍然没有对前述两方面问题做出理论回应:虽然DeepSeek证明了人工智能开源模型同样能达到甚至超越闭源模型性能,但人工智能开源为何能形成此种超越,此种超越意味着人工智能开源未来会形成何种生态结构,而该生态又将如何回应技术风险的扩散?对于这些问题的答案仍没有定论,而做出回答的关键便在于人工智能开源生态治理体系的改革与建构。事实上,只有在人工智能开源生态治理体系不断完善的进程当中,DeepSeek才不会是一个“孤例”,而会演变为人工智能技术演化的普遍现象。本文即试图通过对人工智能开源风险与价值的再定位,对人工智能开源可能形成的生态结构作出阐释,并在此基础上对人工智能开源生态治理改革提出建议。从学术论文的定位来看,本文属于理论演绎和理论建构而非基于数据或案例的理论验证。考虑到人工智能技术和业态本身的快速演化特征,思辨式的理论讨论更符合实践需要,而这也构成了本文的边际贡献。
二、人工智能开源的风险再反思与价值再定位
人工智能开源治理要讨论的首要问题是在人工智能领域如何确定开源模式的风险与价值,也即人工智能开源的成本和收益。前述质疑中关于人工智能开源“身份合法性”的质疑,以及对人工智能开源可能导致风险扩散并对社会带来重大冲击的担忧,始终是反对人工智能开源的重要理由。在此背景下,厘清人工智能开源的真正风险与核心价值,是推动人工智能开源生态治理改革、促进人工智能普遍繁荣的第一步。
(一)人工智能开源风险的再反思:开源风险的“不变”与“变”
伴随着人工智能技术能力的快速增强,关于人工智能可能超出人类控制以致对人类社会带来重大威胁的担忧开始出现,并尤其受到部分顶尖科学家精英群体的支持。为防控此类风险,部分观点认为应控制人工智能的研发与扩散进程,通过闭源模式来为社会提供安全的人工智能技术和产品,而人工智能开源因明显违背此原则受到了诸多批评。例如图灵奖获得者Yoshua Bengio曾将人工智能开源类比于核武器,若被一般公众误用将带来重大风险,开源本身仅更有利于性能研究而非安全研究,因此开源无助于提升人工智能的安全水平。但另一方面,也有观点认为,人工智能开源将带来重大风险的担忧是不必要的。例如同为图灵奖获得者的Yann LeCun即提出,不应将人工智能类比于核武器,人工智能并不会带来比汽车更多的社会风险,在人工智能尚未得到充分发展之前,认为其有风险并据此施加限制措施是不理智的。无论上述观点谁是正确的,其争议带来的关键问题是,我们究竟应该如何理解并界定人工智能开源风险,其会带来新的风险类型吗?事实上,针对人工智能开源风险的关注并不仅仅停留于观点层面,实践中已经出现了较为丰富的评估工具和基准,以说明人工智能开源的风险现状与水平,而相关实践大致可总结为以下两个方面。
一方面,将人工智能开源视为一种独立的人工智能产品或服务,并对其开展多类型的风险评估。例如一些人工智能安全评测组织对DeepSeek开源模型从国家安全、数据安全、版权风险、安全漏洞等方面展开了安全影响评估,评估结果认为DeepSeek开源模型风险主要体现在数据安全和安全漏洞两个方面。数据安全包括敏感数据的攻击泄露(攻击者易访问关联数据库从而泄露模型内部敏感信息)、思维链数据泄露(推理过程引入中间步骤可能会泄露敏感信息以及模型训练的专有数据等),而安全漏洞风险则包含网络安全、内容安全、偏见与歧视、代码安全、CBRN(化学、生物、放射和核能)安全等方面。通过此类风险评估不难发现,排除评价标准差异化因素的影响,人工智能开源并没有产生新的风险类型,数据安全风险仍然主要表现为“用户-模型”数据交互链路中的执行环境安全风险以及推理模型技术的共性安全问题,而安全漏洞也只是反映了人工智能一般性的技术安全风险点,它们都并非开源模型独有而闭源模型没有的安全风险。
另一方面的实践切入点是以同类型的闭源人工智能和其他可比技术作为基准,来评估人工智能开源之后带来的“增量风险”,以挖掘人工智能开源的特殊性。此类实践的评估逻辑是不将开源人工智能视为独立技术类型而只是技术发展应用的过程手段,典型案例如美国国家电信和信息化局(NTIA)开展的评估工作。该局将闭源模型、其他现有的非人工智能技术(如互联网搜索引擎)、已经开源的人工智能模型作为基准,来评估新开源一个人工智能模型是否会带来新的“增量风险”。该局基于广泛调研后认为,现有研究和证据无法证明人工智能开源存在“增量风险”,并因此给出了开源模型暂不需要额外进行管制的政策建议。
由此观之,当前没有充分证据说明人工智能开源会带来何种新的安全风险类型,但这并不代表人工智能开源就没有引入任何新的风险治理挑战,而此处的关键就在于人工智能开源风险管控机制的差别与变化,这又具体体现在与闭源人工智能、开源软件两个层面的差异比较分析上。
一方面,与闭源人工智能相比,开源人工智能在风险管控机制上存在差异。闭源人工智能模型通过API调用方式提供服务,可以通过源头管控的方式,对于输出内容采取外围护栏以进行二次拦防,在发现安全漏洞后可采取终止服务、关闭权限等方式以及时控制风险传播。相比之下,模型开源后很难再回溯到完全封闭的形态,从源头上删除也无法完全阻断该开源模型的传播和使用,因此难以通过下架或召回等传统手段进行技术管理。同时,模型一经开源发布即保持基础能力相对固定的特点,除非开源方迭代另一新版本模型,原版本的开源模型难以通过开源方的直接修改或社区开发者的直接参与,来对模型本身进行及时修复和优化。此外,与闭源人工智能相对明确的产业链上下游关系相比,人工智能开源的上下游生态链关系复杂,引致安全风险的原因由此难以被明确界定,这也使得开源方与应用方的责任区分变得更为困难。
值得注意的是,开源与闭源人工智能在风险管控机制上的差异,事实上也是开源软件与闭源软件的本质差别,但与传统的开源软件相比,开源人工智能的特殊性也使之难以简单沿用开源软件的安全风险管理模式。开源软件以开源代码为核心,具有可直接修改、漏洞易检查和完善、修改结果和因果关系可验证等特点。开源代码的后续开发者通常能够预期到修改可能带来的结果,并且可以通过单元测试、集成测试等方法进行快速验证,而无需对整个系统进行大规模的重新部署,这种修改的局部性和可验证性可以最大程度地降低引入新错误的风险,并能够保证一旦出现安全漏洞,源代码将得到比较及时的排查和修复。同时,开源软件的使用场景比较明确,各版本之间的修改历史和参与人员均可溯源,各主体的角色和相互关系较为明确,安全风险责任在事前可以进行较好安排。相比之下,人工智能模型的通用性使其可广泛应用于各种领域,模型的最终使用目的和场景无法提前预估;同时,模型能力的持续增长也使得确定导致安全风险的因果关联变得困难,模型参数、训练数据、下游使用等因素都可能导致安全风险,因此难以在事前进行风险评测和责任归因。
(二)人工智能开源价值的再定位:技术可及与资源开放
与风险分析类似,在促进技术创新和生态繁荣的价值方面,人工智能开源的价值再定位同样需要被置于与闭源人工智能、传统开源软件的比较分析框架下,才能得到更清楚的体现。
一方面,与闭源人工智能相比,人工智能开源的核心价值在于提高了技术可及性程度,并因此有利于支撑科学基础研究和产业化利用的多样性探索。但人工智能的开源、闭源并不是严格二分,而是以“完全开放”和“完全封闭”为两个端点,根据公众对于模型能力的可及性程度划分为由高到低的持续“光谱”,而现实当中的所有模型都可被置于该“光谱”上的某一点。以此为概念基础,诸多研究者也对不同模型进行了分类划分,典型代表例如斯坦福大学基础模型研究中心提出的、从封闭到开放共七个阶段的光谱。在此分类框架下,事实上大部分公司都可根据现实情况来动态选择模型的可及性程度,例如OpenAI对GPT-2模型的开放就采取了“迭代部署”的方案(Iterative Deployment),即首先通过API等方式将模型向公众提供使用,再基于模型使用风险评估和公众实际使用反馈等情况逐步提高模型可及性程度。
尽管不同公司在模型可及性程度方面采取了不同策略,但它们都不否认的一般事实是,旨在提高模型可及性程度的开源模式是具有价值的,而这又具体表现为三点。首先,从闭源到开源的可及性程度提升体系有助于让模型专业性“梯度缓降”,在增加模型透明度、降低信息壁垒的同时,使得技术内容更易于获取并能接受社会审查,有利于增进使用者对于模型技术的理解,推动技术的扩散与流动。人工智能开源往往以模型发布者的能力建设为中心,在人工智能开源生态中实现技术驱动的逐级扩散,并通过各方之间的参与、反馈、应用、互动来提升公众对于模型技术的认识和公众利用模型的能力。其次,模型可及性程度提升有利于实现由内而外的技术创新模式,在丰富模型可应用场景的同时促进技术的跨界融合创新。对于人工智能开源而言,关键的技术创新并不在于技术社群能够反馈于模型本身以多大的技术贡献,而是结合具体场景的应用创新、融合创新。第三,模型可及性程度提升将为前沿模型技术提供更广泛、更多样的“试验田”,人工智能开源可以不同规格、性能、用途的“模型池”满足应用领域和资源配置的多元化需求,并培育出可供借鉴和选择的多元化工具链。对于人工智能技术应用而言,人工智能模型能力的高低并非唯一考虑因素。在普通的应用场景下,较小参数模型的表现也能满足应用的个性化需求,其他的重要考虑因素还包括是否对数据隐私要求较高(如政务管理、金融、医疗等)、是否要求模型本地部署和个性化定制等,而人工智能开源则为此提供了最佳的试错空间。在促进模型应用的过程中,采取何种性能的模型以及方案往往需要需求侧结合具体情况来作出判断,在先行先试的过程中验证哪种类型的模型能在可控成本内实现目标效果,而这恰恰是开源模式的优势所在。
人工智能开源的另一方面价值体现在与开源软件的比较中。人工智能开源在技术可及性维度的价值本质上体现了开源作为一种生产组织形式的一般特征,但这并不意味着人工智能开源不具有相比于开源软件而言的特殊价值,而这便主要表现在资源开放维度。传统软件开源的目标在于让更多开发者接触开放源代码,以实现软件的协作协同开发。正如《大教堂与市集》一书所指出,不同于“大教堂”式自上而下的软件生产模式,开源软件的实质是自下而上、去中心化的协作模式。但与开源软件不同,人工智能的技术特性使之无法实现协同开发,模型训练需要在一定时间内聚集海量的高性能计算资源且不可分割地连续完成,其不同于软件开源可以通过社区内广泛的开发者共同进行编码、测试和频繁的版本更新。在部署应用方面,开源软件以开放代码为基本要求,其部署及二次开发要求相对较低,而开源模型部署则对本地硬件配置及运行环境均有要求,即便是参数规模较小的模型也需要一定性能的GPU芯片和对应的软件开发平台作为支撑,甚至在特定情况下还要求软硬件的协同设计(co-design)。正因为这些高企的门槛,使得开源模型无法通过开源软件“合力写代码”的方式来降低开发成本。传统开源软件通过开放源代码以及时获得新功能、漏洞修复或性能改进的迭代创新规律,对于人工智能而言已经不再适用。
上述差异使得人工智能开源无法以维护自由和实现协同开发为宗旨,其目标被转化为以降低模型技术开发使用门槛、促进模型资源和能力普惠为核心,这也导致人工智能开源的发展重点从“代码自由”进一步发展为“资源开放”。此时,模型开放不仅包括模型的参数或权重,还需要进一步涵盖模型性能的相关组件、协助模型部署应用的工具框架、模型安全能力的支撑工具,以及模型训练各阶段的工程经验等,而后者可统称为人工智能开源的资源集合,它们才共同决定了模型被下游用户部署和使用的效果与性能。正是因为模型开源同时伴随着资源开放,人工智能开源才能够大幅降低下游部署和应用模型的难度和成本,让后续研发者能够更便捷地调整模型适配不同应用场景,并开发差异化的模型应用服务。
基于风险和价值的上述两方面分析不难发现,无论是对安全风险的担忧还是对创新价值的怀疑,都不能构成对人工智能开源模式的否定,因问题的关键并不在于人工智能开源导致了不可管控的新风险类型,或者不再能作为促进技术创新的动力,而在于人工智能的特殊技术逻辑使之不同于传统开源软件而对既有安全风险管理模式和软件协同生产机制提出了新挑战。也正因为此,回应人工智能开源质疑的最佳方式便应该是改革乃至重构其治理模式,而非在“开源/闭源”人工智能之间进行非此即彼的选择。考虑到讨论治理问题的前提是勾勒出被治理对象的结构与特征,因而本文接下来将首先对人工智能开源生态作出界定,然后在此基础上讨论为促进人工智能开源生态繁荣发展而需要的治理改革。
三、人工智能开源生态界定:比较特征与主体构成
与开源软件类似,人工智能开源同样不能被视为特定技术或产品类型,而应被视为人工智能技术生产与再生产的特定模式,在此过程中不同利益相关方形成了特定的主体间生产关系,并要求相匹配的治理环境改革以使这种生产关系能够支撑人工智能技术的稳定生产与再生产。但与开源软件不同的是,人工智能独特的技术演化规律使得人工智能开源生产过程中的主体间关系体现出了新的结构性特征,而这便涉及对人工智能开源生态的解构与分析。
(一)人工智能开源生态的比较特征
对人工智能开源生态特征的界定同样离不开与开源软件以及闭源人工智能的比较分析。对于开源软件生态而言,其表现出了较明显的软件供应链特征。GitHub等平台托管的数亿个代码仓库构成了供应链的上游,而下游开发者通过复用、改进、贡献代码推动了软件供应链的迭代。开源软件供应链从上游项目到下游应用的层级化结构决定了生态中各主体的技术影响力与生态话语权分配。例如Linux内核作为核心上游项目,其代码质量直接关系到下游数百个发行版操作系统生态的健康程度,而这又进一步影响到后续应用的代码可靠性和安全风险控制程度。对于闭源人工智能生态而言,其主要以闭源模型为中心,形成了包含模型技术支持、模型服务提供和模型服务使用在内的逐级扩散场景,并以此为基础形成了“中心-边缘”的轴辐式生态结构。基础模型研发者投入资源以开展模型技术研发,模型服务提供者将模型导出、封装、部署并将其打包为API或SDK形式以创建模型API接口或服务层,同时将模型集成部署到云服务器或本地环境,而服务使用者通过网页界面与模型进行交互,或通过云端API调用模型能力来进行应用开发。此过程主要依赖模型服务提供者作为强中心来提供和保障上下游的能力与安全,其负责管理模型的版本更新并确保模型服务整体的可用性,同时对安全事件进行响应、排查和漏洞修复,而使用者即便被允许通过调用API对模型进行微调,其也主要依赖模型服务提供方或技术支持者提供的定制化服务能力。
相比于开源软件生态,人工智能开源生态表现出了多元化的协同生产特征,即在开源软件生态中极为依赖上游源代码开发者能力的单一产业链结构,在人工智能开源生态中演化为技术、工具、安全等多元模块、多个环节的并行复合结构。首先,技术模块以模型参数、权重为核心,旨在提供与模型本身性能相关的能力资源,这既包括源代码、训练数据集、算法等纯粹的技术组件,也涵盖记载了模型训练过程、训练数据、预期用途、技术细节、计算资源、评估结果等详细信息的经验文档。其次,工具模块主要是提供帮助模型更易部署及更好应用于下游特定需求的开源工具和框架,其具体涉及模型部署应用框架、模型微调和个性化定制、模型管理和存储、模型部署的配置指南和故障排除技巧等多方面的支撑功能。第三,安全模块主要为保障模型在开发、部署及应用全生命周期中的安全性与可控性而提供技术能力支撑,包括用于评估和控制模型全链风险、提高模型内生安全能力或外层护栏能力等方面的工具框架、安全数据集等。相比于开源软件生态单方面对核心源代码提供者的“一元”依赖,人工智能开源生态的繁荣与否并不单独取决于某一个环节或某一项资源,其是技术、工具、安全等多元环节、多元资源共同决定的结果。
另一方面,与闭源人工智能生态相比,人工智能开源生态表现出了鲜明的网络化结构特征。闭源人工智能生态通过API接口等标准化工具与上下游建立联系的线性关系,在人工智能开源生态中被打破,各参与主体的角色和功能更加分散和交织,不特定的生态参与者都可能成为技术供应链网络中的有效节点。上游开源生态中的参与者(典型代表例如人工智能开源托管平台)并不直接参与到最终模型服务提供或应用开发中,而是通过分布式协作的方式,在技术栈的不同节点上提供不同程度和类型的资源支持。各方主体在开源社区中的贡献与最终触达用户的模型服务之间的关系呈现出多层级、非线性和间接性特征,并最终构成了网络化关系。在此过程中,人工智能开源生态下的各类开源社区、开源模型提供者、计算基础设施提供方、模型托管平台和分发平台等都突破了原有的法律主体边界,这不仅带来了更加灵活的主体间协作关系,也形成了一个动态、复杂且高度互联的生态网络。
(二)人工智能开源生态的主体构成及其关系
基于前述对人工智能开源生态特征的界定不难发现,人工智能开源生态的主体构成已远比开源软件和闭源人工智能更为复杂,其形态已经突破了相对泾渭分明的主体界分,各类能力来源方、资源提供方、模型托管平台和分发平台等生态参与者难以直接嵌套技术支持者的主体概念,传统“服务提供方”或“技术支持者”的单一职能被解构为分布式技术栈中的节点化角色,各方主体界分已经随着技术的发展被逐渐消解。
通过对当前技术与产业实践的一般性梳理,本文将目前人工智能开源生态的主体构成大致总结为以下七类(见图1),并根据其承担的不同功能构成了复合型、网络型的生态关系。需要强调的是,人工智能开源生态的主体构成仍具有较强的开放性、动态性和不确定性,其仍将随着技术迭代和产业发展而变化拓展。
图1 人工智能开源生态的主体构成
1. 开源能力来源方
能力来源方是人工智能开源生态中的核心参与主体,包括科研机构、高校团队等学术力量,以及科技企业和全球个体开发者。开源的能力既包括人工智能模型参数/权重,也包括各类数据集、算法框架、部署工具、安全工具等与人工智能系统构建和应用开放相关的各类能力。其中,模型参数/权重的来源方最为重要。人工智能模型的训练研发成本和技术门槛高,需要以集中化的方式进行开发。基于开源人工智能的应用开发高度依赖能力来源方能否提供较为全面完整的技术能力;同时,开源模型的能力提升需要模型来源方进行主动的、定期的版本迭代,因此模型来源方连续更新的深度与频率将直接影响开源生态的技术活力。而能力来源方是否积极参与社区协同治理、是否参与制定模型安全评估标准和伦理要求、是否开放安全漏洞披露接口等,都对开源生态社区的安全治理效果具有重要影响。
2. 开源资源支持方
资源支持方为基于开源人工智能进行技术验证和应用开发提供计算能力、数据处理等多样化资源支撑。典型代表例如AWS、阿里云等公共云提供方可为人工智能开源的开发和部署提供性价比较高的计算基础设施;Databricks等数据服务方提供湖仓一体架构、向量数据库等适配人工智能应用开发的数据处理服务,满足Token化和向量化的数据需求,并提供能够处理非结构化、多模态数据的技术支撑。随着人工智能技术向更深层次演进和更广领域应用,各类资源支撑可能突破现有范式,其形态和范围都具有较大开放性和动态性,例如智能驾驶、具身智能就需要能够满足实时环境交互与物理模拟需求的资源支持。
3. 开源模型托管平台
模型托管平台是人工智能开源生态的汇聚点,其连接了各类开源模型和下游的二次研发和应用服务开发,通过“模型即服务”(Model as a Service)的方式将模型能力转化为服务应用,典型代表例如Hugging Face、魔搭社区。与开源软件代码托管平台(如GitHub)相比,模型托管平台更为主动、积极地提供了人工智能开源模型的管理和下游服务,其功能主要体现在三点:一是控制开源模型的质量,确认模型是否通过备案,对模型进行能力和安全评测,维持模型的合法性、可用性和安全性;二是联合资源提供方提供资源和能力,支持模型二次训练、部署、精调;三是作为前沿模型的试验场,与学术科研、头部企业互动合作以为前沿模型的开发实验提供场景支撑,提升模型应用开发的迭代速度。
4. 评测审计机构
人工智能开源具有应用场景广泛、发布后不可逆等特点,安全保障不能依靠外围拦防、停止服务等方式,需要采取更为积极的部署后安全措施,这也使得评测审计在开源生态安全保障中的作用凸显。例如通过开展红队测试,在技术侧通过模拟攻击者行为(如对抗攻击、数据投毒等),识别开源模型在恶意输入或极端场景下的脆弱性,而在伦理侧则是通过社会工程等手段,通过设计复杂对话场景,动态评估开源模型应用在不同场景下对不同人群带来的风险,并根据测试结果形成漏洞记录、修订防御策略,以及在社区内进行风险提示。需要指出的是,开源人工智能生态中的评测审计机构并不必然是政府机构,具有技术能力优势的技术社群同样在该方面扮演了重要作用,典型案例例如Hugging Face开源了针对大语言模型红队测试的基础算法(如GCG红队算法),也开放了红队测试对抗样本数据集,为后续模型安全优化提供经验支持。
5. 开源模型应用开发方
人工智能开源应用开发覆盖了三类主要场景:一是对现有传统数字化产业流程进行优化和赋能,例如在电商场景中优化商品发布、生成营销素材、洞察用户需求、判定物流状态等;二是推动前沿技术或科研领域进行颠覆式创新,例如2024年诺贝尔化学奖授予DeepMind公司AlphaFold 2模型创始人,科学智能(AI for Science)已经成为基础科学研究新的开放范式;三是促进以智能体(Agent)为代表的智能任务执行应用,例如Anthropic公司推出开源MCP协议,为智能体建立标准化接口,提高开源组件和数据调用的兼容性和可控性。随着人工智能开源能力发展和支持资源扩展,开源模型应用开发方的主体形式可能将更为多元,并甚至延伸至个体开发者。
6. 独立研究方
独立研究方包括专业权威的科研人员和机构,通过牵头开展多样化的国际协作,为人工智能开源生态积极贡献技术与安全方面的公共知识。专业权威的研究力量依托开源生态中多样化的模型能力和资源供给,开展广泛的技术验证,并协调利益相关方进行人类行为、就业和社会影响等方面的前沿研究,有利于推动技术标准的完善与全球共享知识体系的构建。例如英国的人工智能安全研究所(AI Security Institute,AISI)对拟人化人工智能所产生的伦理、安全及社会影响开展了社会实验;我国“中国人工智能发展与安全研究网络”凝聚国内研究力量和智力资源,代表中方与各国的人工智能研究机构展开对话,推动了人工智能发展和治理国际合作。
7. 用户及公众
通过将滥用误用情形和安全事件向执法部门、相关公开平台或数据库、人工智能供应链中的各个参与者进行报告和反馈,用户和公众可以为开源生态构建广泛的公开披露与监督机制,驱动治理方案迭代升级。例如用户可通过向开源社区提交风险案例,触发模型托管平台的版本回溯与开源方的漏洞修复,而公众对伦理争议事件的集体讨论也可推动开源模型安全数据集和其他工具的完善等。
除了上述七类主体外,政府在人工智能开源生态中亦发挥着重要作用,可以为基于人工智能开源的研发和使用设置一定的风险责任容错区间,对各类主体进行政策、财政等方面的支持,鼓励应开尽开、应试尽试,帮助构建具有活力和可持续发展能力的开源生态。同时,政府还可通过提供多样化的公共化服务,推进各主体之间的交流和协作,并促进安全技术和能力的推广。
四、比较政策分析视角下人工智能开源生态的治理改革
人工智能开源生态结构的多元化、网络化特征,各类主体形成的复合型产业链上下游关系,为人工智能开源生态治理提出了新要求。但传统的开源软件治理框架难以适配当前技术和产业演化需求,探索新的治理改革方案便成为当前各国的重点任务。以欧盟、美国及相关社会组织的实验性政策方案为代表,当前各类治理改革探索也体现出了差异化思路。在前文分析的基础上,本文接下来将进一步指出,欧盟沿袭传统开源软件治理思路所提出的治理方案并不能回应人工智能开源生态的动态演化需求,而美国提出的建立在“增量风险”概念基础上的治理方案,更好体现出了敏捷治理特征并可能作为未来进一步改革的基础。
(一)沿袭传统开源治理框架的“短板”:基于欧盟和开放源代码促进会治理方案的反思
考虑到人工智能开源生态的重要性,备受关注的欧盟《人工智能法案》(EUAIA)同样纳入了人工智能开源生态治理的基本要求,提出了“开源豁免+豁免除外”的规则机制,其基本逻辑是在将人工智能开源全面纳入事前管控的前提下,再设置例外豁免机制以放松监管从而实现对创新的兼顾。根据欧盟《人工智能法案》要求,享受豁免的开源人工智能需要满足多重条件,这又具体表现为参数、架构和使用信息的公开透明,使用的开源许可协议应允许用户运行、复制、分发、研究、修改和改进软件及模型,同时要求尊重原始开源模型提供者的署名权并遵守相同或类似的分发条款。 在为人工智能开源方提供责任免除的同时,法案也设置了精细的“豁免除外”条件,包括版权合规除外、透明度除外、存在系统性风险和被禁止的人工智能除外及商业利益除外等。
欧盟《人工智能法案》的这一治理规则虽然看似具有内在合理性,反映了“严格定义-总体控制-局部豁免”的基本思路,但其在本质上仍然沿袭了传统开源软件治理的框架与精神而忽视了人工智能开源生态的特殊性。该治理规则的关键是精准划定人工智能开源的范围,以“符合开源条件即可免除合规义务”作为激励工具,从而将开源视为一个可控的“例外空间”。这一思路与业界反复出现的关于“人工智能开源”权威定义的争议紧密关联,典型代表例如开放源代码促进会(OSI)在2024年10月推出的人工智能开源定义,其仍以使用自由、研究自由、修改自由和共享自由等四大“自由”为核心来对人工智能开源的系统和组成要件提出明确要求,从而强调人工智能开源的目标应仍然聚焦于如何给予使用者以尽可能无限制的“自由”来构建和部署开源人工智能系统。根据这一定义,开放源代码促进会也对Meta等公司的人工智能开源策略提出了激烈批评。
从公共政策视角来看,欧盟《人工智能法案》与开放源代码促进会强调依据传统思路定义“人工智能开源”的治理思路如出一辙,法案中提前界定的范围边界同样反映了将人工智能开源视为独立、静态监管对象的基本思路,而并没有将人工智能开源视为包含多元化、网络化特征的复合生态。更重要的是,仍然参考开源软件原则来定义人工智能开源的传统思路,并没有看到人工智能开源与软件开源在目标价值上的本质区别。过于刻板的准入门槛不仅降低了人工智能开源贡献者参与的积极性,同时也偏离了人工智能开源以“可用性”为核心的价值所在。
正是因为此种不足,欧盟《人工智能法案》与开放源代码促进会的治理思路在现实落地过程中面临着重大挑战,其首要问题便是因为人工智能开源生态的复杂性和不确定性将使得豁免条款面临定义上的困境。静态的豁免条件预设可以反映当期各方对于人工智能开源的共识,但在技术快速演进的背景下可能很快就会偏离实践的客观情况。欧盟《人工智能法案》以参数、架构信息和使用信息完全公开透明、并使用了自由的开源许可作为纳入豁免的前提条件,同时排除任何商业利益的获取,非但不能降低合规成本,反而可能迫使企业陷入“开源身份”的自我论证泥潭,这也将影响开源模型提供者进一步提高数据隐私保护、鼓励负责任安全使用的内在积极性。
(二)人工智能开源生态治理探索:美国NTIA和NIST治理模式的参考
与欧盟“严格定义-总体控制-局部豁免”的治理思路不同,以美国国家标准与技术研究院(NIST)、国家电信和信息化局(NTIA)为代表的美国政策制定者提出了更符合人工智能开源生态特点的治理方案。NTIA在人工智能开源快速发展的初期就着手征求各方意见,其于2024年2月正式启动了一项公共咨询流程,收集了超过300份关于人工智能开源治理的公共意见。意见提出方包括人工智能头部厂商、开源社区、中小企业以及数量众多的行业协会、非盈利组织或研究机构等多利益主体,并于2024年7月发布了关于人工智能开源治理报告。NTIA吸收了美国各界对人工智能开源的基本观点,确立了对于人工智能开源的基础认知:一是人工智能开源在促进创新、提高透明度与安全能力、促进技术传播与普惠等方面的积极作用,政策应鼓励开源持续发挥价值;二是人工智能开源和闭源存在连续性和渐变性,不宜做二元对立、非此即彼的定义划分;三是人工智能开源和闭源模式各有优劣,在技术和应用快速发展过程中应允许多种发布模式并存,培育充满多样性的人工智能生态系统。在此基础上,NTIA认为开源人工智能具有高度的不确定性,且价值与风险将长期作为一体两面共存发展,治理应注重利益平衡并保留足够的灵活性,避免用严格定义进行准入限制,也不宜在政策选择上偏袒某特定模式。
NTIA对开源人工智能提出了两项主要的治理工具。一是准确评估开源人工智能的“增量风险”。即与来自现有其他可比技术的风险相比,评估开源人工智能是否会产生新的独特风险,并因此是否要求特殊监管。前述“其他可比技术”涵盖了现有闭源模型,以及包括互联网搜索引擎在内的现有非AI技术等,只要与这些其他可比技术相比没有出现新风险,即不属于被纳入监管范畴的增量风险。与欧盟以事前“全量风险”识别防范为核心的监管机制不同,NTIA“增量风险”机制更倾向于事中事后风险管控,避免预先基于对未知风险的恐慌,而对技术进行过度规制。二是基于证据展开治理活动。NTIA提出对于开源人工智能风险的评估和后续治理措施选择都需要严格基于证据(evidence-based),要求在有事实支撑的前提下开展针对性治理。对此NTIA十分强调政府的证据收集能力和治理专业能力,而具有这些能力的重点则在于是否构建了有效的信息共享机制,包括技术产业侧和政策制定侧之间、各政策制定者之间和技术产业侧之间的信息共享。具体实现方式包括提高技术侧的信息透明度来支持政府及时获取技术发展最前沿的一手信息,主动支持和开展关于人工智能安全的研究,以及构建跨部门的协同合作、信息互通和政府数据公开机制等。在增量风险和基于证据的要求下,NTIA在报告中明确指出,现有研究和证据无法完全满足对于增量风险的评估标准,开源人工智能目前没有需要额外进行单独管制的必要。
伴随着人工智能开源生态的逐渐成熟,NIST进一步提出了《双用途基础模型滥用风险管理指南》(NIST AI 800-1,以下简称《指南》)。《指南》在NTIA报告基础上,从开源人工智能生态角度对滥用误用这一核心风险进行了分析,并提出了生态化的风险管理方案。NIST认为开源人工智能的滥用误用并非其开发方和应用方的本意,安全危害的发生涉及复杂的上下游任务链,开源人工智能技术本身并非唯一的风险源,而仅是生态中的一个环节,部署环境、基础设施、分发机制以及模型与现实世界的复杂交互等其他因素也将产生重要作用,因此针对开源人工智能的风险管理需要考虑技术的通用性和生态的多样性。基于人工智能开源模型开发部署全链路的各阶段,NIST将滥用风险的防控分为“风险识别”、“计划管理”、“模型未授权访问管控”、“部署风险评测”、“部署前风险缓解”、“监督响应”和“公开披露”七个环节,从而形成一个覆盖模型全生命周期的风险管理体系。NIST的治理方案从两方面匹配了开源人工智能的生态特征,一是治理重心前后平衡,既注重事前防控,又强调事中事后管理,尤其重视在部署后的监督响应和公开披露,意在提高生态内外的信息对称性和透明度,让应用的“刹车”和“安全带”处于持续有效的状态;二是对主体责任进行了合理界分,一方面限定了开源能力来源方和资源支持方的义务,避免提供通用技术能力的主体承担“兜底责任”,另一方面是更准确地描述了模型服务,纳入了模型托管、分发、评测等主体,并根据各个主体在生态中的角色提出了指导性的责任设定。
相较于欧盟模式,美国NTIA、NIST等部门更多贴近产业实践,自下而上地解决产业发展中的核心问题。通过与产业部门建立合作关系,响应人工智能风险特征的变化,确保治理方案与人工智能开源生态发展速率动态适配,并以最佳实践、标准指南等软法开展渐进式治理,提高了治理方案的可预期性和可落地性。此外,美国NIST、NTIA的开源治理方案也体现了“人工智能安全作为公共产品”的基本理念,以增进模型安全公共知识积累为重点任务,强调技术产业侧和政策制定侧之间的信息共享和披露,支持开放透明的人工智能研发应用。在降低信息不对称的同时,在专业知识、风险识别和监测、应急响应等方面加强安全能力建设,促进了监管、产业和社会公众对安全的人工智能建立信任,在充满不确定性的环境下为模型负责任的发展提供了更多确定性。
(三)“利益平衡-风险防范-协同治理”三维框架的敏捷治理创新:基于“增量风险”方案的延伸
比较欧盟和美国的治理模式不难发现,后者更符合将人工智能开源视为生态的治理需求,体现了敏捷治理特征,有利于通过多方合作协同的方式有效管控模型应用风险,在构建负责任的生态机制建设体系过程中管控人工智能开源的滥用误用风险。考虑到NTIA、NIST的治理方案还仍然停留于理念层面,尚未形成体系性改革方案。以此为基础,同时结合当前正在涌现的治理实践探索,本文进一步提出,人工智能开源生态治理改革应沿着利益平衡、风险防范、协同治理三个方向拓展延伸。
第一,就利益平衡而言,人工智能开源生态治理改革应鼓励以多样化的许可证机制创新来实现商业利益保留、开放性保障、负外部性约束的三者平衡。许可证是开源生态治理的核心机制,传统软件开源以代码高度自由为基础来设计以左版权(copyleft)为核心的许可证机制。但人工智能开源生态的不同特征及其演化规律,要求对传统软件开源的许可证制度作出修正,以平衡人工智能开发所需要投入的大量资源和成本。事实上,除了传统的开源软件许可证协议之外,近年来涌现出如CreativeML-openRAIL、OpenRAIL、BigScience Open RAIL-M License等机器学习专用许可证,且使用量正在急速上升。根据Hugging Face的统计,截至2024年末,它们的使用比例已经上升至14.3%。此类机器学习专用许可证的核心在于通过附加使用限制条款,对开源模型的下游使用进行约束和限制,例如要求用户不得将模型用于监控、歧视或生成虚假信息,禁止侵犯第三方合法权益、禁止军事使用用途、禁止生成不合适的内容、强化个人信息保护、删除不得用于医疗和司法执法的使用限制等。基于此类实践不难发现,出于对安全风险的控制和对商业利益的尊重,人工智能开源许可证会更多加入用户使用限制(use restrictions),以提示用户负责任的使用模型,并对违法使用的后果承担责任。许可证的多样化反映出人工智能开源生态更为多元化的应用目标,在构建治理规则的时候需要考虑生态中不同主体的利益诉求,根据许可证的实际使用情况设定公平、合理的规范标准。
第二,就风险防范而言,人工智能开源生态治理改革应强调以控制增量风险为目标、采取以证据为依据的评估原则。通过比较“全量风险”和“增量风险”两种机制可以发现,以“增量风险”为核心的开源风险治理整体倾向于事中事后的风险管控,可通过调整风险阈值来实现开源模型自由普惠和安全治理的利益平衡。基于“增量风险”的开源模型治理机制更能精确匹配模型开源的技术应用特征,有利于建立对于开源模型风险的客观认知,能够避免基于对未知风险的恐慌而采用非理性的过度规制,从而防止对开源模型的价值发挥产生不当的阻碍效应。同时,对于“增量风险”的认定,要求具有真实、充分并关联的实际证据来支撑判断,即采取“以证据为依据”的评估策略。目前各界对于模型技术的发展进度和应用现状存在着“共同无知”和信息不对称,这对于有效证据的收集形成了阻碍。参考美国NTIA对于证据收集和信息共享机制构建的做法,未来改革应尤其注重技术产业侧和政策制定侧之间以及公共管理跨部门之间的横向打通,以整体性地提高人工智能安全风险认知水位和专业能力。
第三,就协同治理而言,人工智能开源生态治理改革应从“责任治理”转向“能力治理”,强调通过多方合作提升人工智能开源治理能力。人工智能开源生态的复杂性使得以责任划分为基础的风险控制模式难以实现,在此背景下人工智能开源生态治理需要从责任划分转向能力建设,通过多方协作让治理能力匹配开源生态的特点和发展速度,具体而言这又包括以下几方面能力。一是保持与技术发展同步的专业判断力,确保政策能够精准认定开源价值和风险,以判断是否应对其进行干预。二是采取科学、及时治理手段的能力,“科学”要求包括基于证据的判断与相匹配的治理干预措施,“及时”要求则是指风险管理措施能够对人工智能开源风险进行快速响应并根据变化进行及时有效的调整,同时由于开源的高度扩散和不可回溯,也需要定期审查并进行各类重大风险处理预案准备。三是能够以整体性视角选择治理方案的系统治理能力,以采取对技术和产业发展损失最小的治理方案。监管方需要认识到,如需要限制某一人工智能开源,限制手段并非直接删除或不允许任何形式的公开发布等极端方式,还包括更加温和的措施,例如设置针对某些特定类别人工智能开源的前置信息披露或审核机制,或设置下游应用的透明度要求等相关方式。同时,除了直接限制人工智能开源外,还可以通过管控人工智能开源被使用的环境来控制风险,例如对造成风险的外部环境或供应链(如武器材料、CBRN数据集)施加更严格的监管等。需要指出的是,同步性的判断能力、科学及时的干预能力、系统治理能力都需要通过开源生态的支持和配合才能实现,以保持信息充分和对称、促进主体间的协同而避免对立、明确的风险控制目标、多样化的价值分配与协作机制,这样才既能保证人工智能开源生态持续创新以发挥技术推动作用,也能保证以有效的治理能力基础为人工智能负责任开源提供治理保障。
五、总结
面对新兴技术带来的治理对象不确定、利益相关方多样化和生态体系复杂化等挑战,如何进行有效治理并非全新命题。技术形态虽新,但此类治理挑战的特征与历史上其他复杂社会问题(如环境政策、公共卫生)具有类似性。当前的治理难题并非源于技术本身的“新”,而是由于既有治理范式无法应对新技术迭代所带来的复杂程度指数级攀升,传统监管模式因法律法规的滞后性、单一机构权限的局限性和刚性规则的失效性,将难以应对新兴技术的治理挑战。对此必须正视既有治理机制的不足,并转向通过多方协调机制推动治理工具的组合创新。
人工智能开源的治理争议正是这种新旧冲突的集中体现,其在风险、价值等问题上所面临的争议,都体现出在面临新的技术发展模式时旧有思维惯性和经验主义的不适应。实务界普遍关心人工智能开源是否带来了新的安全风险,并考虑是否应将人工智能开源视为一种独立的人工智能产品或服务并对其开展单独的风险管制,但以DeepSeek为典型代表的人工智能开源安全评估结果表明,当前没有充足证据证明人工智能开源带来了“增量”的安全风险类型,而由于开源本身的不可逆性以及人工智能技术扩散的生态性特征,人工智能开源被滥用、误用的可能性风险却在持续增加。就价值而言,开源人工智能不再以传统软件开源以维护自由和实现协同开发为宗旨,而是转化为以降低模型技术开发使用门槛、促进模型资源和能力普惠为核心,以此为基础形成的人工智能开源生态也由传统开源软件的链式生态转向更多元化的协同生产网格化生态。在这一生态下,闭源人工智能“服务提供者-技术支持者-模型使用者”的三分主体界分已被消解,包括能力来源方、资源提供方、模型托管平台和分发平台、各类部署及应用开发者、三方评测机构、独立研究方、用户及公众乃至政府在内的多元参与主体间形成了复杂的合作关系,并将随着技术演化和产业发展动态变化和扩张。
正是面对当前的新生态格局,人工智能开源生态治理改革的重要性才更加凸显。依赖传统开源软件思路的治理论经,以静态刚性监管视角试图管控极其动态且不确定的技术生态,这一过程不仅可能消解技术创新的正向价值,更可能瓦解现代治理的合法性根基。面对传统路径的不足,本文认为“利益平衡-风险防范-协同治理”的三维人工智能开源治理机制相对而言更具有合理性,其既承认了人工智能开源的特殊性,也有利于对此种特殊性做出回应。当然,人工智能开源生态治理改革的序幕才刚刚拉开,未来还需要更多的观察与研究以推动更进一步的思想解放与制度创新。
因篇幅较长,已略去原文注释
作者简介
傅宏宇,电子科技大学协议副教授、阿里研究院人工智能治理中心主任,研究方向为人工智能治理、数据治理等。
贾开,上海交通大学国际与公共事务学院长聘副教授、博士生导师,研究方向为数字公共治理、全球数字治理等。
彭靖芷,阿里研究院人工智能治理中心研究专家,研究方向为人工智能治理、数据治理等。