2024年1月20日下午,清华伍舜德楼行政法学工作坊第十四期“人工智能立法之开源发展与法律规制”暨政府管理与创新研究所学术交流会在清华大学公共管理学院召开。
本次会议由清华大学公共管理学院政府法制研究中心和清华大学科技发展与治理研究中心共同举办,清华大学公共管理学院院长朱旭峰教授、清华大学公共管理学院于安教授致欢迎辞。主题发言环节由清华大学公共管理学院陈天昊副教授主持,中国社会科学院周辉副研究员、中国人民公安大学苏宇教授、对外经济贸易大学张欣副教授和同济大学朱悦助理教授先后做主题发言,清华大学公共管理学院梁正教授、上海交通大学李学尧教授、北京华宇元典信息服务有限公司副总经理唐世亮和中金公司战略部高级经理刘楚先后做嘉宾与谈。在随后的圆桌讨论环节,中国信息通讯研究院互联网法律研究中心副主任何波、北京华宇元典信息服务有限公司首席人工智能专家石崇德、中国信息通讯研究院人工智能研究中心高级业务主管呼娜英、安远ai资深研究经理方亮、iso tc/154委员王翔、21世纪经济报道合规新闻部副主任王俊、星纪魅族集团数据合规执行总监朱玲凤和中策律师事务所律师王娟先后发言。最后,周辉和陈天昊作总结发言。
朱旭峰、于安致欢迎辞
首先,陈天昊简单介绍了本次会议的缘起与讨论重点,即《人工智能示范法》(下称示范法)研讨和人工智能开源发展与法律规制。朱旭峰在致辞中表示,人工智能已成为全球关注的焦点,也是中国在国际舞台上有效应对地缘政治“脱钩断链”的重要手段;与此同时,开源是人工智能和数字经济发展的重要手段。希望通过本次会议形成相关共识,推动我国人工智能开源和法律规制建设。于安表示,人工智能的发展不仅是技术问题,更是治理问题,而治理问题的核心是价值冲突问题。关于数字技术应用的价值观冲突将是一个复杂且长期的问题。我国的人工智能发展模式与国家发展模式是高度一致的,因此在人工智能的发展过程中政府仍然会发挥重大作用。然而,现阶段我国人工智能的总体布局与我国整体经济社会运行并不完全匹配,因此现阶段亟需进行经济社会运行的数字化流程再造。此外,数据供给作为人工智能的基础,其质量问题需要引起高度重视。
主题发言
苏宇作主题发言
苏宇以“人工智能立法的价值平衡与实现机制”作主题发言,他首先提出人工智能立法需要在发展与安全,自由与公平,计划与市场,个体与社会4组目标间实现平衡。发展与安全的平衡,静态上即安全冗余与规制负担之间的平衡,规制措施经常力求预留比较充足的安全冗余,然而安全冗余与规制负担之间存在此消彼长的交换关系,而且不是线性的关系,安全冗余的收益往往是边际递减的,其相对应的规制负担则可能是非线性增长的;动态上即应变能力和稳定预期之间的平衡,变化过于突然和频繁的机制可能导致不稳定的预期。自由与公平的平衡,个体层面即计算自由与公平竞争之间的平衡;商业层面即自由竞争与中小企业保护之间的平衡,对于中小企业而言,人工智能的规制负担和算力消耗等成本均相当沉重。计划与市场之间的平衡重点在于如何平衡算力和数据基础设施建设中的市场竞争与政府参与,如何把握数据和算力的准公共产品属性并修正价格信号失真。个体与社会的平衡,涉及人工智能对个体就业的冲击,由此产生劳动权和社会生产力之间的平衡,实质上是人工智能应用的利益分配问题;另一方面,在人工智能时代,个体将成为高维向量空间中的一个点,算法将根据个体的种种特征对其进行聚类以便进一步计算,人的自主性可能逐渐迷失,因此需要在人格独立自主和社会关系变迁间取得平衡。以发展与安全的平衡为例,苏宇教授认为,需要通过一系列的细分平衡点实现人工智能法律规制的整体平衡,包括分类管理、法律关系、监管权限、规制要求等。最后,苏宇提出6条建议。第一,处理好人工智能立法调整对象,决不能局限于生成式人工智能或大模型;第二,对于发展与安全的平衡尽可能进行精准规制、敏捷治理,避免一刀切式的安全冗余设置;第三,在守住系统性风险底线的同时支持人工智能的自由发展;第四,精确辨析算力、数据、算法中公共物品和准公共物品中价格机制失效的部分,建立综合供给机制;第五,逐步建立算法相关新型权益、广泛的利益共享机制、人工智能赋能机制,保护个人选择空间;最后,预留多种可以精准调节的“规制平衡器”,将算法治理工具扩充为算法治理体系,尽可能在算法治理工具内置的平衡点精准调节制度化平衡。相应地,人工智能的个体赋能体系、供给促进体系和治理工具体系仍有待进一步研究。
张欣作主题发言
张欣以“全球人工智能治理的格局、特征与趋势洞察”作主题发言。她首先介绍了全球人工智能治理格局的形成与发展。自2020年起,人工智能风险事件呈逐年上升趋势。相应的,各国高度重视并积极参与全球人工智能新秩序的形成。具体而言,现有人工智能治理矩阵中多元参与者影响力各异,欧美国家由于起步较早在全球人工智能治理层面抢占先机,并在一定程度上实行小院高墙策略。在现有人工智能国际治理格局中,我国硬实力处于并跑和领跑阶段,但软实力仍有待提升。我国科技企业和非盈利组织数量有限且影响力不足,限制了我国参与全球人工智能治理。目前,全球人工智能治理法治化特征日益凸显,通过法治化道路为人工智能治理提供“制度围栏”已在国际层面形成广泛共识。然而,现有人工智能国际治理机制仍凸显碎片化特征,大国竞争导向突出,数据安全、隐私保护、算法滥用等问题缺乏有效协同,我国需积极构建人工智能治理“可信朋友圈”,推进双边、多边协作。最后,发展中国家与发达经济体相比仍然存在智能鸿沟和人工智能治理代差。
朱悦作主题发言
朱悦以“认真对待开源豁免”作主题发言。首先,朱悦认为示范法对于开源豁免做了比较前瞻的立法性探索。随后,他讨论了欧盟开源豁免的立法源流与立法进展。欧盟对于开源豁免的法律规制主要集中于《人工智能法》和《产品责任指令》两部法律。在《人工智能法》的立法过程中,法国、葡萄牙、爱沙尼亚等国出于利益和理念在早期即提出开源豁免,认为开源作者在上传模型时已经完成了信息披露实现了自我监管,应通过开源豁免鼓励创新、科学自由;在《人工智能法》立法中后期,欧洲议会中多个党派均对开源豁免表示赞成,以促进中小企业发展。值得注意的是,《人工智能法》明确提出:尽管豁免适用于免费且开源许可下提供的组件,但不能进行换取货币对价、绑定服务和出于安全、兼容之外的目的来处理个人信息等商业化操作,否则将失去豁免。可以发现,欧盟在两部即将面世的法律中给予了开源比较彻底的豁免。其次,朱悦表示,目前开源在人工智能产业链/价值链上的主要组件上均发挥重要作用,如框架、数据、模型、基准、硬件、生态等。实际上,开源并不是少数和例外,而是现实中的默认状态。最后,朱悦再次表示人工智能立法应认真考虑开源豁免及其附加条件,厘清开源豁免边界,在安全与发展之间取得平衡。
嘉宾与谈
梁正、李学尧发言
嘉宾与谈环节,梁正认为人工智能立法首先亟需判断人工智能技术的发展程度究竟如何,是否需要通过立法手段进行外部干预,其潜在风险是否可以通过技术发展解决。其次,应该确定人工智能立法的重点,人工智能立法应该考虑新技术的引入会对既有的价值体系和权利体系带来哪些改变,明确权利边界和主体责任,而非对技术细节进行过度规定。最后,梁正认为人工智能立法需要避免过度监管,充分考虑技术可行性和实施成本。针对开源豁免,梁正表示开源已成为人工智能的生态模式,但其意义不仅在于推动创新,开源还可以通过竞争来发现和解决问题和缺陷,从而推动安全发展。
李学尧认为,在条款拟制中,中国未来的人工智能法或者相关法律体系中,应提高涉伦理部分的条文数占比,建议设置“人工智能伦理专章”或者在全国人大层面颁布专门的《人工智能伦理法》,不应仅停留在行政规章甚至规范性法律文件的层次。李学尧在科技伦理框架内初步区分了人工智能伦理与生物医药伦理的差异:第一,人工智能伦理具有可嵌入性;第二,人工智能伦理具有更强的场景化特征;第三,人工智能更易受资本的全面介入并对其他产业产生更强的深度影响;第四,人工智能对人际关系和社会结构影响更大,更具有革命性。李学尧还特别提醒,在人工智能治理框架内,科技伦理审查并不仅仅是一种安全保障措施,对于人工智能研发者和服务提供者而言,还具有行为指南和责任豁免的功能。在此基础上,他认为,人工智能示范法中关于人工智能伦理专家委员会的表述仍然较为简单,应进一步细化其规制主体、人员构成、职能设置及审查启动条件等。
唐世亮、刘楚发言
唐世亮首先回顾了公司的发展历程,并分享了公司与新京报、上海法院、中国微软三个大模型合作案例。在谈到开源治理问题时,唐世亮强调了三个关键点。首先,在开源方面,安全性问题是至关重要的,应当置于首位。其次,开源同时需充分保护开发者,以确保他们在开源项目中能够安全、稳定地参与。最后,开源应当规避企业或个人非法使用或滥用的情况。
刘楚回顾了全球人工智能发展阶段与治理法规的历史演进,强调近年来生成式人工智能的出现引发了对相关法律和治理的关注。刘楚认为,根据第一性原理,当前ai技术发展尚未达到可预见的终极阶段——实现与人同等智能同等功耗的阶段,呼吁对人工智能的法规制定给予足够的时间。针对开源问题,刘楚强调了对开源的特别考虑,指出开源已成为业界技术凯发k8游戏的解决方案的默认状态,在制定相关法规时需要考虑开发者已放弃的权利要求,平衡法规所要求的义务。最后,针对开源人工智能治理提出三点建议,包括考虑通过开发者提升透明度减少对开发者提供安全性证明的义务要求,考虑开源软件委员会、基金会在治理中可能承担的责任,并强调需要结合开源协议统筹考虑相关法律,以更好地实现开源人工智能的治理。
圆桌讨论
何波、石崇德发言
圆桌讨论环节,何波首先分析了人工智能治理是否需要制定新的法规,认为在技术发展不可控的情况下,法规的制定是为了明确技术发展的底线和红线,能够有效避免新技术发展陷入“科林格里奇困境”。其次,针对人工智能立法问题,何波认为应该建立一个完整的人工智能法律制度体系,涉及法律、行政法规、部门规章多个层级,涵盖个人信息保护、数据安全、网络安全、知识产权等多个方面。再次,在数据处理问题上,何波讨论了大模型的个人信息保护义务和责任,分析了大模型在研发阶段是否应被视为数据控制者。最后,在国际规则层面,何波提到中国作为一个发展中国家,需要平衡国际治理的立场,充分考虑到我们的人工智能领先优势和其他发展中成员的利益诉求。何波表示目前在人工智能法律政策和治理方面存在许多值得研讨的问题,希望学界能够给予更多指导,共同探索。
石崇德首先表示了对近日草案和立法动向的认同,强调了人性化和透明性在人工智能领域的重要性。其次,石崇德强调了使用国内数据进行大模型训练的必要性,以避免西方价值观对思维方式的潜在影响。此外,他探讨了人工智能算法对个人思维的影响,呼吁法律界和学术界更多关注算法模型生成内容的多样性。最后,石崇德详细讨论了合规管制问题,提出应根据企业规模设计合理的大模型监管机制的建议,旨在减轻中小企业在安全投入方面的负担。
呼娜英、方亮发言
呼娜英从四个方面分享心得。第一,她介绍了其所在的人工智能研究中心在开源方面的工作,特别强调了开源对激发技术创新活力,提高产业体系分工效率,促进经济发展,助推可持续性发展的作用。第二,她回顾了全球技术开源生态的演变,强调了不同领域的开源特色,尤其突出了开源生态在操作系统、云计算、大数据和人工智能领域的重要性。第三,她提到了与开源相关的安全风险,包括安全漏洞,开源许可证问题以及人工智能治理问题。她对于开源在技术创新和经济发展中的积极作用表示认同,但也警示开源存在的相应风险,尤其是依赖带来可控性的风险。最后,呼娜英强调了开源在人工智能风险治理的几个层次,并分析了开源在其中的定位中的地位,建议针对技术系统本身的风险,以及技术应用对、个人组织、国家社会以及人类生态的影响构建进行全面的风险管理方案。
方亮就前沿ai的开源治理问题提出了一系列深刻见解。方亮首先指出开源vs闭源是错误的二分法,从“完全封闭”到“完全开放”之间存在多种模型发布选项。例如托管访问、api访问、api微调、提供权重,有限制提供权重 代码 数据等。开源的确切利弊,取决于所公开的模型组件的特定组合,以及向谁 何时 如何发布。其次,方亮详细讨论了面对前沿ai潜在的极端风险,应探索开源的替代方案,即以更少的风险实现开源相同的效益。他重点分析了促进模型外部安全评测的可能替代方案,例如分阶段发布、建立红队测试网络、向可信的第三方机构授予特定的模型访问权限等,并建议优化研究api以促进安全研究。最后,方亮强调闭源的前沿ai也面临安全风险,鉴于当前的保护措施还不足以抵御对抗性攻击,闭源模型也容易被滥用,需要强有力的外部监督和评测。
王翔、王俊发言
王翔结合在研的《联合国透明度议定书》(untp:un transparency protocol),以政府间国际合作为切入点,探讨了当前人工智能技术跨境协同治理措施的最新进展。面对环境、气候、食品、卫生等可持续发展议题愈发细化的公共管理要求,需要考虑将有限的行政资源与开源人工智能相结合,以协同应对货物、商品、资金、人员、数据元跨境流动带来的潜在风险。考虑到主要经济体数据治理思路的差异和互联网国际段联通条件的不同,可以参考联合国贸易数据源目录等标准,实现人工智能训练语料库的互操作。此外,基于我国在制造领域的工业数据优势、流通领域的商业数据优势,他提出了未来促进开源人工智能产业发展的建议:建立基于透明度的数据贸易管理框架,研究“来数加工”等新业态,以及设计数据及数字化产品、服务跨境流动的数字护照。最后,通过对照,他认为untp作为面向实施的治理工具箱,能够较好对齐加入人工智能伦理后的示范法草案。
王俊指出,要密切关注开源的技术发展水平,法律义务责任的设计应与整个开源生态、技术实践匹配。另外,开源闭源之争持续缠绕在人工智能发展过程中。此前对闭源的争议是认为应用场景不够丰富和成本收益比不足,开源的争议则是算力不足。未来开源闭源对人工智能的商业生态会是什么走向,是延续苹果、安卓的旧脚本,还是会有新的叙事脚本,是值得关注的。
朱玲凤、王娟发言
朱玲凤首先强调了在人工智能领域的开源的重要性。通过实际案例,她强调了开发工程师在解决问题时常常依赖开源社区。其次,朱玲凤提及开源软件协会对于开源人工智能的讨论和定义,同时关注了可信人工智能的概念,强调了安全性和社区治理的紧迫性。最后,在思考开源人工智能的法律规制时,她呼吁谨慎对待并提出了分层治理的观点。她指出除特殊情况下应当尊重并保障开源人工智能对产业的发展和自由市场的作用,对基础模型等对下游有重大影响的应当规定透明性等义务,兼顾创新和安全。
王娟从法律实施的角度对开源人工智能进行深入思考。王娟以律所的经验为基础,指出新颁布的数据保护法在实际实施中面临一些障碍,特别是在解释和执行方面存在困难。她提出,应该在立法阶段引入技术领域和法律领域专家的集体智慧,以确保法律的可理解性。此外,她建议明确法律和技术标准的分离,以便法律人员和企业技术人员能够更好地理解和执行法规。王娟还讨论了开源可能带来的积极价值和市场竞争方面的一些挑战,以及在治理方案设计上的优化建议,强调需要以更科学和精细的方法来应对开源人工智能的风险。
周辉、陈天昊作总结发言
周辉和陈天昊作总结发言。周辉总结了本次会议讨论的核心问题,包括开源的界定与实践复杂性、开源如何影响市场竞争、开源的潜在风险,以及开源的治理方案。首先,他对开源的界定提出了问题,指出在实践中存在着代码的开放程度、信息面向市场的程度以及用户筛选等多个层面的差异。其次,他关注了开源在市场竞争中可能引发的问题,以谷歌安卓生态为例,提出了开源平台是否可能导致垄断的问题。再次,在风险方面,他强调需要研讨开源是否放大了风险,以及引发风险的类型。最后,周辉在治理方案上提出了优化的建议,包括明确开源责任的条款、建立符合国家标准的合规治理体系等。这一系列问题和思考为未来的开源研究和治理方案提供了有益的指引。
最后,陈天昊对本次会议进行总结。他首先表达对于周辉精彩总结的感谢。其次,陈天昊指出在数字利维坦和政治利维坦的竞争中,技术社群有着独特的意义。他将开源社区视为未来乌托邦的切口,强调通过立法支持技术社群的发展。最后,陈天昊再次感谢各位老师对本次会议的关注,并表示未来将持续推动学术共同体的建设。
关于清华大学公共管理学院政府法制研究中心
党的二十大报告指出:“全面依法治国是国家治理的一场深刻革命”,“法治政府建设是全面依法治国的重点任务和主体工程”。政府法制研究中心是依托清华大学公共管理学院成立的跨学科研究平台,旨在围绕如何推动法治政府建设这一中心议题,开展数字治理、数字政府、新兴产业治理、司法政策、公私合作等领域的研究工作,为在新时代进一步推动法治政府建设,以适应前沿科技的革新,并助力国家高质量发展,提供智力支持。
供稿丨政府法制研究中心