首页财经《人工智能法示范法1.0(专家建议稿)》发布 提出负面管理清单等多项创新措施

《人工智能法示范法1.0(专家建议稿)》发布 提出负面管理清单等多项创新措施

沃鑫才子沃鑫才子时间2023-08-18 分类财经浏览15724

人工智能飞速发展,全球人工智能治理也逐渐提上日程。美国、欧盟等纷纷出台相关人工智能治理文件,以应对这一新生事物的机遇和挑战。人工智能飞速发展,如何通过法律的角度,客观、公正地回应人工智能发展过程中提出的新问题?又该如何通过立法构建具有中国特色的人工智能治理路径?

8月15日,由中国社会科学院法学研究所主办,中国社会科学院法学研究所网络与信息法研究室、南财合规科技研究院等共同承办的“全球治理话语竞赛下人工智能立法的中国方案”研讨会在北京举行。会上,中国社会科学院国情调研重大项目《我国人工智能伦理审查和监管制度建设状况调研》起草组(以下简称“起草组”)发布了《人工智能法示范法1.0(专家建议稿)》(以下简称《示范法》)。

《示范法》有何亮点?如何回应发展和安全的关系?人工智能产业链条各主体责任、义务又该如何分配?起草组负责人相关成员中国社会科学院法学研究所网络与信息法研究室副主任(主持工作)周辉和起草组成员南财合规科技研究院首席研究员王俊、同济大学法学院助理教授朱悦就上述问题接受21世纪经济报道(以下简称《21世纪》)记者专访。

坚持中国治理思路 发展与安全并重

《21世纪》:《示范法》是在何种契机、背景下开始制定工作的?

周辉:2022年,生成式AI发展为人工智能发展注入一针强心剂。与此同时,全球都在展开人工智能的发展与规则体系建立的“军备竞赛”。如何通过立法来贡献出具有中国特色的AI治理路径,关系着行业发展、社会进步与公众生活,有必要对行业发展情况以及伴生风险进行广泛的调研、深入的探讨。

2023年以来,在持续、长期追踪研究人工智能发展、监管的基础上,组建了来自学界、智库等专业人士的专家团队,经多次调研、讨论、修改,起草形成《示范法》。《示范法》立足时代前沿,把握人工智能发展规律和全球治理趋势,在为国家相关立法提供参考的同时,也期待通过1.0、2.0及至N.0的迭代讨论,不断适应人工智能发展安全态势,更好推动凝聚依法发展和治理人工智能的共识。

《21世纪》:请对《示范法》的设计思路、原则做一个简要介绍。

周辉:《示范法》分为七章,主要包括人工智能基本原则,促进发展举措、风险管理制度、主体责任分配、治理机制设计、法律责任六部分,是一部综合性、统辖性的立法示范。坚持中国式治理思路,既发展,又坚持安全底线。

第一章“总则”,阐明人工智能发展的基本原则,包括治理原则、人类自主原则、安全原则、透明可解释、公平原则等。在总则确立的原则基础上,下述各章将围绕总则展开,并与相关条文呼应。

第二章“人工智能发展”,抓住促进发展这一“牛鼻子”,从基础设施、人才培养、技术创新、体制机制支持等维度提出相应制度规范,结合产业发展实际,采取有力措施鼓励人工智能创新。本章还强调以国家机关的先行先试促进人工智能的推广应用。

第三章“人工智能管理制度”采用负面清单管理制度对人工智能进行风险管理,对人工智能技术研发和提供活动作出规定。第四章对人工智能研发者、提供者的义务进行了明确。

第五章规定了人工智能综合治理机制,衔接总则规定,回应了人工智能监管如何设计的问题,本章创设性提出设置国家人工智能主管机关,负责统筹人工智能发展和管理。第六章根据人工智能的风险活动,设计了相应的法律责任。同时,《示范法》坚持发展导向,设计了尽职免责等相应条款,以为人工智能创新活动提供宽松政策环境。

《21世纪》:在您看来,《示范法》有何创新之处?

周辉:《示范法》起草组成员长期研究人工智能发展与治理,根据人工智能的最新动态着手起草工作,起草过程历经数月,充分结合产业发展动态以及国内外人工智能发展最新进展,具有中立性、客观性,创设性提出了诸多制度设计。总体来看,起草说明具有如下创新点:

一是明确人工智能主管机关。《示范法》为避免产生多头监管等问题,创设性提出设置国家人工智能主管机关统筹负责全国范围内人工智能发展与管理工作。

二是划明安全底线。《示范法》明晰不同行为主体的责任,针对人工智能特点及其风险提出规制措施。

三是促进发展有实招。《示范法》坚持发展方向,采取有效措施鼓励生成式人工智能创新发展,在制度设计上留出更多容错空间。

四是科学设计主体架构。《示范法》按“研发者-提供者-使用者”三类主体进行制度设计,跳出具体应用场景,直接穿透底层技术逻辑。

鼓励AI发展 设定负面清单管理制度

《21世纪》:针对人工智能管理制度设计,《示范法》如何落实?针对当前业界关心的人工智能主体责任和义务分配,遵循何种原则?

王俊:近年来风险分类分级管理已成为治理思路,《示范法》一定程度上沿袭了该思路,但起草组认为,人工智能发展日新月异,应在管理制度给予宽松尺度,因此设计了负面清单管理制度,负面清单内的研发、提供活动采取许可机制,实行事前监管;负面清单外的研发、提供活动则采取备案机制,事后监管机制,大幅减轻人工智能研发、提供等活动的审查成本。

在义务分配上,《示范法》将人工智能研发者、提供者义务,分为一般规定、研发者义务、提供者义务,在强调发展的同时,人工智能涉及的相应主体也应承担相应责任,比如公平性义务、可解释性义务、科技伦理审查、安全审查,并且应将安全义务贯穿于人工智能活动整个生命周期,将人工智能治理的基本原则转化为企业可落地、监管可监督的义务类型。

同时基于人工智能产业链的特殊情况,对人工智能研发者、提供者分配了在其活动范围内的义务类型。

最后,结合《示范法》设定的负面清单管理制度,负面清单内的人工智能研发者、提供者以及基础模型研发者进一步规定了相应的义务类型,保障义务与风险一致,坚守安全底线。

《21世纪》:《示范法》促进发展方面,创设性提出负面清单,并提出研发者豁免责任等。请对这两项制度做一个简单介绍。

朱悦:相较于试错成本较大的惩罚性、管制类的立法思路,《示范法》更偏向于容错意味高的促进发展类型。比如负面清单的设计,对于研发者也设计了相应的豁免条款等。

以负面清单为例,负面清单内人工智能研发、提供活动采取许可机制,实行事前监管,控制风险;负面清单外的研发、提供活动则采取备案机制,减轻企业合规负担。负面清单的制订责任应交由监管部门落实。

关于研发者设计的相应豁免条款,比如“人工智能研发者、提供者承诺限期整改合规,且能够有效避免人工智能研发、提供或使用活动造成危害的,可以不暂停相关活动。国家人工智能主管机关认为可能造成危害的,可以责令暂停相关活动。”在相应条款设计上最大限度上给予人工智能研发企业充分的发展空间和试错机会。

回应AI产业链治理难题 划定行为主体并赋相应义务

《21世纪》:可以看到人工智能的负面作用也在显现,如虚假新闻、AI诈骗。考虑到人工智能产业链条上下游较长且涉及主体十分复杂,在不同主体义务设定上,《示范法》是如何划分的?

王俊:《示范法》在强调发展的同时,坚持安全的底线。值得关注的是,当前人工智能的发展仍然制约于用户的信任和基于此的大规模使用,而这一核心要义在于人工智能的研发者、使用者能提供一个安全可控的人工智能。进一步而言,明确清晰的义务也能充分改善人工智能行业的营商环境。基于上述相互作用的市场环境,《示范法》坚守安全的底线,明晰不同行为主体的责任。

一是基于人工智能带来的风险在当前法律体系中增设义务。比如针对人工智能技术和应用提出了安全性义务。比如针对算法黑盒,增设了透明性和可解释性义务。同时,《示范法》明确规定了基础模型的义务类型,保障了可追溯性、技术稳健性等,要求其遵循公开、公平、公正的原则,制定基础模型的使用规则。

二是对人工智能产业链治理难题做出了回应。《示范法》结合了产业发展、风险水平,将行为主体分为负面清单内的人工智能研发者、负面清单外的人工智能研发者、负面清单内的人工智能提供者、负面清单外的人工智能提供者、基础模型研发者,分别赋予对应的义务类型,并且规定了配合其他行为主体履行义务的义务。在义务分配上体现了行业协作特性,坚守安全底线。

《人工智能法示范法1.0(专家建议稿)》发布 提出负面管理清单等多项创新措施

《21世纪》:在人工智能主管机关方面,《示范法》明确国家人工智能办公室作为主管机关,这方面是如何考虑的?

朱悦:在综合治理机制上,针对此前互联网平台时代治理的九龙治水困境,《示范法》创设性提出设置国家人工智能主管机关,负责统筹人工智能发展和管理。《示范法》明确了国家人工智能办公室是人工智能发展和管理的主管机关,其职责包括制定人工智能监管规则、指引,组织制定人工智能伦理、安全、管理等方面标准;组织人工智能技术监测、评估、审计工作等。

需要说明的是,《示范法》设计阶段,起草组提出两种思路,一是设置主管机关统筹人工智能发展与管理,二是根据此前各个部门职责,设计人工智能时代相应的管理规章。最终,选择了设置一个单独的主管机关模式,起草组起草团队认为应以更高维度来对待人工智能治理问题。

重庆发展家庭教育程序员节栗喉蜂虎
恒锋信息(300605):恒锋信息科技股份有限公司关于向特定对象发行股票摊薄即期回报及填补措施和相关主体承诺 新洋丰(000902)8月17日主力资金净买入42.52万元