首页 学会之窗 政法要闻 学会动态 学会公告 法律法规 法学研究 法治文化 他山之石
最新公告:
[2024-08-05]宝鸡市 “法学智库”管理办法(试行)     [2024-08-05]宝鸡市法学会 关于印发《宝鸡市“法学智库”入库 名单》的通知     [2024-07-19]宝鸡市法学会关于对全市“法学智库”拟入库名单的公示    
当前位置: 主页 > 法学研究
陈滢|论家用人形机器人的市场监管机制
时间:2024-11-06 20:06    作者:   点击:

     
陈滢|论家用人形机器人的市场监管机制(图1)

内容摘要

   人形机器人产业正成为全球科技创新发展的制高点,我国为迎接这轮新科技热潮制定了一系列发展促进性规范文件,但与当下人形机器人产业如火如荼的发展形成鲜明对比的是监管规则的缺位。家用人形机器人作为最具潜力的应用市场之一,因其与传统家用电器之间的本质区别、独特的法律定位以及可能带来的风险,改变着人类、市场、社会三者间的关系,且其发展态势与传统监管路径之间张力明显,因此亟待立法对其进行监管规制。在我国大力主张对新技术、新业态实行“包容审慎”监管的语境下,在研发与应用的二维体系中基于风险预测积极探索行之有效的家用人形机器人监管机制是当下政府工作中亟须解决的问题。

陈滢|论家用人形机器人的市场监管机制(图2)
一、问题的提出

   从1973年日本早稻田大学推出第一台全尺寸仿人机器人WABOT-1以来,世界范围内各高校、企业前赴后继地进行着智能人形机器人的研发。在我国,自1990年国防科技大学成功研制出第一台两足步行机器人之后,各科技公司亦争相入局人形机器人产业,至今已实现多次更新迭代。这一切表明古老的神话传说中如赫淮斯托斯的黄金机器人和皮格马利翁的伽拉忒亚一般具有智能或意识的人造人似乎正逐渐成为现实。

   人口老龄化与人口劳动力不足是全球很多国家都必须面临和解决的问题,我国2024年政府工作报告中亦提及要加强社会保障和服务,实施积极应对人口老龄化国家战略。因此,家庭养老陪伴被认为是人形机器人最理想的落地场景之一。为抓住经济发展的新引擎、占领科技竞争的新高地,2024年政府工作报告还指出“要大力推进现代化产业体系建设,加快发展新质生产力”。此外,工业和信息化部(以下简称“工信部”)制定的《人形机器人创新发展指导意见》中明确应“拓展人形机器人在家政等民生领域服务应用,重点提升人机交互性和安全性,满足生命健康、陪伴护理等高品质生活需求”、工信部等七部门制定的《关于推动未来产业创新发展的实施意见》提出要“重点推进智能制造、家庭服务等领域产品的研制及应用”,除中央层面的以上意见外,北京市、上海市、深圳市等地方政府也均出台了关于通用人工智能发展的各类措施、计划以及行动方案。而在私营领域,如小米机器人、优必选、傅利叶智能等软硬件厂商亦是竞相入局人形机器人赛道。

   值得关注的是,以上文件均以促进发展为主要目的,并未详细规定具体的监管机制。且我国尚未出台人形机器人监管的专门立法,从社会科学维度加以观察,改革开放后我国的监管型国家建设受到了“发展型国家”的强烈影响,自始就面临着市场培育和监管任务并存的双重目标,因此侧重通过政策促进产业发展具有相当程度的合理性。但我们不应忽视新兴领域中可能存在的各种风险,适时加以必要的监管同样具有重要意义。事实上,由中国政法大学数据法治研究院张凌寒教授与其他六位专家学者共同起草的人工智能法(学者建议稿)已于2024年3月16日面世,该建议稿对于包括人形机器人在内的人工智能领域的监管措施提出了较为系统的构想。具体而言,该建议稿涉及人工智 能的发展促进、使用者权益保护、开发者与提供者的义务规范、监督管理等多个方面,并提出“关键人工智能”这一全新概念。该建议稿突破了我国一直以来的纵向监管方法,横向涵盖了人工智能可能产生的综合影响,但其对“关键人工智能”的范围划定宣示效果大于实际意义,“关键信息基础设施”“重大影响”“一定级别”等不确定性概念难以明确,使得何为“关键”陷入概念谜团,因而仍存在有待完善的空间。那么,如何在激发家用人形机器人巨大发展潜力的同时对其可能存在的风险加以有效控制便成为一个亟待解决的问题。本文将分别从监管路径与监管措施两个方面对这一问题进行初步的探讨。

二、家用人形机器人监管立法的必要性

   20世纪80年代后期,一些研究者提出全新的人工智能发展方案,他们认为,为了获得真正的智能,机器必须具有躯体——它需要感知、移动、生存,与世界进行交互。人类身体结构的高灵活性决定了出于通用性与交互性等方面的考虑而将机器人设计为人形,具身化意味着人形机器人可以在算法的指引下与世界建立交互关系,但法律关注的重点并非技术特点,核心问题是社会关系将会受到何种影响。具体而言,形态的差异并不导致人工智能载体之间存在本质上的区别,不同的监管策略往往基于不同的应用场景下其可能对社会关系产生的影响而展开,故本文聚焦于家用人形机器人的市场监管问题。

 
(一)
家用人形机器人与传统家用电器之差异
 

   自20世纪90年代开始,我国家电市场迅速发展,进入21世纪之后,家用人形机器人的研发更是紧锣密鼓地展开,家用人形机器人的监管问题随之而来。但在我国已基本建立完善的市场监管机制的前提下,家用人形机器人的监管问题是“旧瓶装新酒”的老生常谈还是迫在眉睫的现实挑战?市场监管规则与监管逻辑是否需要更新从而与社会发展适配?这些问题都需要我们加以认真思考。

   从设计初衷与应用场域来看,家用人形机器人与其他家用电器均服务于家庭的日常生活,但其与其他家用电器之间存在实质上的区别。一方面,从外在的行为模式表现上,传统家电设计目的较为单一,仅服务于某一单一家庭任务且基本不具有主动性。虽然随着科技的发展智能家居可通过语音指令完成家用电器的启动与关闭等工作,但该类工作不具有对人类肢体的强依附性。而2023年12月发布的人形机器人KUAVO在2024年3月中国家电及消费电子博览会上向人们展示了家庭学习洗衣、插花、浇水、晾衣服等技能;特斯拉发布的Optimus能够通过双手完成物品分类。可见家用人形机器人所进行的活动已然超出了既有的社会模式,可独立完成一系列此前完全依赖于人类灵活肢体协调完成的家庭任务。另一方面,人形机器人已完成多次迭代更新,拥有视觉定位导航、手眼协调、自主运动与决策能力,例如本田发布的Asimo可进行沟通交流,小米发布的CyberOne可模拟人的各项动作,识别人物身份、手势、表情,甚至识别人类感情,具有此前家用电器不具有的强交互性,人形机器人对多变复杂的环境、烦琐复杂的工作内容具有远远超出其他普通家用电器的适应性。

   为进一步探讨人形机器人与传统家用电器的区别,可借助学者提出的三重判断标准进行分析。其提出可通过具身化、进化程度、交互性三个衡量指标将不同的分析对象在心智正常的成年人、儿童、家养宠物、野生动物、公司法人以及工具之间进行类比。传统的家用电器具身化程度、进化程度与交互性均较低,故其只能被类比为“工具”,而家用人形机器人不仅具有较高程度的灵活躯体、至今仍处于不断的高速进化过程中,超大规模的大数据训练还使其拥有与普通人类无异的语言模式,故其显然不能被简单类比为工具。该学者还进一步提出,对人工智能机器人进行最为充分的类比需要建立在对其行为的可预测性或者其欺骗人类的能力的充分分析的基础上。传统的家用电器只能服务于人类的指令从而不具有任何自主性,反观因“算法黑箱”的存在导致使用者不能完全预测人形机器人的行为,甚至研发者也不能对此持自信态度。从人形机器人与传统家用电器在具身化、进化程度与交互性三个指标上存在的差异性出发,两者之间的本质区别不言自明。

 
(二)
家用人形机器人的独特法律定位之争
 

   如何将机器人概念化以实现司法目的,将会影响到责任承担、监管制度和税收制度。但目前我国还并未通过规范性文件对家用人形机器人的概念与内涵进行具体明确,导致其法律定位不明,对人形机器人的监管以及规制也处于模糊的空白地带。而目前我国学界对人形机器人的法律定位的探讨主要围绕客体论与主体论展开。

   持客体论的学者认为,机器人由各种软硬件构成因而不可能产生生命和生命权,也不具有自然人一般的个体差异性以及不存在自然人所具有的道德、良心、良知、伦理、宗教、规矩和习惯。因此无法实现机器人与自然的和谐相处。机器人还与动物一样不具有规范性认知能力,虽然强人工智能体可以通过深度学习自行归纳和提炼规则,但其并不具有法律和道德意义上的规范性,而仅仅只是一种算法。对人工智能技术发展进行的风险防范就是对其造成的损害后果的防控,以及对损害后果进行救济。同时由于其具有的高科技性质,其产品责任适用特殊侵权责任。因此,其不应当具有法律主体资格。另有观点提出由于智能机器人具有独立性、学习性与交互性等类似于人类的特征,故其可作为拟制之人而享有法律主体资格。但在特定情况下也可以如刺破法人面纱一般,要求人形机器人的控制者承担法律责任。该种论断附条件认可智能机器人的人格,但该种人格是工具性的、为人类服务的,必要时可以刺破该人格而由具体的自然人承担责任。因此,其本质上仍是将智能机器人的法律地位视为客体。

   持主体论的学者认为因为伴随着不断涌现出的算法智能化、类人化的特征,包括人形机器人在内的人工智能已从计算智能、感知智能等低阶层次过渡到认知智能阶段的高阶层次,与此同时,虽然智能机器人的产生离不开人类设计和编制的程序,但也因为人类设计和编制的程序使智能机器人具有思考和学习的能力,这种类似于人类的能力使得智能机器人可以产生自主的意识和意志。得益于大数据、神经网络、认知系统等要素,人形机器人具有较强的交互性与自主学习能力,其可能的超出编程之外的行为不仅使用者无法预料,甚至可能溢出设计者的程序编制范围而具有一定的自主决策能力。更有学者曾预测,只要通过软硬件彻底地模拟人类智能,计算机将可以在20年代末通过图灵机测试,彼时机器智能将和生物智能别无二致。因此,应当赋予智能人形机器人以法律主体地位。

   虽然对于智能机器人的法律定位之争至今并未形成一致意见,但不可否认的是,即使在人形机器人研发过程中进行了超大规模的数据投喂、利用了极为精巧的机械设备,其最终的物质载体仍然是“产品”。但前已论及家用人形机器人与传统家用电器之间存在本质区别,其具有传统的“产品”所不具有的一系列特征。姑且不谈其是否可以落入民法典产品侵权责任的规制范围,通过产品责任进行监管规制已经居于风险链的最末端,不符合我国当下大力主张对新技术实行包容审慎监管提出的事中事后动态监管的基本要求。本文并不意在于讨论人形机器人的法律定位,关注的重点应该是因为人工智能机器人改变了法律运作所依据的假设,破坏了依赖于这种分类的法律决策和系统,因此很难根据现行有效的法律对其进行分类。因此我国现行民法典、刑法抑或其他的法律规范均无法较好地对其可能的侵权行为进行规制,为其制定专门的监管规则势在必行。

 
(三)
家用人形机器人的未来可能风险
 

   人脑完成一项复杂活动,需要在数千亿个突触连接的神经元之间进行信号的传递,且由于地域分割、年代差异等多种原因,很难为人类的行为逻辑建立统一的模式。互联网的迅猛发展与大数据的有效汇集虽使得人形机器人已具备一定的交互性,但由于人类行为本身的不定性,机器人在短期内并不能通过对人脑的模拟而实现人脑智能。与此同时技术的指数型发展趋势也警示着人类,即使当前所有机器都比不上人类本身那么精妙,但技术步履不停地发展将能够和人类最优秀的品质相媲美,并超越它们。可以明确的是,虽然在无知笼罩之处对于什么是良好的风险规制活动将无法得出结论,且人类知识的有限边界与科学技术发展的无限可能决定了人类无法实现对家用人形机器人可能风险的完全预测,但若放任其自由生长将可能对社会乃至全人类的生存环境产生彻底变更。这也就意味着人类不应当在这场急剧的变化中袖手旁观,人类数千年的绵延史无非就是同一切挑战对抗的历史,时代的火炬不仅不会在这场智能化的漩涡中消灭,反而会迸发出更加明亮的光芒!

   在我国的实践中,目前已基本构建由网络安全法、个人信息保护法、数据安全法等法律法规以及各级地方文件与技术标准构成的数据安全保护体系,但是除数据安全风险之外人形机器人的量产还可能引发各类侵权纠纷。一方面,家用人形机器人在工作过程中可能会对家庭物品造成物理性损坏,更有甚者可能会对家庭成员造成伤害。另一方面,家用人形机器人因其具有的强交互性可能对用户在具体的情景化与个性化语境中施加高效率、大规模、隐秘性地操纵、说服和影响,最大限度地构成生成内容的算法操纵。即使其可能并不会直接对人类造成物理性伤害,但其完全有能力实现对人类的误导以导致人类的自我损害。该种算法操控在短期内难以察觉,但长期滴水石穿式的影响会对个人生活造成实质变更,且该种影响难以进行量化与举证,诉诸法律进行救济存在困难。

   与商业以及工业人形机器人不同,家用人形机器人的定位为服务与陪伴,这对其交互性与安全性提出了更高的要求。前已述及,产品责任已属于风险管控的最末端,为维持社会的有效运行与提供公众福祉,前端的风险监管措施仍有待探索。

 
(四)
小结
 

   有观点认为,人形机器人作为硅基智能,发展速度不受达尔文进化论的限制而远超有机生物。人类必须提前为可能的风险失控做好准备,对通用人工智能技术研发的安全与伦理问题进行普适性立法已迫在眉睫。亦有学者振臂高呼,技术风险焦虑症在严重夸大了某些数字技术风险的严重程度的同时也严重误解了法律制度对于风险防控所能发挥的作用。前者立足于科技的高速发展与无限进步之可能性,后者则是现实主义的典型表现。可以明确的是,家用人形机器人的大规模制造与使用将会改变人类-人类以及人类-机器之间的关系。虽要警惕法律万能主义的陷阱,同时也应当认识到法律对于筑牢安全底线,助推科技发展的重要作用。当下通过法律规范确定家用人形机器人在研发与应用二维层面下的具体监管机制,对于促进相关产业的勃兴具有重要意义。

三、家用人形机器人的纵向全流程监管逻辑

   因法律的确定性与风险的不确定性之间存在张力,若仍然依循传统的社会治理体系将无力解决工业社会的发展产生的社会问题。因此,在新技术、新产品的研发与投产全流程中,应当始终坚持问题导向,增强风险意识,针对不同阶段的具体情况探索适宜的监管措施。人形机器人作为全新的发展领域,对其进行前瞻性的风险预测是促进其发展的必然前提。目前,在我国对新产业实行的“包容审慎监管”原则的指导下,家用人形机器人的具体监管机制的探索应当建立在对设计与应用监督两个阶段存在的明确而具体的风险进行分析的基础上,从而贯彻执行到设计与应用监督并重的二维监管结构中去。

 
(一)
研发:大语言模型作为关键脉络
 

   以ChatGPT为代表的大型语言模型作为人形机器人的“大脑”,除了在实现家用人形机器人的较高交互水平上居功至伟,其对家用人形机器人的运行也产生着深刻而重大的影响。因此对家用人形机器人研发阶段的监管应当把握住大型语言模型的设计、训练与运行这一关键脉络。

   首先,对于大型语言模型的设计问题,在家用人形机器人运行的输入数据与输出结果之间,可能存在人类无法洞悉的逻辑与规律,大量晦涩难懂的数据和模型杂糅着人类难以理解的代码与数值,使得其工作原理难以得到解释。因此,在研发阶段应当对必要的数据与模型进行公开以接受社会监督,并要求有关研发主体对必要问题进行解释。虽然社会公众对有关模型与算法并不能完全理解,但正如腾讯研究院组成的跨学科研究团队提出的《可解释人工智能发展报告2022》所倡导的,透明性与可解释性是对人工智能系统的基本要求,是实现其他伦理价值的必要前提。搭载人工智能系统的家用人形机器人的透明性与可解释性也是该产业得以发展的关键问题之所在。

   其次,对于训练过程中数据授权问题,因家用人形机器人的充分发展需要对全人类各种领域的知识进行学习,将会涉及不特定范围的海量数据。几乎不可能实现针对训练所关涉的所有数据进行事前的一对一授权,为契合我国现阶段的实际情况,应当在立法和政策上留下一定的发展空间,以事前的自律守正、事后的公正处罚为监管基础。具体而言,对于训练过程中的数据授权问题,因该阶段其并不对外产生实际影响,在不产生持续且具体侵害后果的前提下可予以包容而不必苛求。

   最后,在家用人形机器人研发运行的过程中,应当对其物理特性与价值偏好进行严格且持续的测试,在保证使用者人身安全的基础上,基于家用人形机器人强交互性这一特征,还应对其输出内容的价值偏好进行检测,避免产生歧视性、煽动性言论进而动摇社会稳定的基础。

   可以预见的是,当家用人形机器人投产并售出到每一个家庭之后将会产生全新的人机交互关系。针对人机交互问题目前的解决方案是“人在回路”(human in the loop),亦即机器人的定位只是人的助手,不能让机器的感知、分析、决策和自动化执行在涉及人的基本权利和利益的问题上形成闭环,而是要坚持人的主体地位,最终的把关和决策应由人具体完成。因此,在家用人形机器人研发过程中应当明确,人机交互关系中人才是毫无争议的主导者,机器人的研发是为了更好地服务人类,因此应当将最终决策权保留在人类手中。

 
(二)
应用监督:责任更新与畅通申诉渠道
 

   家用人形机器人售出后将进入具体的家庭进行诸如陪伴、烹饪、洗衣等家务工作。此时的风险将主要具体外化为两大种类:侵权风险与价值观引导风险。前已述及因家用人形机器人不同于传统的“家庭保姆”“家用电器”抑或“家养宠物”,法律定位不明导致其在当下的法律规则体系下无法得到妥善安置,针对这一问题引发了两种发展路径,其一是修正或重新定义责任的概念。其二是通过设计具有亲社会行为的智能机器人以减少危害。以下将针对两种路径分别进行具体分析。

   首先,修正或重新定义责任概念具有一定合理性与可行性。若将智能机器人视为产品,机器人造成的侵权责任将落入产品责任范畴,按照我国现行民法典的规定对产品责任进行举证需证明产品本身存有缺陷,但绝大部分消费者因为并不具有专业背景,将难以对该问题进行充分的举证证明,居中的裁判机关也因专业知识的局限难以作出判决。除此外,作为具备独立思考能力的智能系统,人形机器人具有的主体意识必将削减参与的自然人主体的过错程度,并减轻民事主体的责任承担。除此之外,实际上智能机器人被制造之后已经脱离了制造者与设计者的控制,能够进行自我学习与感知,导致制造商、设计者与智能机器人所造成的侵权行为之间的因果关系中断。因此,对家用人形机器人应用监管过程中涉及的责任内涵进行重新—定义与调整势在必行。

   其次,亲社会行为的智能机器人将会是行业长期努力追求的目标。嵌入人形机器人躯体的大语言模型将决定其行为的具体模式,但正如前文所述,“算法黑箱”的存在导致难以对具体的运行逻辑与结果的作出进行有效解释,因此通过算法设计并不能完全规避智能机器人可能携带或制造的新风险,只能通过长期的优化与修正不断向该目标靠拢。家用人形机器人作为人形机器人发展的最高形态,对算法的安全性能提出了更高的要求。因此,在出售后的应用阶段除保持持续不断的检测与优化之外还应保证畅通第三方的标记反馈机制与用户的申诉机制,通过第三方的标记反馈强化机器学习,用户申诉机制为用户的评价提供直通途径之外也便于引入审查,以上途径在促进研发方不断对家用人形机器人进行修正的同时也能够保障有关各方合法权益。

四、家用人形机器人监管机制初探 

   为贯彻家用人形机器人研发与应用监督全流程的纵向监管,我国目前正在积极探索与之发展相适配的各种具体监管措施。数字时代的到来使得人民群众对美好生活的需要与传统法律法规所确定的监管措施之间的张力愈趋明显,世界各国对于人形机器人研发的竞争号角早已吹响,我国亦已出台一系列的政策性文件以助推其发展。但值得注意的是,我国对传统的行政许可设置了一定的硬性合法条件,而人形机器人作为全新的技术领域,若仍严格恪守事前许可审批与事后制裁相结合的监管制度将会扼杀其发展的萌芽,与我国对新技术创新发展的追求相悖,将会极大抑制该产业的发展。因此我国理论界与实务界均在积极探索适合我国国情的新业态、新技术监管策略,自十八届三中全会提出“使市场在资源配置中起决定性作用和更好发挥政府作用”的重要战略以来,经过不断探索我国最终形成了对新技术、新业态实行“包容审慎监管”的原则。

   在包容审慎监管原则的指引下,正确理解分析新兴技术对当前社会以及未来社会所可能造成的影响,并且从法律规制的角度提供可行的解决之策是确定监管措施的基础。具体而言,我们不能脱离所处的各类新兴技术共存并行的时代背景去‘就事论事’地探讨技术本体所存在的有限风险及其规制方案,大数据、元宇宙、人机交互等现下研究的热点均与家用人形机器人的研发投产息息相关。因此我国为应对新业态发展所带来的风暴而提出的独特创见——包容审慎监管原则,具体可从以下方面得以实施贯彻。

 
(一)
监管权开放协同
 

   传统的行政监管权仅掌握在行政机关手中,但在复杂多变的社会现实面前,由政府独立承担公共事务管理的传统模式效益不佳。首先,由于监管主体与被监管主体之间存在严重的信息壁垒,容易导致监管陷入格林格里奇困境,即往前一步唯恐阻碍新技术的发展,往后一步又有放任自流之虞。由于新技术带来的新经济业态下的信息不对称问题更加严峻、利益更加多元、冲突也更为剧烈,为更好地对利益冲突进行平衡、实现规制成本的降低并提高监管效能,合作规制范式的导入在我国包容审慎监管的实践中格外重要。其次,在我国权力运行体系下,公权力机关秉持“法无授权不可为”的基本法理,而科技发展往往具有高度的不确定性与复杂性,与以特定社会价值为基础的法律追求的稳定性之间存在极大张力。具言之,科技发展的不确定性导致难以事先通过法律对特定公权力机关进行条理清晰的授权,公权力机关面对复杂的社会现状与科技发展态势的交织可能会陷入无法监管或过度监管而不恰当地增加其工作压力并导致治理效能不佳的困境。为减轻行政机关过重的监管负担与助推治理绩效提高,可逐步实现监管权的开放协同,适当引入有关市场主体,充分发挥市场主体对市场经济的敏锐感知这一优势,助推行政监管有效展开。

   日本政府于2021年7月发布《GOVERNANCE INNOVATION Ver2:设计和实施敏捷治理报告》,该报告提出社会5.0时代的基础理念“敏捷治理”,同时基于这一理念提出包含企业以及市场、社会规范等多方利益相关者在内的共同治理方式。虽然我国国情与日本存在较大差异,但世界各个国家在人工智能治理问题上存在一定共通性。“敏捷”一词最早于1991年来源于制造业,彼时主要强调的是企业在面对市场的急剧变化时通过快速自我调整以适应市场的能力。我国亦于《新一代人工智能伦理规范》第5条中提出要“推动敏捷治理,有序推动人工智能健康和可持续发展。”借鉴敏捷一词的最初含义,“敏捷治理”所追求的应是作为监管主体的政府机关在面对复杂多变的市场态势时通过快速获取有效信息并调整监管措施进而快速实现有效治理。但由于受制于专业知识的局限以及对市场感知的迟钝,由行政机关作为单一治理主体很难真正实现“敏捷治理”,监管权的开放协同在为行政机关减负的同时,通过多元主体的合作可在最大限度上缩短行政机关反应的时间以提高治理的效率。

   开放协同监管强调政府机关与社会各方的合作。传统的行政关系参与主体是仅包括行政主体、行政相对人以及利害关系人的封闭系统,随着一体化平台以及一体化数据体系的开发与使用,其他行政机关、社会公众可通过该类平台查阅相关资料以及提供线索。在家用人形机器人的监管领域,政府、企业、消费者之间应建立高效的沟通反馈机制。作为人工智能的投资、开发与使用主体,企业掌握着技术、资金、人才以及海量的数据等各种资源,处于市场竞争中的企业具有先天的敏锐嗅觉,将其作为治理主体将大大提高治理效率。同时,消费者作为使用家用人形机器人的终端,更有可能在广泛的日常使用场景中发现其隐藏的缺陷。因此,打通各层级之间的有效沟通反馈机制是开放协同治理的主要线索。

   但应当注意的是,监管权的开放不仅包括公权机关与非公权组织之间的协同,不同公权主体之间的协同亦应受到关注。监管权在公权力主体之间的协同不当可能陷入多方扯皮、九龙治水的尴尬局面。目前,多国政府正在积极推进人工智能伦理标准的制定,但我国并没有类似于科技伦理委员会职能的组织。我国的《科技伦理审查办法》由科技部会同教育部、工信部等十部门制定印发,与之类似,《生成式人工智能服务管理暂行办法》由国家互联网信息办公室会同发改委、教育部等七部门制定并发布施行。纵观我国当前与人工智能治理相关的规范文件可发现,该类文件制定主体往往涉及多部门且各部门之间并无主次之分。诚然,当前人形机器人等人工智能行业涉及人类生活的方方面面,实现有效治理需要依托各部门的专业知识。但各部门之间缺少主导可能会导致权限划分不清进而导致部分问题落入监管空白地带。故而,为实现不同监管部门之间的有效协同应首先确立国家层面的主管部门,并在此基础上明确其他各部门的具体监管职责。

 
(二)
监管方式多元融合
 

   数字时代的纵深与推进促使我国传统的行政监管方式面临深刻变革,为充分激活相关主体的创新活力、塑造欣欣向荣的产业格局,监管主体应当对柔性的多元监管方式进行主动探索。

1.监管线索:从被动处置走向主动报告
 
 
 
 

   在我国传统的监管话语体系下,行政主体作为高权机关可随时对有关行业、主体进行现场检查,行政相对人居于被动配合的地位。但在以家用人形机器人为代表的一系列新科技产业的监管中,产品研发方与提供方的“报告”义务是多元监管方式中的重要一环。以“报告”为关键词,效力位阶限定为部门规章在北大法宝进行检索,结果显示“报告”这一监管措施在我国被广泛运用在广阔的各种场景,诸如《商务领域经营者使用、报告一次性塑料制品管理办法》《特种设备事故报告和调查处理规定》《核动力厂营运单位核安全报告规定》等规范性文件均规定了“报告”这一监管方式。总结而言,适用这一监管方式的场域具有以下三个典型特征:其一是对国家发展至关重要的领域,如为强调绿色可持续发展而要求对一次性塑料制品的使用情况进行报告;其二是对公共安全至关重要的领域,如特种设备事故报告以及核动力厂营运范围核安全报告;其三则是监管对象数量太多进而采取自主上报以提高效率。而人形机器人的研发与投产不仅对国家发展至关重要,其大规模投产之后行政机关也难以对所有的单一机器人进行监管,因此确立有关主体在家用人形机器人监管领域的报告义务具有重要意义。

   举例而言,我国2023年8月15日生效的《生成式人工智能服务管理暂行办法》第14条规定,服务提供者发现违法内容或使用者利用人工智能从事违法活动的,应当采取处置措施并向有关主管部门报告。与备案相比,针对服务提供过程中发现的违法情形进行报告呈现的是动态监管,行政主体通过对报告的接收得以掌握实时有效信息并及时调整相关管控措施,而不至于在面临突发情况时陷入困境。针对人形机器人研发、制造、应用全流程明确报告提出主体与接受主体,并完善接收报告主体在获知相关情况后的具体处理措施以形成完整闭环,实时“报告”也可成为家用人形机器人监管的有力措施。该制度不仅体现了政府对相关行业主体自我监管的尊重,亦是从传统的事前审批与事后制裁的静态模式转变为实时动态追踪、是监管手段从刚性到柔性的转变。

   家用人形机器人具有广泛的应用场景,甚至可能成为激发新质生产力活力以助推社会高质量发展的引擎,属于对国家乃至全人类发展都至关重要的领域。采用产品研发者、产品提供者等有关主体对违法情况、违法内容向监管机关报告这一措施较好地弥合监管者与被监管者之间的信息鸿沟,使得监管者得以站在当下对未来发展进行一定预测,促进人工智能产品的发展。除此之外,该种监管方式符合成本效益原则,契合人工智能产业瞬息万变的发展态势。

2.监管框架:从法律底线拓展至多维立体
 
 
 
 

   以欧盟对人工智能的治理框架为例,欧盟通过从完善风险预防、提升国际竞争力和实现公民权利保护三个视角,促进包括法律、原则和技术治理多手段在内的融合监管政策落地实施。除了出台相关的法律法规之外,欧盟亦强调原则和技术治理规则在当下、短期以及长期发展中的重要作用。在我国的法治发展历程中,向来强调“凡事预则立,不预则废”,坚持立法先行,通过法律法规对家用人形机器人的发展和应用进行最低底线的约束,筑牢安全红线,对安全与发展之间的张力进行平衡是第一前提。

   除明确的法律规则之外,科技伦理在家用人形机器人的发展监管中亦不可偏废。在世界范围内,韩国于2020年12月相继发布《人工智能伦理标准》以及《人工智能法律、制度和法规路线图》、日本政府亦设立“以人为本的AI社会原则探讨委员会”,公布《以人为本的AI社会原则》、经济合作暨发展组织制定的《经济合作暨发展组织人工智能原则》以及二十大工业国制定的《G20人工智能原则》等文件均对以保障人权为核心的人工智能发展原则进行布局谋划。前已述及,由于对家用人形机器人领域的监管缺少有效实践,以及科技领域发展的不确定性与法律追求的稳定性之间存有张力,明确的法律规则发挥的作用有限。而科技发展原则因其丰富的内涵具有广泛的涵摄效力,在新科技领域监管中将扮演重要角色。

   行业标准也将在家用人形机器人的监管中发挥重要作用。根据标准化法的规定,行业标准由国务院有关行政主管部门制定,并报国务院标准化行政主管部门备案。行业标准与企业自律标准制定机制不同,其是由包含行业协会、特定国家机关、消费者在内的多方主体参与制定并出台的推荐性标准。我国早已于1981年成立中国人工智能学会(CAAI),并下设包括“智能机器人专业委员会”在内的61个分支机构,该学会章程于第8条第1款第十项提出其业务范围包括组织人工智能科学与技术的产品与行业技术标准研究和编制,为国家制定智能产品的规范和标准提供服务。除学术性的专业委员会之外,深圳市、上海市等地方亦相继成立人工智能行业协会,该类社会组织职能均包括充分发挥学术资源与市场资源优势,参与标准建设,为政府科学决策提供支持。在家用人形机器人行业标准制定领域,专家委员会与行业协会等社会团体的参与固然重要,但行政机关要承担起对行业标准进行审查的义务,避免有关企业利用自身的垄断地位不当提高新业态准入门槛妨碍公平自由竞争。

   鼓励企业制定高于国家标准与行业标准的企业自律标准是监管框架构造的重要一环。该类不具有国家强制力背书的规范作为“软法”被界定为“中间社会结构的方言”,是一种从特定社会结构的需求中生发并勃兴的沟通性工具,发挥着不那么反身性,而是主动性的作用,因其对社会的高度回应性被设计用来应对迅速变化的市场需求。制定主体的非公权性使得该种规则具有较强的灵活性和主动性,制定流程相对简单可及时对社会与市场的需求进行吸纳与反馈,构建更为高效的社会治理秩序。但有观点指出网络相关行业中参与自主规制的企业流动性较高,应成为自主规制的单位边界没有明确界定。纵观当下的市场竞争,行业发展初期的朦胧不清与晦暗不明导致企业的加入与出局均处于变动不居的境地,但由于企业具有天然的逐利性,获取更多消费者的青睐是其攫取利润的关键所在,故其在不断提高自身产品质量的同时也愿意主动承担一定的社会责任以打造良好的企业形象。因此,企业的流动性并不意味着无法制定企业标准,只要处在竞争中的企业制定良好的标准即可达到规制目的。可以说,鼓励企业制定高于国家标准与行业标准的自律标准在推动不同企业之间形成良性竞争的同时也从根源上助推并实现人形机器人的研发步入科学、高速的发展轨道。

 
(三)
监管措施兼容配适
 
1.行政处罚的宽容
 
 
 
 

   行政处罚的宽容主要包括“首违不罚”与“减轻处罚”两方面。在“首违不罚”方面,行政处罚法第33条第1款规定了两种不予行政处罚的情形,包括“轻微并改正,没有造成危害后果的以及初次违法且后果轻微并及时改正”。该条是2021年修订时新增条款,为了响应“法治是最好的营商环境”,也是包容审慎监管原则在行政处罚领域的具体探索。‘不罚’适用的违法行为并不具有实质的行政违法性,实际上也并未对行政法所保护的法益造成损害。结合当下对新技术的监管语境,更多体现的是柔性与包容,亦即在未造成实质性侵害的前提下由相关主体修正即可而不必监管机关主动介入。因其未对行政管理秩序造成实质性破坏,或虽一定程度上对行政管理秩序造成不利影响,但后期仍可修复。

   由于目前我国并未制定统一的人工智能管理办法,因此首违不罚之“违”的具体内涵亟须澄清。从实现“敏捷治理”的角度出发,对此处违法活动的内涵的解释可借助现行有效的法律体系进行判断。全新技术的发展使得“违法”具有更为丰富的面相,可能出现全新的内涵抑或颠覆性的发展,因此风险评估作为风险监管开展的必要前提在监管过程中将发挥着重要作用。可以说,若无科学可靠的风险评估作为管理的前提,不同主体之间的风险交流将会成为谣传而失去可信基础,风险管理也会失去可依托的真实基础。因此,在对何为首违不罚的“违”进行范围界定时眼光应当在政府、社会和市场之间流转,对风险的可接受程度进行科学性评估,在可接受的轻微风险范围内可主张修正而不予以处罚,反之则以对损害后果的填平为原则加以处罚,应注意在为人形机器人行业发展松绑的同时也要避免过度的放松导致市场的混乱。

   除“首违不罚”在促进家用人形机器人产业的发展中发挥重要作用之外,行政处罚的放松亦可实现产业促进效用。可以看到,数字时代的到来不仅使得违法情境更加多元,发现违法行为的手段也得到极大充实。移动支付、共享单车、网约车平台等数字时代的新业态的发展历程无一不揭示着“包容”的巨大魅力,由于新业态发展之初往往面临诸多不确定性,若行政处罚强度过大、处罚过严往往会遏制其发展的动力,不利于形成正向的激励后果。因此数字时代需要从控制行政处罚强度、限制处罚幅度和扩大过错责任原则三个角度完善行政处罚。我国行政处罚法第5条第2款、第6条、第32条及第33条均体现了新时代对行政处罚效能的追求,“一罚事了”早已不符合当下对实质正义的追求。目前人形机器人赛道发展潜力巨大,但距离大规模投产还有相当距离,我国要想在世界竞争中塑造有利格局,前提是需要为其营造宽松包容的发展环境。处罚过宽、过严均会严重遏制其发展,故针对家用人形机器人发展过程中的违法违规行为应有选择地控制行政处罚强度与幅度,并将有关主体是否存在主观过错纳为行政处罚的重要考量因素。

2.广泛试点、流动测评
 
 
 
 

   国内除各高校积极开展人形机器人的研发之外,如优必选、傅利业智能、小米科技等企业均纷纷投身人形机器人赛道。中共国家发展改革委党组提出要“通过试点示范加强探索实践,通过事中事后监管防范化解风险,通过绩效评估提升政策效能,注重在关键点发力、紧要处突破”。为有效防控新产业带来的新风险,广泛开展试点研究是有为政府在新产业发展中应当承担的当然责任,但由于涉及企业过多过杂、研发投产周期不定,由有关国家机关对所有相关企业均进行完全的事中事后全流程监管不具有可实施性,因此随机选择特定企业进行测评具有重要意义。随着数字时代的全面到来,信息传递广泛且成本很低,特别是平台企业能够通过广泛的问卷调查以及各类社交媒体获知社会舆情,政府机关可借助官方网站等各种媒介进行信息及时、广泛披露,高效汇聚和评价各方的‘声誉’成为规范企业行为的重要手段。测评结果定期公示引起社会舆论的关注将会推动相关主体完善自身服务,以充分激活相关主体的创新活力,并达到公众监督的效果。

3.开放决策程序
 
 
 
 

   家用人形机器人的发展路径决定了无法通过事前制定完备的法律规范对其进行治理,在未知中进行决策将成为治理常态,开放决策程序将会为决策的科学性提供必要的程序性支持。在决策的酝酿与作出阶段给予决策利害关系人以论辩沟通的机会,具体而言,可广泛吸纳专家学者、行业协会、消费者协会等有关主体从自身专业领域提出的意见建议,通过专业领域知识的引入不仅有助于提升决策质量,还能赋予行政机关制定监管规则以民主正当性。除此之外,决策程序的开放更能了解企业在实践中的真实困境,基于现实境况进行具体决策以获得相关被监管主体的认同更能达到事半功倍的治理效果。

结语

   家用人形机器人在即将到来的人口老龄化社会中具有广阔的应用前景,其可预见地会对人类社会运转方式产生深刻影响。由于其与传统家用电器之间存在泾渭分明的差异,且在我国现行法律体系下其法律定位仍不明朗,加之受制于人类知识的限度难以对其未来发展进行有效的风险预测,故在我国已出台的发展促进性规范文件之外对其监管规则进行立法势在必行。由于传统的行政监管方式及规制途径与该产业的发展态势之间张力明显,“包容审慎监管原则”作为我国经济探索与实践而提出的对新技术、新业态进行监管的顶层制度设计,可用以缓解安全与发展这对永恒的价值冲突。

   包容审慎监管原则的展开需要行政机关制定明确的监管机制并贯彻到家用人形机器人的研发与应用的二维场景之中,具体包括监管权一定程度的开放协同、监管方式更加多元灵活与监管措施适当放松以实现兼容适配等方面。人形机器人带来了风险,但更多的是机遇,我国政府应做好产业发展的监管政策配套建设,积极构建产业发展良好生态。

陈滢|论家用人形机器人的市场监管机制(图3)