您当前的位置:首页 > 法学论文>经济法论文

人工智能的负外部性及其经济法规制

2023-12-11 12:22 来源:学术参考网 作者:未知

  摘要:迅猛发展的人工智能在给人类社会带来正外部性时,其产生的负外部性也随之而来,主要表现在冲击现有的社会经济秩序、弱化法律的调整功能、增加社会管理主体的治理成本等。这些负外部性的解决,当然离不开多个法律部门的共同努力,这些部门也存在必要的分工。从经济法视域来看,当前应该重点完善人工智能市场准入制度、市场监管制度、信息披露制度和主体责任制度,从而确保作为国家发展战略的人工智能健康良性发展。


  关键词:人工智能;负外部性;制度检视;经济法规制


  一、问题的提出


  2017年7月,国务院印发的《新一代人工智能发展规划》提出,人工智能是一项引领未来的战略性技术,旨在以科技创新引领开拓发展新境界。2019年3月,李克强总理在《政府工作报告》中又明确提出,要“深化大数据、人工智能等研发应用……壮大数字经济”[1]。因此,可以说人工智能的发展已经进入新阶段,成为国际竞争的新焦点和经济发展的新引擎。美国、日本、欧盟等都在近3年内制定并实施了人工智能发展规划。对比之下,我国目前缺乏与人工智能快速发展完全相配套的法律法规。科技的不确定性加上法律制度的不确定性导致人工智能“危”“机”并存,我们在欢享人工智能发展给我们带来的“福利”等正外部性时,也要警惕其给我们带来的“危机”等负外部性,包括但不限于冲击现有的社会经济秩序、弱化法律的调整功能、增加社会管理主体的治理成本等,所以,要注意人工智能演化给现有法律关系带来的影响[2]。人工智能的良性发展能带动制度的进步,反过来合理的制度实现人工智能的价值。基于这种关系,本文拟从制度层面探讨解决人工智能负外部性的可行性方式。诸多负外部性是多种因素共同作用所导致的,而其中不容忽视的因素之一即为法律缺位和制度不足。从经济法视域来看,人工智能市场准入制度、人工智能市场监管制度、人工智能信息披露制度和人工智能主体责任制度大都存在不健全的情形。经济法律制度的不健全不但影响对约束人工智能负外部性的规范,甚至可能进一步加剧人工智能的负外部性。经济法的主要调整对象(包括市场主体规制法律关系、市场秩序规制法律关系、宏观经济调控法律关系和经济监管法律关系等),决定了其不可能对人工智能负外部性视而不见。因此,围绕人工智能负外部性的经济法规制亟需在法治框架下探讨以下问题:人工智能负外部性有哪些表现?其制度原因体现在哪些方面?如何完善经济法规制路径?本文在人工智能发展对经济法的需求以及审视经济法存在不足的基础上,主张完善人工智能市场准入制度、人工智能市场监管制度、人工智能信息披露制度和人工智能主体责任制度,以期为解决人工智能负外部性问题提供一些新的思路。


  二、人工智能负外部性的影响及制度因素分析


  1.人工智能及其负外部性的界定


  人工智能(AI)是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学,是一门涉及计算机、信息科学、系统科学、控制论、语言学、认知学等多学科的综合性技术[3]。1956年,“人工智能”这个词首次出现在达特茅斯会议上,标志着其正式成为一个新的研究领域。关于人工智能的分类,有不同的划分标准和具体表现。目前科学界一般认为人工智能的发展可以分为弱人工智能、强人工智能和超级人工智能3个阶段;也有的将人工智能分为弱人工智能和强人工智能[4]。弱人工智能是指各种模拟人或动物智能解决各种问题的技术,包括机器人学、专家系统、人工神经网络等。强人工智能是指有自我意识、自主学习能力和自主决策能力的技术。波斯特姆在美国《连线》上提出所谓的“超级人工智能”,其区别于当前已经广泛应用的“弱人工智能”。据相关权威人士分析,中国人工智能研究在安保、金融、生物医学、能源、城市管理、交通管理等领域的应用非常关键[5]。在云计算、大数据、深度学习的孕育催化下,人工智能模拟和表现了人类的智慧力,并以高于人类的工作速度、优于人类的工作精度、胜于人类的工作态度,协助人类解决各种各样的问题[6]。然而,人工智能也同样给人类带来了各种棘手的问题,如个人隐私可能被侵犯,人身安全可能难以得到保障等。囿于篇幅和主题,本文主要探讨人工智能的负外部性及其经济法解决之道。


  什么是负外部性?不同领域的研究角度不同,其定义也不尽相同。从经济学角度来看,外部性指未被市场交易所体现的额外成本或额外收益。区别于经济学对负外部性的定义,从法学角度上看,负外部性是指经济主体在行使权利时,表现为权利义务不对等以至于利益的失衡。具体而言,负外部性是一个经济主体在行使其权利时将本应该由自己承担的义务施加给其他经济主体[7]。最典型的负外部性例子就是环境污染。一个化工厂将本应该由自己处理的污水随意排放,无形中给周围其他主体施加了污水处理义务,造成两者之间的权利义务失衡。人工智能负外部性就是以人工智能为中心的市场生产、经营主体在行使其权利时将本应该由自己承担的义务施加给其他主体,由此引发的负面影响。人工智能是科技发展的结果,也是信息演进的结果。人工智能作为一项科学技术本该是中性的。但是,在实际的社会生活中,人工智能研发者、生产者和销售者垄断信息、无视数据风险,使得消费者和他们三者之间的权利义务失衡,此乃本文探讨的人工智能负外部性。归根结底,从经济法视域来看,人工智能负外部性是由于准入制度的匮乏、市场监管的低效、信息披露的不足和法律责任的模糊所造成的。为此,我们必须建立健全相关的经济法律法规。通过矫正和抑制上述各个主体的负外部性行为,各自的权利义务才能在合法范围内重新达到均衡状态。


  2.人工智能负外部性的具体影响


  (1)冲击现有的法律秩序


  美国法理学家博登海默认为,秩序指“在自然进程和社会进程中都存在某种程度的一致性、连续性和确定性”。社会秩序是建立在一定经济基础上,以人为中心的动态平衡的社会状态,表征社会关系的稳定性、进程的连续性、行为的规则性以及财产和心理的安全性[8]。人工智能负外部性在这里则体现为冲击现有社会秩序的有序性、连续性和确定性,体现在增加法律制度风险和引发社会道德危机方面,从而加剧了人类社会未来发展的不确定性。


  第一,挑战既有法律制度。制度风险指向制度结局或结果的风险,人工智能负外部性既冲击民法、刑法、经济法等正式制度,也冲击行业规范等非正式制度。作为社会秩序现实表现——社会结构功能的功能失调、反功能、潜功能的存在,预示着制度风险具体表现为功能失调、反功能和潜功能[9]。进入人工智能时代后,法律制度本身就存在滞后性而不适应新形势的情形。这就产生了法律制度的不确定风险。无人驾驶汽车的研发者、生产者、销售者目前均享受着国家政策的红利,但其享受的权利与承担的义务相对不匹配,其负外部性正挑战着我国现有的包括《中华人民共和国道路交通安全法》等在内的法律制度[10]。人工智能的负外部性破坏了法律调整对象的稳定性、规制方法的有效性、主体资格的确定性,进而使多个部门法出现重复规制或无效规制情形,由此增加法律制度风险发生的概率。


  第二,引发社会道德危机。人与人、人与社会、人与自然之间存在不同维度、不同位阶的权利义务关系,而这来源于人类自身在发展过程中总结的善恶标准。人工智能时代,“人机关系”将跃升为新型关系。伴随着无人驾驶汽车的突然出现,空中无人机的普遍存在,以及自动化机器开始在更为复杂的情况下进入日常生活,诸如伦敦、哥本哈根的地铁系统[11]。而基于此,处于道德两难困境的伦理学家虚构的“失控电车案例”[12]代表了人工智能体道德在现阶段承受的全新挑战。人类社会目前已经存在恶意窃取别人隐私、诚信滑坡等显性问题,而弱人工智能体阶段的智能体因不存在显性道德约束机制和有效的法律约束机制,就更容易被有不良道德的人利用而从事损害他人利益或者公共利益等冲击社会秩序的行为。


  (2)弱化法律的调整功能


  由于资源的稀缺性、机会的不平等性、信息的不完全性和风险的不确定性,初次分配的结果一般都是不公平的[13]。因此,国家必须通过税法、财政法等宏观调控法来调整各类经济主体的初次分配结果,注重对信息主体权利义务的调整,进而强化法律对社会治理的调整。而人工智能的负外部性却在一定程度上对法律调整功能产生一定的冲击,即使这种冲击不一定产生直接的负面影响。


  第一,弱化法律对初次分配的调整功能。我国现有的与社会主义市场经济相适应的初次分配制度还不完善,还不能完全适应市场经济的发展。人工智能的出现或许将使现有初次分配制度更难以发挥作用。与前几次工业革命不同的是,人工智能可能使得人类就业岗位呈现爆发性和彻底性的消失态势。麦肯锡的一项研究结论表明,在60%的不同职业中,会有30%的工作被机器所取代[14]。其另一项报告指出,到2030年机器人将取代8亿人的就业,而中国将面临最大规模(最多可达1亿人)的就业变迁[15]。因此,人工智能不仅会淘汰“工作岗位”,还会淘汰“工作技能”,故“无论你的领子是什么颜色,机器都会毫不留情”[16]。这就逼迫一些经济主体不仅要和其他经济体竞争,更要和机器人等人工智能竞争。不可否认,人工智能的研发、推广及应用会减少人类在驾驶员、保安等职业领域获得初次分配的机会,尤其是在重复性、标准化的工作中。而这部分人就业机会的减少使得其收入相应减少,但是生存成本却维持不变。原本应由个体承担生存成本的义务间接转嫁给了整个社会整体,再次分配制度不得不侧重维护这部分个体的权利而减少其义务。因此,从个体而言,就业机会的相对减少,生产和消费将可能出现不均;从社会整体而言,经济主体的初次分配将可能更加不公。


  第二,弱化法律对信息主体权利义务的调整功能。在生产力发展进步的过程中,资金力量和人才储备雄厚的大企业可能很快即可实现自身的工业模式转型,并且享受技术革新的红利,而中小企业则可能因为自身实力不足而无力承担“极高的初创成本”,从而导致行业垄断的事实形成[17]。为适当解决信息主体权利义务严重失衡的问题,反垄断法等经济法律法规正发挥着不可或缺的重要作用。在人工智能、海量数据与产业日益深度融合的社会背景之下,数据量和准确度也必将成为影响社会分配的重要因素。与人工智能相关的生产者、经营者拥有的数据量越大,数据信息越准确,数据更新越快速,那么其越有获得更多社会初次分配成果的可能性。加之,我国在人工智能领域发展较早且具有垄断地位的企业占据着社会大部分信息资源,可能使其权利义务不匹配。在某种程度上,信息优势主体在人工智能信息方面的权利未变但义务实际上减少,使得权利与义务更加不匹配。经济主体本来就存在权利义务不平衡的问题,加上信息失灵的双重影响,人工智能的发展或许会继续拉大社会分配的差距,从而加剧现有信息主体权利义务不匹配的主要矛盾,降低法律对其的调整功能。


  (3)增加社会治理成本


  弗朗西斯·福山认为治理是政府制定和执行规则、提高公共服务的能力[18]。社会治理既包括政府提供的公共产品,又包括社会的自我服务。当代社会治理已突破传统的线性模式[19],政府主要依靠法律制度来实施社会经济治理,但是包括税法、反不正当竞争法、反垄断法等在内的经济法律制度大都具有天然的滞后性,无法及时对人工智能时代到来所产生的新现象、新问题做出及时有效的规制。进一步说,经济法律制度的制定者缺乏对人工智能的及时了解和提前谋局,使得法律不可能快速回应相关的社会治理的现实需要。由此可见,以法律为主要手段的社会治理本身就需要耗费很大成本。人工智能负外部性则增加了政府进行社会治理的成本,具体主要表现为:


  第一,增加社会治理的信息成本。以信息不充分、信息不准确及信息不对称为主要表现的信息失灵直接增加社会治理决策主体的成本。决策者在对人工智能的信息掌握不充分时只能自行收集信息,这无疑会增加信息成本;当人工智能信息不准确或存在错误时,社会治理者则会耗费成本去判断信息真伪性。当前,信息拥有者可以被划分为3个层次:信息的绝对拥有者、相对拥有者和不拥有信息者。信息绝对拥有者将既有信息看作是自己的私有资产,阻碍其他主体对信息的收集和使用,进一步增加了信息劣势者获得信息的成本。同时,信息所有者基于隐私权保护之故也不愿意将自己的信息公之于众。如此,信息的不对称导致社会治理主体难以获得治理对象的有效信息。掌握人工智能优势信息主体权利义务的失衡或许会进一步加剧信息失灵,由于此类信息失灵,从而会增加社会治理的信息成本。


  第二,挑战社会的法律治理模式。人工智能以大数据为基础,以深度学习的方式不断进行自我学习和自我突破。人工智能的出现使得法律的调整对象变得更加复杂。在某些方面,人工智能已经远远超过人类的能力,非现有的法律调整方式可以规制。以经济法为例,我国当前的《中华人民共和国产品质量法》不能完全有效地解决基于人工智能产品产生的法律纠纷。虽然不能把传统治理模式的不适应和转变看成人工智能的负外部性,但事实上这在某种程度上加剧了人工智能的负外部性。因此,人工智能正挑战着原有基于法律的社会治理方式、程序和手段。权利义务不匹配的传统经济社会治理方式和程序不仅不能有效地解决人工智能负外部性,而且可能使人工智能负外部性愈演愈烈,从而增加潜在的社会治理成本。


  3.人工智能负外部性的经济法检视


  人工智能在本质上是科技发展的结果。现实中不健全的法律制度在某种程度上“诱使”了人工智能负外部性的溢出,引发了人们对其安全问题的普遍担忧。考察现行有效的经济法律制度,可以发现只有《中华人民共和国中小企业促进法》这1部法律对“人工智能”进行了粗略的规定(第33条)。随着人工智能对社会经济关系的影响日益深入,以市场主体规制法律关系、市场秩序规制法律关系、宏观调控法律关系和经济监管法律关系等为主要调整对象的经济法,无疑发挥着激励人工智能正外部性与解决人工智能负外部性的关键作用。“蓬勃发展的人工智能产业尤其需要经济法的有效规制……对于其消极效应,应加以限制或禁止”[20]。但问题是,现有相对滞后的经济法难以有效解决人工智能的负外部性。所以,有必要从经济法视域来检视人工智能负外部性产生的具体原因。


  首先,基于经济法立法思维缺陷视角的分析。引起解决人工智能负外部性的经济法供给不足的因素之一即为经济法立法思维的供给不足。反过来,经济法立法思维的缺陷又可能使人工智能负外部性进一步加剧,进而导致人工智能负外部性难以有效地受到现实经济法的规制。现行的经济法渗透着单向度和滞后性的立法思维,没有对将来可能发生的人工智能问题作出该有的前瞻性和预判性的因应,如当人工智能产品侵害消费者的合法权益时,人工智能本身是否应承担法律责任。因此,如果经济法的立法思维跟不上人工智能的发展速度,必然无法有效解决人工智能负外部性问题,而只会进一步导致分配不公平、信息不平衡、秩序不稳定等社会问题。


  其次,基于经济法适用领域视角的分析。现有经济法不是因人工智能而生,因此不会、也不可能完全适用于规制人工智能。而问题在于,对人工智能能进行有效规制的经济法尚处于缺位状态。例如:不完善的人工智能市场准入制度使得部分市场主体无法进入人工智能领域,从而导致市场竞争不足,最终会出现社会初次分配不公平的负外部性;不健全的人工智能市场监管制度无法适用到人工智能领域,也无法抑制人工智能负外部性;不健全的人工智能信息披露制度,使得原有的信息不对称的负外部性更加突显;不清晰的人工智能市场主体责任制度可能导致人工智能相关主体出现系统性规避责任的情形,如当服务型机器人对第三人侵权时,不论是机器人、所有者、销售者、生产者还是研发者都可能出现相互推诿法律责任的情形。


  三、人工智能负外部性经济法规制的路径选择


  法律作为控制社会的主要手段,对历史发展的影响绝对不亚于历史发展对法律的影响[21]。对于人工智能的目前现状来说,立法宜粗不宜细。人工智能涉及众多社会关系,不可能由某一部具体的法律就可以进行有效的规制,而只能由多个法律部门共同调整,最大程度地发挥各个部门法规制的边际效应,保障人工智能朝着有益于人类安全的方向发展。在鼓励人工智能发展的当下,立法应当树立开新意识,以发展开放的思维为指导,以中立审慎的态度持续推动经济法对人工智能负外部性的规制进程。从经济法视域来看,当前应该重点完善人工智能的市场准入制度、市场监管制度、信息披露制度和主体责任制度。


  1.完善人工智能市场准入制度


  人工智能市场准入制度是国家为了克服人工智能市场失灵而实施的、依据一定的规则允许人工智能市场主体进入具体人工智能市场的干预制度。根据人工智能的不同发展状态和阶段,人工智能市场准入宜相应地灵活选择适用放松规制、强制规制和综合规制方式。由于人工智能涉及不同行业和领域,而且对立法需求程度不一,因此没有必要建立统一的市场准入规则。建议可以根据人工智能在该领域的特征予以单独立法,具体可以从准入主体制度、准入范围制度和准入程序制度进行完善,以解决人工智能的负外部性。


  (1)完善人工智能市场准入主体制度


  从市场准入主体制度上抑制人工智能负外部性是一个极具有实践操作性的路径选择。人工智能市场准入主体制度解决了哪些市场主体可以进入该市场的问题,进而可以避免由于不当进入人工智能市场引起的人工智能负外部性强烈冲击现有法律和社会秩序的情形发生。从现行的法律来看,市场准入的主体一般是法人、其他组织和个人。对于一般的人工智能市场,只要符合法律的一般性规定,即法人、其他组织和个人都可以进入。为激励人工智能的正向发展,这种人工智能市场准入主要有赖于民商事法律制度的宽泛确认。而对于经济性市场、社会性市场和垄断市场等特殊人工智能市场,如类脑研发、高级医疗智能器械等,立法应该制定更高的市场准入标准(参见表1)[22],以保证现有企业的正外部性供给即鼓励公共产品的生产。如此一来,人工智能市场主体资格的明确可以有效地减少“经济人”带来的道德危机。


  人工智能所依赖的大数据可分为公共数据库和私人数据库。政府主要承担公共数据库资料的收集以及接口的完善,一般市场主体都可以进入公共数据库,同时要求使用公共数据的主体进行时进行即时电子化登记。涉及国防、金融安全等敏感数据的使用时,相关主体需要到实体经营所在地获得许可并且备案,便于人工智能监管主体进行常规检查和临时抽查。这样既可以有效保证一般市场主体在同等条件下进入并进行市场竞争,防止带来社会初次分配不公,又可以降低社会治理信息成本。


  (2)完善人工智能市场准入范围制度


  符合国内人工智能一般市场准入主体资格的,除非按要求需强制行政许可外,市场主体可以根据法律规定自由进入人工智能交易市场,以实现自由交易和人工智能资源共享。对于国内经济性市场准入、社会性市场准入和垄断性市场准入,除非法律有明确禁止性规定,立法应该允许部分主体先进入适当的人工智能市场领域。在法律允许的范围内,人工智能市场主体应当积极提供就业岗位。这样可以有效解决就业机会减少带来的负外部性,进而化解社会分配不公导致的矛盾。


  充分的国际合作为我国有效应对人工智能国际市场的负外部性营造了有利的环境。人工智能立法不仅要建立科学合理的国内市场准入制度,更应该加强国际合作。在国际人工智能市场准入方面,应当尽快完善《中华人民共和国对外贸易法》等配套法律法规,如《中华人民共和国对外贸易法》第十六条第四款规定:“国内供应短缺或者为有效保护可能用竭的自然资源,需要限制或者禁止出口的”,应当动态调整并且及时公布限制进出口的货物、技术项目。我国应当积极加入国际性人工智能协会,主动参与人工智能市场准入规则的制定。通过划定国内人工智能一般市场、特殊市场以及国际人工智能市场准入范围,使得某一个具体的人工智能市场主体能够准确找到对应的市场领域。这样,人工智能研发者、生产者和销售者既能减少不必要的要素支出,又能从侧面降低人工智能市场负外部性。进而,抢抓人工智能之“机”即激励其正外部性和转化人工智能之“危”即解决其负外部性。


  (3)完善人工智能市场准入程序制度


  要解决人工智能市场准入法律问题,准入程序是关键环节。人工智能市场准入程序应当根据人工智能市场的准入范围而灵活构建。除了法律规定的保留事项之外,应当对我国现行的500项行政审批项目进行仔细筛查与分析。对于其中确需行政审批的人工智能项目,应当继续实施强制许可制度;对于不适宜保留的行政许可则可以改为普通登记备案。同时,我国法律应当鼓励人工智能市场相关主体主动申请备案,例如法律可以对主动备案的市场主体简化准入程序环节并给予政策优惠等激励。一般的人工智能附属产品可不经审批或者登记备案直接推广使用及自由交易。这样,主动优于被动的准入程序制度就能发挥其激励功能,有效抑制人工智能市场主体准入程序中的负外部性。


  涉及社会型、经济型等特殊人工智能市场,我国应当实施特殊强制许可制度。即使符合准入资格的人工智能市场主体,也必须经过相关审核主体的最终审核才能进入特殊人工智能市场。同时,严格规范这种类型的人工智能市场主体的准入程序,严格禁止不符合法律规定硬性指标的市场主体进入特殊人工智能市场。同时,宽松的一般准入程序与严格的特殊准入程序相辅相成,不可随意变更。另外,建立健全人工智能市场准入分流程序制度,提高人工智能市场准入制度的规制效率,也是解决人工智能负外部性的有效路径之一。


  2.完善人工智能市场监管制度


  所谓市场监管,是指市场监管主体对市场活动主体及其行为进行限制、约束等直接干预活动的总和[23]。我国《“十三五”市场监管规划》对人工智能市场做出的整体监管规划,给广大市场主体一个清晰的信号和稳定的预期。综合监管与行业领域专业监管、社会协同监管分工协作、优势互补、相互促进的市场监管格局对于解决人工智能负外部性具有非常重要的意义。在上述法律监管之下,政府应鼓励企业在法律允许的范围内发展人工智能产业,主动内化人工智能发展过程中的负外部性。因为法律监管既涉及制度风险的消解和道德危机的化解,又涉及社会治理成本降低和社会公平的维护,所以,我国更应该注重人工智能监管体系的建立健全。


  (1)完善人工智能行业的监管制度


  电气类专业(包括电气工程和自动化等相关)就是关于电气控制方面的专业;专业的目标就是怎么让机器自动运行,就是人们常说的“智能化”,机器能够自己根据环境变化调整工作。PS:电气并不是电器,它包括了所有的用电的设备。这个概念相当的广泛,只要是用电的就是电气,只要是用电控制的就是电气控制。在某些层面上看,电气工程的先进水平暗示着我国的科技发展水准。所以,电气工程的有关教育与相关工作的展开一直被视为重中之重。


  (2)完善人工智能多元化监管制度


  建立具有可操作性的多元化、综合性预防监管体系,有助于降低新型制度风险带来的人工智能负外部性。综合性预防监管体系需要实行多元化的法律监管制度,而监管方式又是监管制度中不可或缺的重要组成部分。现有法律监管的主要方式涉及取缔营业执照或资格、要求缴纳保证金、纳入负面清单和交纳保险等。但现有监管方式并不能直接运用到人工智能领域的监管。人工智能监管制度的主要目的是防范人工智能的风险,而风险主要来自两个方面:产品本身的风险和制造者的风险。针对制造者产生的风险,可以继续沿用传统的监管方式;而对于人工智能产品产生的风险,可以在传统监管方式的基础上,尝试性采用预先强制性认证、保险等。例如对于无人驾驶机动车,可将汽车的销售与责任保险捆绑在一起,保险费则依生产商、汽车类型、所有者或者使用者的情况来定[24]。使用者和保险方则可以对“无人驾驶汽车”这类人工智能产品进行外部性监督,这样就可以在一定程度上解决人工智能负外部性。另外,还需要创新人工智能的监管模式,即充分利用人工智能企业的技术和数据分析优势,积极开展合作,不断强化事中事后监管[25]。还可适当赋予人工智能自治组织自治权,允许人工智能协会或者行业组织积极建立统一的监管标准和行业道德标准,从而引导人工智能企业在符合人类整体利益和道德伦理基础上,研发和应用人工智能技术。


  3.完善人工智能信息披露制度


  法律不仅为私人经济活动,也为国家对经济的干预设定规范,既提供渠道又施加限制。信息披露制度是经济法规制人工智能负外部性的重要内容。拓宽人工智能的信息披露渠道是人工智能相关者获取关键信息的重要途径,也是降低人工智能信息失衡负外部性不可或缺的重要一环。要使人工智能负外部性透明化,健全与人工智能相关的信息披露制度无疑是经济法解决人工智能负外部性必须考虑的关键问题。因此,随着大数据的广泛传播,我国有必要出台专门的人工智能企业信息披露制度。


  (1)确立人工智能信息披露原则


  社会整体利益要求义务主体合法披露人工智能产品的即时信息,即告知社会公众人工智能产品的操作方法、产品参数等信息。人工智能信息的披露义务主体必须在信息披露原则的指导下,以合适的方式披露人工智能产品有关信息来保障社会公众的知情权。社会公众一旦有完整准确的人工智能产品信息,那么其就有更多机会监督人工智能企业。人工智能信息披露原则主要包括及时性原则和真实性原则。第一,及时性原则。人工智能信息披露的首要原则就是及时性原则,这根源于人工智能信息的快速传播。人工智能的特殊性要求相关义务主体披露的信息必须完整及时,以解决人工智能信息不及时的负外部性。在借鉴银行监管的及时性要求时务必明确,只有及时的信息才具有法律监管的相关性,因此应该以足够的频率和及时性提供信息。第二,真实性原则。人工智能信息披露义务主体应当基于对人类整体安全真实披露涉及的真实数据。研发生产人工智能相关产品的主体都是信息披露义务主体,披露的信息必须与人工智能实际使用的参数一致,不得虚假记载、误导和欺骗。同时,政府作为人工智能主要的监管主体,务必将人工智能的基础信息准确告知社会公众。


  (2)建立人工智能信息分类披露制度


  可以将人工智能相关的产权信息、研发信息等按照一定的可以分为一般信息和特殊信息,法律应当明确规定这两类信息各自的披露义务主体、披露内容和披露程序。信息披露义务人可以定期披露特殊信息,但是对一般信息则必须履行连续披露义务。比如无人驾驶汽车的智能技术备案属于一般信息,生产厂商应当在机动车进入消费市场后连续披露相关参数。按照人工智能涉及的信息与社会价值、环境价值、经济价值的重要性,可以将其分为3层(如表2所示)[26]。按照这3层信息涉及的信息拥有者来设计分类分层的信息披露制度。


  基础信息具有广泛性、全面性的特点,而且带有“公权”色彩,该部分主要由政府、政府组织和非政府组织收集,具有一定公共性。针对第一层信息,政府可以建立公共数据库,明确政府和非政府组织的披露义务。第二层信息的拥有者在一定程度上带有“经济人”性质,如算法等关乎商业秘密的核心信息不必主动向社会公众披露,但是应当建立严密的资料信息库。第三层信息的披露义务主体是各类营利性组织,允许其保留核心信息,但涉及人工智能使用者的产品参数、操作方法等应当标注清楚。通过要求不同的信息拥有者从不同程度按照法律法规的要求进行信息披露,从而达到分层解决人工智能系统信息失衡负外部性的目的。


  4.完善人工智能主体责任制度


  弱人工智能引发的法律责任是其负外部性所致的最终结果,实质上仍然是人类的法律责任,大部分类似于当前的产品质量责任或产品侵权责任。因此,明确各主体的法律责任是维护社会公平秩序,优化社会治理模式的最后一道防守线。强人工智能基于深度学习和大数据能独立做出决定,这使得社会主体很难识别法律责任主体。所以,关于强人工智能的责任分担问题,我国首先应当借助既有的法律制度,同时前瞻性地对部分内容进行调整以应对人工智能的发展之需,待到条件成熟后再建立全新的系统的法律规则体系,从法律责任的分担规则上真正解决强人工智能的负外部性。


  (1)完善弱人工智能责任制度


  弱人工智能的责任分担类似于产品质量责任或产品侵权责任。首先需要明确相关主体的法律责任分担,以便保障受损消费者的合法权益和维护人工智能市场的良好秩序。现有的人工智能技术大部分规定是依附在具体的实物上,即为实物的构成部分,因此可将其法律责任的分担视作产品质量责任的分担。现行的《中华人民共和国产品质量法》大部分是对生产者和销售者的义务性规定,该部分规定可以继续适用。在归责原则上,对生产者仍然可以继续适用严格产品责任原则,而对销售者适用过错责任倒置原则。销售者在对销售附有人工智能技术的产品进行举证时,法律不应该太严苛,只要符合一般人的产品注意义务即可。是否有必要将独立的研发主体纳入产品责任原则的适用体系中,需要进一步的探究。另外,笔者认为立法上可以考虑将人工智能侵权作为独立的侵权形式补充到《中华人民共和国侵权责任法》中。若与《中华人民共和国产品质量法》重合,则采用特殊法优于普通法方式来确定最终适用的法律法规。在责任的承担方面,可以继续沿用《中华人民共和国民法总则》第一百七十九条的规定,而违反刑法的,还应当承担相应的刑事责任。


  (2)建立强人工智能责任制度


  强人工智能虽然并没有完全出现于当前社会中,也没有弱人工智能阶段的社会关系复杂,但它客观上形成了部分需要法律调整的特殊社会关系。因此,对强人工智能发展过程中可能产生的负外部性,立法者在分配法律责任时,应当坚持下列原则:一是立法者应当保持一定的克制,不宜仓促地出台法律以免阻碍智能制造的动态发展,毕竟人工智能产业属于国家发展战略而不是一般产业;二是严格责任或者连带责任的适用与否必须在考虑人工智能对经济影响的基础上进行进一步的论证,即初期应当有所限制,甚至在必要时可以选择适用产品质量责任之发展风险抗辩制度;三是智能制造网络的参与者必须可以被识别,这是判断合适的责任承担者的前提和基础[27]。为了人类社会的长远发展,立法应当根据本阶段人工智能负外部性的实际情况,可以在法律上将人工智能主体拟制为限制行为能力人以承担相应的法律责任。这种行为归责类似于将公司拟制为独立的法人主体行为。还可以用法律形式为高级阶段的人工智能体创设监护人(比如使用者)。若发生人工智能体对监护人侵害权益时,监护人是否可以直接适用既有的产品质量责任,这有待于深层次探讨。如果人工智能体实际发生对监护人以外的第三人侵权时,先规定主要由监护人承担法律责任。当监护人无力承担法律责任时,限制或剥夺该人工智能体的自由可能也是一种可行的法律责任承担方式。这样就从责任分担上解决了强人工智能负外部性。


  四、结论


  人工智能不仅是科技创新,更是第三次工业革命核心技术驱动力的科技革命。人工智能既给人类社会带来新机遇也带来新挑战,因此,人工智能的不确定性导致其“危”“机”并存。发展人工智能时成果与代价同在,利益与风险并存。弱人工智能应用和产业已经在多个领域取得重大发展。根据目前的发展态势,强人工智能时代也可能快速来临。我们应当以开放的心态、审慎的态度正视智能革命时代的到来,在享受其带来的正外部性时也应当透彻分析和解决人工智能的负外部性。因此,为抢抓人工智能之“机”即激励其正外部性和转化人工智能之“危”即解决其负外部性,需要完善的经济法进行因应。


  就目前而言,人工智能的负外部性的主要影响体现为冲击现有法律秩序、弱化制度的调整功能、增加社会治理主体的信息成本、挑战既有社会治理模式等。因此,深入了解人工智能负外部性产生的根源,对人工智能负外部性进行经济法检视及经济法规制路径的完善和创新,是当前研究机构和实务部门的迫切任务。充分发挥经济法的激励功能和约束功能,有助于人工智能负外部性的良性解决。当然,法律方式只是伦理方式、道德方式等众多对人工智能负外部性规制手段中的一种,仅仅依靠法律方式既不可取,也不可能全面实现其初衷。因此,为了充分发挥经济法对人工智能负外部性的规制功能,法律制度需要和道德、伦理相结合。另外,经济法对人工智能负外部性的转化过程并非一蹴而就,匆忙立法也非明智之举。因此,应当寻求理论张力与现实约束下的允执厥中,在检视现有经济法的基础上,本着中道务实的态度,因时制宜地重点完善人工智能市场准入制度、市场监管制度、信息披露制度以及主体责任制度。人工智能只有在法治轨道上循序发展,才能确保其安全、可靠、可控并实现基于“人机命运共同体”的符合人类社会根本利益的发展,也才能实现国家战略与包容发展、商业利益与社会责任、国际竞争与人类安全的平衡与协调,也才能为以完善的法律制度提升全球人工智能治理制度性话语权提供中国智慧和中国方案。

相关文章
学术参考网 · 手机版
https://m.lw881.com/
首页