摘要:人工智能时代的来临引发一系列新的伦理与法律问题,亟需前瞻预判、审慎决策,及时应对其所伴生的风险与挑战。当下应当对人工智能的发展和应用施加必要的伦理约束与法律规制,注意弱智能向强智能演化给现有法律关系带来的影响,重视无人驾驶汽车、服务机器人等人工智能产品造成损害之际产品责任及责任保险从消费者向生产者的重心转移,健全和改进人工智能监管方式,防范自主武器系统的反人道法倾向。
关键词:人工智能;机器人;风险治理;法律对策
一、人工智能时代来临引发风险争议
2017年初,化名“Master”的人工智能棋手AlphaGo再现江湖,并以60局不败的战绩轻取中日韩围棋高手,舆论不禁发出“被人工智能支配的恐惧感席卷而来”的慨叹。其后,“百度险胜最强大脑”“Libratus战胜德州扑克顶级选手”“人机大战第2季柯洁败给AlphaGo”的消息接踵而至,人工智能的进化速度和发展水平令人惊叹,尤其是在德州扑克这样与金融市场及大部分人类面临的通用场景相似的不完全信息博弈中能够胜出,预示着人工智能更为可观的发展与应用前景。实际上,不仅在游戏领域攻城略地,随着硬件设施、大数据、人工神经网络和机器学习等支撑条件的不断增强,人工智能循摩尔定律和云计算迭代更新,技术水平与实用性能与日俱增,应用范围极其广泛,“从健康医疗、交通出行、销售消费、金融服务、媒介娱乐、生产制造,到能源、石油、农业、政府。所有垂直产业都将因人工智能技术的发展而受益”,从而给人们带来越来越多的便利和福利,一个日益影响人类社会生产、生活的“人工智能时代”正向我们走来。
如同原子能、互联网、纳米等先进科技一样,人工智能也是一把双刃剑。而且,作为影响面更广的颠覆性技术,如果发展利用不当,人工智能将会给人类社会造成巨大的安全与伦理风险。牛津大学哲学教授尼克·博斯特洛姆指出,从先驱者优势理念、正交性论点和工具性趋同论点出发,人类创造超级智能机器可能会导致人工智能的“背叛转折”,进而造成地球上智能生命的存在性危险,应当通过对人工智能进行能力控制和动机选择(价值观加载)避免厄运的出现。著名物理学家斯蒂芬·霍金也一再对人工智能的发展发出警告,呼吁必须取缔“机器人杀手”的研发和应用,并得到伊隆·马斯克、比尔·盖茨等科技界有识之士的支持。他们认为,人工智能发展如果不加控制、任由滥用,将不可避免地导致世界动荡、贫富分化、极权暴政乃至人类灭亡,出现科幻电影《终结者》中人类末日的景象并非杞人忧天。在此背景下,新一轮的“机器威胁论”经由围棋界的“人机大战”再次引燃和弥散。乐观派则对此嗤之以鼻,甚至还把霍金、马斯克以及盖茨列为“卢德奖”(美国一非政府组织设立的反对科技进步奖)的获奖者,认为他们通过对人工智能兴起的预测来搅动“恐惧和歇斯底里”的情绪。而机器学习的先驱、美国三院院士迈克尔·乔丹则认为:“霍金研究领域不同,他的论述听起来就是个外行,机器人毁灭人类的可能性,在几百年里不会发生。”2017年1月由未来生活研究院(FutureofLifeInstitute)组织“BenificialAI2017”的研讨会,会后发布了《艾斯罗马人工智能基本原则》(AsilomarAIPrinciples,也被业界称为“AI23条”),以确保人人都能从人工智能中受益,同时保证AI研究和发展的正确方向。国际专业技术组织电气和电子工程师协会(IEEE)发布了多份人工智能伦理标准。防范和化解人工智能的风险,是负责任地发展人工智能的应有之义,也正在成为越来越多人的共识。在我国国务院于2017年7月20日发布的《新一代人工智能发展规划》,明确指出了人工智能发展的不确定性对于就业、法律与伦理秩序、个人隐私、国际关系准则等带来的风险与挑战,要求通过制定法律法规和伦理准则等保障措施最大限度降低风险,确保人工智能安全、可靠、可控的发展。
二、人工智能法律研究的状况、影响与不足
斯坦福大学2016年10月发布的“人工智能百年研究”首份报告《2030年的人工智能与生活》显示,人工智能目前还不太可能带来迅雷般的变化,也肯定不会立即对人类造成威胁,它将给我们生活中的交通、医疗、教育等多种领域带来重大而渐进性的变革。变革孕育着机遇,也裹挟着风险,并给现有的伦理、法律与政策带来相应的冲击和挑战,引起了法学界、哲学与伦理学界等的广泛关注。西方发达国家和地区关于这方面的研讨起步较早,成效显著。欧盟亦于2012年起开启了第七框架计划“机器人法”研究项目,由多领域专家共同研究智能机器人衍生的法律、伦理问题。持续深入的学术研讨活动对政府决策产生了积极影响。联合国教科文组织也正在制定人工智能伦理准则以引导全球各地人工智能的健康发展。我国目前的人工智能企业分布密度和专利申请数量均居世界第2位,仅次于美国,并连续多年成为全球最大的工业机器人消费市场,服务机器人领域也有着广阔的市场空间。在政府层面,国务院发布的《中国制造2025》、《十三五规划》及3部委《机器人产业发展规划》中均将智能制造与机器人产业置于重要战略地位,2017年的《政府工作报告》更将人工智能明确列为战略性新兴产业之一。与西方相比,我国目前关于人工智能的法学研究尚显不足,较为系统深入的法学研究成果还相当匮乏。无论是与国外法学同行相比,还是与国内哲学、伦理学等其他学科相比,法学界对人工智能的关注与研究整体上还比较滞后。这或许是因为目前人工智能对于现实生活的影响和介入还不够深,关于人工智能法律问题的研究还缺乏强劲的实践动力。美国华盛顿大学助理教授瑞恩·卡洛呼吁,新兴的人工智能法(机器人法)应当汲取互联网法律发展的经验教训,如此才能避免当今互联网治理中出现的种种纰漏。不仅法学界有所警示,机器人学界同样有此洞见:“我们的法律体系必须积极主动地收集专业知识和必要的手段来预测我们的机器人未来,讨论安全、责任、公平和生活质量这些最关键的问题,并且为21世纪创造一个可行的法律框架,而不是对更加巧妙的机器所发现的新的法律漏洞一一作出反应。”准此以解,这种“可行的法律框架”,在法律效果上应当整体回应人工智能和机器人时代的法律需求,在外在形式上应当制定一部人工智能单行法并辅以配套的法律法规、法律解释及伦理准则,确保人工智能运行安全可靠,风险合理控制。可以预见,随着我国人工智能国家战略规划的发布,根据其中人工智能“三步走”的发展步骤及相应的法律保障措施的需求,我国人工智能的法学研究、制度储备及对外交流与合作将会进入一个较为集中、活跃和繁盛的时期。
三、人工智能的主要法律问题及其应对
人工智能是一种新型的技术工具,也预示着一种新的生产生活方式、“成为经济发展的新引擎”、“带来社会建设的新机遇”,但我国《新一代人工智能发展规划》也明确指出,“人工智能发展的不确定性带来新挑战”,引发一系列伦理和法律问题。这里的“不确定性”,一方面是指人工智能本身的不确定性———模拟人类智力对不确定性的客观世界进行认知推理的机器、系统或网络也具有不确定性,]另一方面是指人工智能发展与应用后果的不确定性。前者涉及人工智能或机器人的加害“行为”与损害结果之间的因果关系以及责任主体认定等具体法律问题,后者则影响着人工智能的伦理约束、法律地位、监管规制等一系列法律问题。以下举要予以分析。
其一,人工智能的伦理约束及其法治化问题。伦理与法律既有区别,又有联系,一些伦理问题本身也是法律问题,在人工智能领域尤甚。由于人工智能技术的应用越来越普及,人们的日常生活和工作也会更加依赖于数据、信息、算法和智能系统的选择与决策,比如医疗诊断、证券交易、司法裁判、无人驾驶等,而“脑机接口”更是直接把人脑与外部设备连接起来进行信息交换,从而形成“数据主义”对人类自由意志的侵蚀,更勿论强人工智能对于人类智慧的超越。但无论技术如何发展,维护人类赖以存续的人文精神、人格尊严,而不是为人工智能所替代或统治,应当是人类发展和利用人工智能的起点和终点。此外,人工智能应用中也会遇到一些具体的伦理问题,如自动驾驶中紧急避险的利益衡量、性伴侣机器人的伦理审查等。因此,在人工智能研发过程中,应当引入“机器伦理”,促进技术设计伦理由隐性向显性的变化,引导技术产品“负责任”地为人类服务。在我国,专门的人工智能立法尚待时日,但关于人工智能的相关案件已然涌现,迫切需要发挥法律解释的能动作用,将安全、公平等人工智能的基本伦理观念透过法律解释实现个案正义与法律决策的总体导向。
其二,与人工智能的伦理约束相关的另一个问题是其法律地位问题。人工智能的发展目前整体上仍处于弱智能(WeakAI)阶段,对其界定仍然是以机器———物来定义的。即使在这个阶段,人工智能系统与一般的物还是有所区别,尤其是服务机器人逐步深化人机互动的工作模式,日益接近家庭宠物或具有人格象征意义的其他物品,因此在法律处置上应有别于其他物。从发展的眼光来看,智能机器人全球研发日新月异,机器人本身通过联网和深度学习,正在以惊人的速度提升智能化水平,如美国科学家已发明出能够欺骗其他机器人乃至人类的智能机器人。人工智能能否具备自我意识和推理能力,从而进化到强智能(StrongAI)阶段,甚至达到或超越人类智慧,科技界、哲学界对此意见不一。但无论如何,人工智能的进化及其与智能增强(IA)、纳米技术、生物技术等的融合,将进一步模糊人和机器、主体和客体的界限,影响权利义务责任的配置和利益分配问题,应结合人工智能发展趋势以及哲学伦理学等思想基础认真研判。值得注意的是,有观点认为应为机器人创设独立法律人格以使其自负其责,欧洲议会的立法决议将其设置为“电子人”,以使其享有特定权利承担特定义务。这一取向虽显激进,但却直面人工智能的发展趋势,尤其是通用型人工智能平台的研发和应用不可不察。应当汲取人工智能独立法律地位争议中“肯定论”和“否定论”的合理因素,以强弱智能不同发展阶段看待机器人的法律地位问题,以合理分配各方风险和利益。
其三,损害赔偿以及可能涉及的刑事责任问题是人工智能研发者、投资者以及消费者最为关注的问题,也是影响未来服务机器人市场化的关键因素之一。应在损害救济、责任追究与技术发展之间寻求平衡,按照指令输入的节点分配生产者和消费者的责任,建立相应的保险制度和赔偿基金分担损失。但这需要建立起各类机器人分级登记管理制度和严密的机器人运行数据可追溯制度,以弄清到底在哪个环节和数据区域(包括省略的数据)出现的问题,从而倒逼机器人设计与制造的精细化管理。可借鉴日本经济产业省的立法建议,要求所有机器人“必须向中央数据库报告他们对计划帮助或保护的人造成的任何和所有伤害”。而今,无人机早已凌空飞舞,无人船也将泛波远洋,智能交通的新动向及其新问题值得理论界与实务界深入思考。
其四,除了横向的损害赔偿问题之外,对于人工智能的纵向规制与监管模式亦需与时俱进。美国华盛顿大学助理教授瑞恩·卡洛等人针对美国人工智能研发与应用缺乏有效监管的局面,建议在联邦层面设置一个统一的机器人委员会。人工智能目前整体上仍处于开发利用的初级阶段,各国政府都面临着如何平衡创新与风控的共同问题。我国人工智能与机器人产业发展方兴未艾,产业结构尚未定型,各类人工智能程序和智能机器人纷纷涌入市场,质量水平参差不齐,给个人隐私、公共安全带来一定的隐患,而且各类机器人分业管理,因而面临着准入检测与联合监管的现实需要。这些问题或近或远,或急或缓,随着人工智能的普遍应用将日益突显,需要我们慎思明辨、解疑释难。
科学技术是人类今天最基本的生活结构要素之一,在海德格尔看来,现代技术发挥着“去蔽”的作用,是一种真理的发生方式,但与此同时也可能给人类社会带来风险乃至造成人的异化,此于当前迅猛发展的人工智能同样适用。人类若要走出技术理性挖掘的深渊,从而与技术世界保持一种自由的关系,就要“踏上一条由事实本身出发而选择”的“沉思”的征途,应对人工智能技术本身的不确定性风险,并且通过伦理约束和制度建构发展对人类有益且有意义的人工智能。