人工智能伦理引论
上QQ阅读APP看书,第一时间看更新

第二节 解决安全问题的内部进路

一般说来,技术导致的负面影响(包括安全问题)主要由技术本身或人为因素造成的,相应的解决途径也可以从这两方面入手。因此,我们可以大致把解决人工智能安全问题的方法分为内部和外部两种进路。从内部进路看,我们至少有以下几种解决途径。

一、伦理设计关于“伦理设计”的详细内容参见第八章。

对人工智能产品进行伦理设计是解决其安全问题的基本进路之一。近十多年来,机器人伦理问题得到越来越多西方学者的关注。机器人伦理研究的主要目标,就是让机器人在与人类互动的过程中,具有一定的道德判断与行为能力,从而使机器人的所作所为符合人们预设的道德准则。从理论上看,根据人类预设的道德原则进行道德决策的机器人可以成为只做好事的“道德楷模”,而且在一定程度上还可以避免人们对其的不当使用、恶意利用或滥用。

美国学者瓦拉赫和艾伦(Colin Allen)认为,将来人工智能系统必定会独立于人类的监管,自主做出决定,他们把能够做出道德抉择的人工智能系统称之为人工道德行为体(artif icial moral agents,简称AMAs)。瓦拉赫和艾伦相信,在机器人身上实现人工道德,使机器成为道德行为体是可能的。他们为人工智能的道德抉择设计了三种实现模式:“自上而下的进路”(top-down approaches)、“自下而上的进路”(bottom-up approaches)以及混合进路。自上而下的进路是指选择一套可以转化为算法的道德准则作为机器行为的指导原则;自下而上的进路类似于人类的道德发展模式,通过试错法培养道德判断能力。不过,这两种方式均有一定的局限性。比如,第一种进路把一套明确的规则赋予机器可能是不合理的,同一种原理在不同的情况下可能会导致不同的相互矛盾的决定;Wallach Wendell and Allen Colin, Moral Machine: Teaching Robots Right from Wrong(Oxford: Oxford University Press, 2009), p.97.后一种进路要求机器能够自我发展进化,而人工智能系统的学习与进化能力的提高将会一个比较缓慢的过程。对于人工道德行为体的设计者来说,这两种进路都过于简化了,不足以处理所有挑战。在一定程度上,可追溯到亚里士多德的美德伦理学能够把这两种进路统一起来。一方面,美德本身可以清楚地表述出来,而它们的习得又是典型的自下而上的过程。Wallach Wendell and Allen Colin, Moral Machine: Teaching Robots Right from Wrong(Oxford: Oxford University Press, 2009), p.10.

瓦拉赫和艾伦为我们描述了使机器人成为“道德楷模”的可能性。如果他们以及其他类似的方案能够得以实现,人工智能系统就可以做出人类认为正确的道德决策。在人类的道德活动中,非理性因素(比如情感)也会起到关键性作用,瓦拉赫和艾伦也讨论了把理性和非理性整合到人工智能系统中的可能性。不过,我们认为,为了保证人工智能系统的安全性,我们可能希望在某些领域人工智能系统的道德判断更为理性和客观,并不需要增加过多的非理性因素。

虽然要真正实现对人工智能的伦理设计还有许多具体的工作要做,但是从机器人伦理研究的勃兴以及取得的初步成果来看,在人工智能产品中实现人工道德完全是可能的。人们也更容易相信,一个能够根据我们的预设做出合理的道德判断和行为的人工智能系统,对我们来说才是真正安全可靠的。

二、应用范围、自主程度与智能水平的限定

为保证人类社会的和谐稳定,人们通常对一些发展尚不成熟、容易引起安全问题与社会争议的技术的应用范围进行限定。自英国科学家首次成功克隆羊之后,科学家们又克隆出了牛、猪、狗等多种动物。但是,能否将克隆技术用于克隆人,是一个非常有争议的话题。一方面,克隆人会引发许多尖锐的伦理问题,学术界已经进行了非常激烈的争论;另一方面,克隆技术还不够完善和成熟。许多学者也认为,即使克隆技术发展得非常成熟了,我们也不能克隆人。因此,目前许多国家都明确立法禁止克隆人。

目前,人工智能的优势主要在于规则非常明确的领域,比如各种棋类竞赛。“阿尔法围棋”的胜利,说明人工智能拥有的超算能力和深度学习能力已经完全可以胜任对极大信息量的处理,在这方面人类智能已经远远落后于人工智能。但是,虽然“阿尔法围棋”拥有强大的学习能力,但它却只能用于学习围棋,不能用于学习新的任务,也就是不能触类旁通,而人类很容易将不同领域的学习经验进行自由转换。Gibney Elizabeth, “Google Masters Go,” Nature, 2016, vol.529, pp.445-446.虽然人工智能的学习与转换能力被认为是一种重要缺陷,但这可能正好是人工智能安全性的重要保障。如果人类不能确保很好地控制人工智能,那么将人工智能的功能控制在比较单一的情况下是合理的。也就是说,把针对棋类竞赛、专家系统、无人驾驶等开发的专门性人工智能的学习应用能力就限定在自身领域的范围内,一方面可以保证人工智能在各种范围内达到很高的水平,另一方面也可以避免人工智能过于强大而对人类造成威胁。

从公众的角度看,人们普遍希望把人工智能作为一种重要的工具来用,特别是在某些方面弥补人类智能的不足,或者说作为人类智能的重要补充,而不是希望把人工智能发展为整体上与人类接近甚至比人类更高级的智能。在研发人工智能的整个过程中,这种定位应该得以明确,而限定人工智能的应用范围可能是使这种定位得以贯彻的根本途径之一。

同样重要的是,我们需要限制人工智能的自主程度和智能水平。人工智能安全性问题的根源,可能并不在于它能否真正超越人类,而在于它是否是一种安全可靠的工具,人类是否对其拥有充分的控制权。就像高铁、飞机等交通工具那样,虽然它们的速度远远超过了人类,但人类拥有绝对控制权,所以人们相信它们是安全的。从理论上讲,一旦人工智能出现了安全问题,其危害可能是相当严重的,所以对其的控制就更为重要。而且,人工智能如果失控,人类想要再对其进行控制将变得极其困难。为了实现这一目标,首先需要对人工智能的自主程度进行限定。人们普遍认为,虽然人工智能发展迅速,但人类智能相对于人工智能而言,也有自己的优势,比如目前人工智能的认知能力还远不如人类智能。我们可以充分发挥人工智能在信息存储、处理等方面的优势,让它在一些重大事件上做人类的高级智囊,但最终的决定权仍然需要掌握在人类自己手里。比如,当我们把人工智能应用于军事领域时,我们可以利用人工智能来评估危险程度以及可以采取的措施,但是否应该发动战争、如何作战等重大决策,还是需要人类来做出决定。正如霍金斯(Jeff Hawkins)所说的那样,“对于智能机器我们也要谨慎,不要太过于依赖它们”,尽管霍金斯本人对智能机器的未来抱非常乐观的态度。霍金斯、布拉克斯莉:《人工智能的未来》,贺俊杰、李若子、杨倩译,西安:陕西科学技术出版社,2006,第224页。

与限定人工智能的自主程度类似,我们也需要对人工智能的智能水平进行某种程度的限定。虽然库兹韦尔的奇点理论受到了一些学者的批评,但从长远来看,人工智能是有可能全面超越人类智能的。从人工智能的发展历程来看,尽管它的发展并非一帆风顺,但短短六十余年取得的巨大进步让我们完全有理由相信将来它会取得更大的突破。从世界各国对人工智能高度重视的现实情况来看,想要阻止人工智能的发展步伐是不现实的,但为了安全起见,限定人工智能的智能程度却是完全可以做到的。

三、安全标准与准入制度

成立“人工智能安全工程”学科或方向,建立人工智能强制性安全标准与规范,确保人工智能不能自我复制,以及在人工智能出现错误时能够有相应的保护措施以保证安全。比如,人们对人工智能安全问题的担忧的另一主要根源在于,人工智能的复制能力远胜于人类的繁衍速度,如果人工智能不断地复制自身,人类根本无法与其抗衡。因此,在人工智能的安全标准中,对人工智能的复制权必须掌握在人类手中,同时对机器人的数量进行必要的限制。

建立人工智能安全许可制度,只有某种人工智能产品达到安全标准,才允许进行商业推广和使用。有学者建议由专门的监管机构根据某些规则和标准在人工智能系统审批认证前进行测试,测试完成后,人工智能的开发者再向监管机构提出审批认证申请。监管机构的主要工作是判断人工智能系统是否符合申请标准,比如是否会导致人身伤害、目标是否一致、能否确保人类的控制等。为了使相关工作顺利进行,可以建立流水型的审批流程。谢勒:《监管人工智能系统:风险、挑战、能力和策略》,曹建峰、李金磊译,《信息安全与通信保密》,2017年第3期。

人工智能安全问题从源头上看是由人工智能技术造成的,这应该使科学家认识到,科学技术研究并不是无禁区的,我们需要理性地发展人工智能。技术的发展成熟固然是解决安全问题的关键因素,但任何技术都有不确定性,而且科技产生的问题通常不能仅仅依靠科技本身得到圆满解决。因此,解决人工智能安全问题还需要充分发挥外部进路的重要作用。