第三节 解决安全问题的外部进路
一、科学家的社会责任与国际合作
跟其他高新技术一样,人工智能是非常专门化的科技知识。人工智能科学家与工程师是人工智能技术的研发者,他们是化解安全问题的主体,应该从“消极责任”和“积极责任”两个方面强化人工智能专家的专业责任。积极责任强调人工智能专家应该做什么,如何通过技术手段来保证人工智能的安全;消极责任则关注当人工智能出现负面影响或严重后果时,应该由谁来承担相应的责任。从积极责任的角度看,鉴于人工智能发生安全问题后果的严重性,专家们在研发时更应该谨慎,不能仅仅追求经济利益,或者一味迎合客户需要。从消极责任的角度看,当人工智能系统出现错误时,专家应该承担相应的责任,而不是把责任归咎于人工智能本身的不确定性与复杂性。从某种意义上说,解决人工智能安全问题的首要因素并不是人工智能技术本身,而在于人工智能专家的责任心。据报道,谷歌集团专门设立了“人工智能研究伦理委员会”,日本人工智能学会内部也设置了伦理委员会,希望这些机构能够在强调科学家的社会责任以及指导科学家合理研发人工智能等方面起到应有的积极作用。
同时,人工智能安全问题不仅仅是一个地区或组织的问题,各国政府和国际组织应该是协调人工智能安全问题的组织机构。目前,世界各国竞相加大对人工智能的投入力度,这当然无可厚非,但同时也应该划拨专门经费用于研究人工智能的安全与控制问题,政府经费和人力资源的投入是该问题得以解决的关键。另外,国际合作在解决人工智能安全问题中将起到举足轻重的作用。前述提到的人工智能的发展与应用限度、安全标准与规范等问题,只有落实到具体的制度上才有意义,而只有国际组织才能实现这样的目标。从责任伦理的角度看,应当明确科学家共同体、政府与国际组织各自的责任,避免所谓“有组织的不负责任”的现象。近些年来颇为流行的“全球治理”理论研究与实践探索,为在世界范围内就人工智能安全问题进行国际合作提供了很好的平台与基础。鉴于人工智能安全问题的全球性特征,只有在基于全球治理的框架协议指导下,人工智能技术才能真正实现健康发展。
近些年来颇为流行的“负责任创新”(responsible innovation)概念为科学家更好地承担社会责任与服务公众提供了理论依据与实践进路。负责任创新是在认可创新行为主体认知不足的前提下,在预测特定创新活动可能负向结果的范围内,通过更多成员参与与响应性制度建立,将创新引导至社会满意与道德伦理可接受结果导向,以实现最大限度的公共价值输出。有学者认为,虽然人工智能研究者经常强调负责任研究的重要性,但目前关于人工智能社会影响的研究大多集中关注某个特定的应用领域,对其他领域的研究者而言几乎没有指导意义。而且,相关的研究主要关注于某一时期人工智能的特定方面的问题,并未深入整合人工智能领域的创新过程。为了实现人工智能领域的负责任创新,可以从以下三个相互联系的方面入手:考查人工智能设计过程中的社会语境与决策意义;反思关于理论研究与应用研究的权衡,以及应用领域的选择;与公众互动,了解他们关于人工智能的愿望,告知他们应该了解的信息。2019年6月,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,突出了“发展负责任的人工智能”这一主题,足见我国学者对该问题的高度重视。
二、公众的接纳与伦理参与
人工智能安全问题,既有客观的一面,也有主观的一面。客观的方面主要指人工智能技术本身的安全,主观的方面则来自人们对人工智能安全性的直觉、主观感受或体验。人们热爱科学技术,是因为科技能够让我们生活得更幸福、更舒适。但是,当科技在可能带给我们幸福快乐的同时,也会增加潜在的严重危害,这样的科技显然不是我们想要的。而且,随着信息技术的快速发展,人们对科技风险的感知能力以及科技的传播速度得到很大提升。与人工智能专家对目前人工智能技术普遍乐观的态度相反的是,公众和人文学者大多对人工智能抱有一定的疑虑。公众对人工智能安全问题的感知本来就有非理性的因素,这是非常自然的现象。事实上,假如人工智能产品出现安全性问题,公众是首当其冲的受害者。
毫无疑问,我们应该把公众对人工智能的担忧与恐惧纳入人工智能安全问题考察的范围,尽可能通过对话、讨论等方式进行解决或缓解。人工智能产品如果要走向商业化,最终需要公众的理解和接纳。在某种程度上说,科学家是人工智能安全问题的制造者,而公众在使用人工智能产品的过程中自然成为风险承担者,科学家有责任也有义务向公众开展解释工作。虽然人工智能专家普遍认为公众不需要为人工智能的安全感到担忧,但他们一般也不反对将人工智能的技术细节向社会公开,并向公众进行详细解释与说明。当然,人工智能专家把技术性细节向公众解释清楚也并不是那么容易的,因为一般公众对技术性语言的理解存在一定困难。如何让技术专家在与公众对话的过程中,使公众能够真正明白人工智能的相关问题,从而建立起相互信任的关系,需要技术专家们付出大量的努力。
从科学家的角度看,当前人工智能的安全性问题并不是技术问题,可能主要是公众对人工智能的信任与否或信任程度的问题。一般来说,公众对人工智能研发过程参与得越早,参与过程越长,获取的信息越多,双方的沟通就应该越有效,相互之间的信任关系也就越容易形成。目前,这方面的交流与沟通机制尚未建立起来,相应的工作需要得到人工智能专家的关注与重视。只有公众普遍接受人工智能,科学家才能实现让他们手中的科技成果为人类造福的目的。
现代科技及其应用对人类社会的改变通常是难以预料的,我们只能参考类似的科技以及充分发挥我们的想象力得以窥见端倪。学者们可以通过多种途径向公众说明智能社会的特点与生活方式,引导公众调整思想观念。21世纪是智能时代,人与智能产品的互动将会常态化,将来人类对人工智能的依赖,很可能就像现在我们对手机、电脑的依赖一样,我们大多数人可能只能选择适应。当然,公众在使用人工智能产品的过程中,也需要遵循相应的伦理规范,不能虐待、滥用。
负责任创新主要强调的是科学家的责任,但以上论证表明,解决人工智能的安全问题需要全社会的共同努力。贾萨诺夫(Sheila Jasanoff)指出,专家的想象通常受到他们专业知识的限制,他们对已知的关注远高于对未知的关注。因此,专家的预测通常强调短期的、可计算的和无争议的影响,而忽略那些被认为是猜测的、牵强的或有政治争议的方面。她倡导公众参加(public participation)或者用最近的术语——公众参与(public engagement)技术决策过程,让公民有机会和科学家、工程师和公职人员一起合作,来构想一个更具有包容性的技术未来。与此类似,米切姆(Carl Mitcham)强调科学家与非科学家公民之间进行对话,推行一种社会共同责任(co-responsibility)。虽然多层次的对话在科学伦理的实践中并非没有,但应该得到深化与加强。
胡明艳用“伦理参与”来表示这一过程,即以责任伦理的理念为导向,通过各种协调机制和程序,让伦理的维度参与到新兴技术发展的实际过程之中,以便共同应对新兴科技发展给人类带来的巨大的不确定性风险。事实上,公众参与的问题也是技术伦理学研究的基本内容,不少学者就公民参与的必要性、有效性等问题进行了研究。比如,为了保证公民参与的有效性,需要保证参与讨论的人士与团体一律地位平等,在没有外部胁迫的情况下公开亮明自己的利益诉求和价值观念,并通过论据和理由的交流求得共同的解决方案;政治家与管理部门的专业人士不能把民众参与的形式看成多余的履行职责,而是看成对自身工作的助益,等等。
三、人工智能安全评估与管理
正如杜威所言,“一个人之所以是有智慧的,并不是因为他有理性,可以掌握一些关于固定原理的根本而不可证明的真理并根据这些真理演绎出它们所控制的特殊事物,而是因为他能够估计情境的可能性并能根据这种估计来采取行动。”随着人工智能发展水平的日益提高,对其可能产生的危害及其程度进行评估,对人工智能的研发过程与产品使用进行安全管理的重要性日益突显出来。安全评价“主要研究、处理那些还没有发生,但有可能发生的事件,并把这种可能性具体化为一个数量指标,计算事故发生的概率,划分危险等级,制定安全标准和对策措施,并进行综合比较和评价,从中选择最佳的方案,预防事故的发生”。可见,对人工智能系统的安全评估,可以使技术人员更全面地认识其研发对象的危险因素及危害程度,制定相应的解决措施,从而设计出更安全的人工智能系统。在工程技术中,安全评估是预防事故发生的有效措施,是安全生产管理的一个重要组成部分,在人工智能系统中引入安全评估是必然之举。同时,由于人工智能产品出现安全问题之前可能没有任何征兆,人们也普遍认为高科技产品的安全问题导致的后果是不可逆的,从而可能对相应的安全问题的严重性会做出偏高的主观评价。只有专业人员进行的安全评估,才可能缓解甚至消除公众的忧虑。
为了应对技术的不确定性,迪皮伊(Jean-Pierre Dupuy)等人提出了一种持续性规范评估(ongoing normative assessment)方法。这种方法希望在等待(直到为时已晚,如果后果是危险的)与行动(为时尚早,如果发展中的技术还没有产生影响)之间找到一种平衡的解决方案。迪皮伊等认为,考虑到技术选择可能产生的后果的重大影响,预料和尝试这些后果,对其进行评估,使我们的选择建立在这种评估之上,这是我们的绝对义务。评估是依据某些规范进行的,但规范并不采取某种特定的形式。也就是说,为了判断事实应用现有的某种规范,同时又根据新的事实更新现有规范与创立新的规范。持续性规范评估可以处理两种相反的情况:一方面,对于充分乐观的、可信的未来图景,就采取必要的行动去实现它;另一方面,对于可能发生的灾难,则采取行动阻止其发生。持续性规范评估要求对人工智能科技进行不间断地评估,并适时调整评估标准,强调评估行为与规范本身的原则性与灵活性,同时兼顾技术的正面与负面影响,应该是一种较为可行的技术评估手段。
从安全管理的角度看,福克斯(John Fox)提出的“危险的动态管理”对于提高人工智能系统的安全性具有启发意义。福克斯认为,为了提高医疗领域人工智能系统的安全性,静态的软件设计与验证和危险的动态管理两方面应该是互补的。虽然传统的安全工程在人工智能系统的设计中可以发挥重要作用,但即使是最优秀的管理程序在复杂环境中也不可能保证复杂系统的可靠性与安全性,因此智能系统在运作过程中应该具备监控危险的能力,当危险发生时可以进行相应的处理。我们可以把能够识别与管理潜在危险的智能系统看作独立代理系统(independent agent),与主系统同时运行。
福克斯的主张实质是让专门的人工智能安全管理系统来管理人工智能,这种思路对于解决人工智能的安全问题可能具有普遍意义。因为人工智能的部分能力已经超越了人类,如果完全让人类来进行安全管理,人类可能力不从心,更好的办法可能是交给专门的人工智能管理系统。由此,解决人工智能安全问题在一定程度上就转变成如何保证人工智能安全管理系统的可靠性问题。这种安全管理模式是否可行还需要详细论证,但至少提供了一种关于人工智能安全管理的解决途径。无论如何,在未来的智能社会中,政府、管理机构与科学家需要让公众相信,各种对人工智能的安全管理措施与手段是有效的。一方面是给公众一种心理上的安全感,另一方面在真正面临安全问题时也能够及时做出反应。