主页 > H佳生活 >AI威胁人类安全「三大立场」:Nick Bostrom、Gr >

AI威胁人类安全「三大立场」:Nick Bostrom、Gr


AlphaGo战胜人类围棋冠军,比2012年评估「快了一半」时间达成

柯洁一如众人所料再次败给AlphaGo,虽然这属于棋类游戏的比试,但意义深远。原本在2012年,由于称为「禅」系列的围棋程式使用「蒙地卡罗搜寻树」(Monte Carlo Tree Search)运算方式,已达到业余六段的级数,当时有人粗略评估大约10年后(2022年),人工智能(AI)电脑便可打败人类围棋世界冠军,现在我们知道,时间比原先预计的缩短了整整一半(快了5年)。

即使AlphaGo只属于「弱人工智能」(Weak AI),可是无论在游戏上抑或冲击职场,已叫人无法轻视。亦因为短期内我们目睹「弱人工智能」的威力,更触发不少人提早思考长远人工智能对人类的不同影响。

这是《麻省理工科技评论》(MIT Techonology Review)主编询问领导Google人工智能研究詹南德雷亚(John Giannadrea)的问题。

这个问题一点也不好答,正如我们不久前才知道预估人工智能战胜世界冠军的时间,也有相当的落差。如果说更讽刺的例子,像罗素(Stuart Russell)举物理学家拉塞福(Ernest Rutherford)自信表示:「预期我们将有改变原子的能量,那是癡人说梦。」结果相隔一天,9月12日物理学家西拉德(Leo Szilard)成功藉中子诱发核能连锁反应。

我们没必要苛求任何人能够精準预测未来,讨论人工智能未来会否威胁人类安全,它的意义在于中性而理智的「风险评估」(Risk Assessment),从探索可能性中制订审慎的做法,并不是纯粹虚谈乐观与悲观,或製造不必要的恐惧。不过,这是个非常庞大又不好应付的话题,你不但要与时并进掌握AI当下运作的基本原理与智能程度,也要前瞻预估它未来的「可能性」,同时又要对人类大脑有一定认识,以及对道德与生命意义有所思考。或许,只要我们不苛求「每一点」都有专家级的深入认识,概括掌握大方向亦未尝不可。

立场一:Nick Bostrom戒惧「强人工智能」

明显戒惧人工智能的人物,撰写《超智慧(Super-Intelligence)》一书的尼克.伯斯特隆姆(Nick Bostrom)可说不得不提。先说清楚,他有把「超智慧」(superintelligence)一词作出区分,最广义而言,他只反映「某一方面」人类无法做到的智能,譬如蝙蝠转译声纳讯号也是一种「超智慧」,这还算不上要戒慎恐惧。他强调的是「速度超智慧」(Speed superintelligence):

「速度超智慧最简单的例子,就是在快速硬体上运作的全脑仿真。一个比生物脑快上一万倍运作的仿真,可以在几秒钟内读完一本书,并在一个下午写完博士论文。如果速度可以快上一百万倍,它就可以在一个工作日内完成整整一千年的智慧工作。」

这样的层次,才比较接近许多人谈论「强人工智能」(Strong AI)或「超级人工智能」(Super AI)。伯斯特隆姆认为,如果对比人类与黑猩猩的大脑,也只是结构上複杂程度有「部分」差异,但这一部分差异足以影响人类与黑猩猩「所能做到甚幺」,相当于人工智能有一天达到「速度超智慧」的境界,它的智能在运算与达到目标的能力远非人类所企及,先别论它有没有某种自主的动机刻意伤害人类;难道,你不会担心它为达到「以为人类想要」的目标,过程中不惜伤害人类吗?就是为求目的不择手段的情况发生,而它拥有如此强大的力量,那怎幺办?正如人类也「能够」找出网络安全漏洞,从而进行各种攻击。

伯斯特隆姆的说法并不新鲜,而且有不少问题

最后,他提出两种方向,除了製订一些安全的设备规範人工智能电脑,以保障人类安全之外,就是日后尽可能让人工智能在达成目标「X」之前,确保它完整地掌握与目标相关的价值与意义,而非只求用一切方法达到目标则可。另外,就是尽可能让人工智能学习人类的道德价值 / 思考。

其实,他说的方向万变不离其宗,如数学家维纳(Norbert Wiener)在1960年所言:「如果无法有效干预执行特定任务的机器,那最好确定当初交付它的目标是我们想要的。」

也像罗素以往提及人工智能安全问题的三项重要原则(虽然略嫌简化):

机器的任务目标必须为实现人类的价值观机器不能完全确知(或断定)人类真正的价值观为何机器必须藉由观察人类的选择来学习人类价值观(确保掌握人类的多元价值)

只是,笔者认为伯斯特隆姆未能自圆其说的地方是,如果人工智能真的达到「速度超智慧」的水平,你如何肯定它必「不具备」一定程度的自我意识(self-cognition)?又,你如何肯定它「不能够」违反人类希望它遵守的原则 / 规範?如果它欠缺上述两种能力,还算不算达到「速度超智慧」的水平?已别说人们依然争论不休的「道德实在论」(moral realism)问题了。

立场二:Grady Booch认为不要杞人忧天,人工智能技术会让人类活得更好

好了,这个问题上,站在另一个极端的人是IBM Watson/M的首席科学家格雷迪(Grady Booch)。他反驳伯斯特隆姆危言耸听般的言论,令人过于恐惧人工智能的威胁,说法是杞人忧天。他说以往我们因为技术进步而心生「不必要」恐惧的例子太多,无论是汽车抑或电话刚被发明出来时,人们都想像许多恐惧。

在格雷迪眼中,人工智能是强大的好助手,应把它的意义理解为有助人类「扩展智能」(Augmented Intelligence),而不是对人们充满危险的智能,他认为关键在于「全知并非全能」,不要被《廿二世纪杀人网络》(Matrix)、《未来战士》(The Terminator)、《西部世界》(Westworld)的电影误导,认为人工智能将会变成「无所不能」的机器控制世界任何一处,因为我们从一开始,就不是在建造可以控制天气、操控人类言行的人工智能,如果是这样的话,我们便会发现它正在与人类竞争,然后他说笑道:不要告诉Siri——我们可以随时拔掉电源。大概,他的说法是指我们届时会有方法对付「它们」。

实际上,格雷迪的驳斥仍未够力,他似乎不断把目前「弱人工智能」的所有优点提出,正如人工智能除了下棋之外,在医学、交通乃至各种生活科技有非常大的帮助,可是,他绕开了问题的核心,依然未够对準学者提出的假设疑难:假设「强人工智能 / 速度人工智能」真的出现呢?届时人类生活已极度跟科技与网络融合,问题出现时你才开始制止它们,真的能够吗?

立场三:Sam Harris认为要审慎评估风险,可预早以AI提升人脑智能作準备

最终,笔者目前认为神经科学家山姆.哈里斯(Sam Harris)的说法比较中道而稳妥。他指出的重点在于,我们还是要及早为人工智能作出应变,不在于数十年之内「强人工智能」是否出现,再保守评估,也不能否认原理上它「终有一天」可以出现,不管是你孙儿的年代,或你孙儿的孙儿的年代,孙儿的孙儿的孙儿的年代,终于有一代人要面对这个问题,无论你猜想摩尔定律甚幺时候终结,电脑运算提升速度比例减缓了,依然要设想「强人工智能」出现的时候,我们应该怎幺做。

他认为正因为人工智能的结构跟我们不一样,不管你如何界定它有没有意识,只要知道它能力可以愈来愈巨大:

「电子电路作用的速率比起生化作用快一百万倍,所以这个机器思考应该比製造它的心智快一百万倍。如果你设定让它运行一星期, 他会执行人类等级的智能要花两万年的工作,一週接着一週接着一週。」

所以,按照目前的发展过程,它的能力只会愈来愈巨大,我们不能永远有信心足以理解它们,就此,哈里斯建议应该「首先」打造能够与人脑缝接的人工智能,做好提升人脑智能的科技,继而再稳步发展人工智能技术。他的立场大概就是,世事并非只有两相反的道路,要幺要完全终止研发人工智能,要幺要任意让人工智能技术奔驰,中间还有很多可以做得更好的準备——如同另一种「曼哈顿计划」。

笔者不敢断言哈里斯的建议完全正确,但相比伯斯特隆姆与格雷迪的两极立场,看来他较接近「中道」的风险评估,而马斯克(Elon Musk)创立的Neuralink公司,也循这种中道做足準备。无论如何,这将会是未来10年、20年甚至数十年的重大议题,值得及早作思想準备。

延伸阅读:

    〈如果AlphaGo输了给柯洁,我们才应该感到沮丧〉
尼克.伯斯特隆姆(Nick Bostrom)着:《超智慧:出现途径、可能危机与我们的因应对策》(Super Intelligence: Paths, Dangers, Strategies),新北市:八旗文化,2016年10月。科学人(第173期/2016年7月号): SM173Nick Bostrom: What happens when our computers get smarter than we are?(Ted)Grady Booch: Don't fear superintelligent AI(Ted)Sam Harris: Can we build AI without losing control over it?(Ted)IBM Watson科学家:不应把AI理解为人工智慧而是「扩增智慧」(数位时代)《攻殻机动队》成真,马斯克的下一步:将电脑与人脑「连线升级」(TechNews)




上一篇: 下一篇: