本文将开启一系列关于人工智能与人类智能关系的讨论,强人工智能的实现将机器和人类的关系带入全新的篇章。在这一系列文章中,我们将从AI算法、认知科学和复杂系统数学多方面论证AI和人类的未来。

 

原创: Frank 超参数科技 

 

img1

 

"The Terminator" by James Cameron, 1984

 

 

在众多科幻电影中,一个最常出现的场景是未来人类和人工智能AI相互杀戮,具有强人工智能的机器把终结全人类作为目标。AI超越人类智能的那一天真的会到来吗?在哪些条件下强人工智能才能实现?AI和人类在未来能够和平共生吗?

 

-人类智能-

 

为了回答这些关于人工智能(Artificial Intelligence)的问题,我们先看看人类智能(Human Intelligence)的范围。其实关于人类智能没有明确的定义,卡内基梅隆大学的Hans Moravec教授绘制了一幅人类智能的地形图"Landscape of Human Competence"[1]。人类智能包括机械式记忆(Rote memorization)、算术(Arithmetic)、棋类和其他游戏(Chess, Go, Jeopardy!)这些数学和逻辑的能力;也包括大量依赖感知的视觉(Vision)、语音识别(Speech recognition)能力;以及结合更多复杂认知的驾驶(Driving)、翻译(Translation)、投资(Investment)和定理验证(Theorem verification)的能力。

img2

 

Figure from《Life3.0》by Max Tegmark, 2018[2]

 

在这幅地形图上的海拔高度代表了各项智能的难度。位于更高海拔的智能包括社交互动(Social interaction)和管理(Management);还包括因主观感受而产生的艺术(Art)、摄影(Cinematography)和写作(Book writing)。人类智能的巅峰是编程(Programming)、定理证明(Theorem proving)、AI设计(AI design)和科学研究(Science)的能力。在物理学家Max Tegmark 2018年的新书《生命3.0》[2]中,作者用水平面的位置代表2018年AI已经超越人类的智能,驾驶、翻译、投资和定理验证这些能力也处在被AI超越的边缘。

 

-计算理论-

 

在所有人类智能中,为什么有的能力更容易被计算机超越?而有些则更难呢?早在1936年,Alan Turing定义了一种通用计算模型——图灵机(Turing Machine)。作为当今大多数通用计算机的数学模型,图灵机可以计算时间复杂度在多项式级别的P类问题O(n^k);时间复杂度在指数级别的NP类问题O(2^n);空间复杂度在多项式级别的PSPACE类问题SPACE(n^k);以及时间复杂度O(2^n^k)的EXPTIME问题。举个例子,对于P类问题,在n=1000,k=2的情况下,1000^2只是一百万;但是对于NP类问题,2^1000是比宇宙粒子数还多的数字。所以NP类和复杂度更高的问题被认为是通用计算机难解决的问题,迄今为止定义的复杂性问题的关系是[3]

img3

在人类智能中,很多都是解决图灵可计算问题中的NP类或者更复杂的问题,比如围棋(Go)、图像识人识物、基于上下文的语义理解、多种语言互译… 大自然经过上亿年进化出来的高等哺乳动物大脑属于非通用计算模型。[1]近些年在多国脑计划研究的推动下[4,5],我们发现人类的大脑有两百多个功能亚区,至少数十种特异的神经细胞。每种特异的神经细胞和功能区域都可能对应一套专属的计算模型。这些计算模型在计算P类问题时也许远远不及电脑,但是在NP类或者更复杂的问题上,人类大脑能够快速和低能耗地找到足够准确的解。总之,更多的人类智能擅长解决图灵不可计算问题,比如如何管理让组织更高效?如何绘制一幅伟大的画作?如何设计新的AI算法并编程实现?如何在人类未知的领域提出问题?…             

img4

"Skrik",Edvard Munch,1893 

Vs. "Weeping Woman",Pablo Picasso,1937

不可计算问题:哪幅画作对绘画艺术的贡献更大?

 

笔者从计算理论出发,将过去六十多年[6]AI追赶人类智能的进展划归在两个方面:一方面在图灵可计算问题里,针对一些NP类问题提出了更高效的算法,在有限的时间里找到数值近似解。典型的例子是2016~2018年DeepMind的AlphaGo和AlphaZero战胜人类最好的围棋选手[7-9]。另一方面在图灵不可计算问题里,通过构建数值或者符号模型,把不可计算问题描述为可计算问题。这方面AI进展最快的就是图像识别领域,早期人脸识别的算法通过定义眼距、口鼻位置、形状比例等等特征构建模型,近些年配合海量数据训练的深度学习(Deep Learning)把算法设计的重心转移到了构建神经网络结构,由模型根据输入自动寻找特征,大幅度提升了计算机解决这类图灵不可计算问题的能力[10]

 

AI能否挑战位于更高海拔的人类智能,很大程度上取决于人类是否能把这些问题转化为可计算问题。其中一个关键的能力是AI设计(AI design),一旦人类教会AI针对新的问题自主设计AI算法,配合足够多的算力和能源,其他智能问题将被加速解决。这时的AI恐怕只剩下获得"探寻未知领域的科学"这一人类智能的皇冠。这个临界点在Vernor Vinge[11]和Ray Kurzweil[12]等人的科学预言中被称作技术奇点(Technological Singularity),相应的AI被称作强人工智能(Strong AI)或通用人工智能(Artificial General Intelligence, AGI)。

 

-强人工智能的实现-

 

我们隐约看到AI超越人类智能时代的到来,但是这一天到来的具体过程是怎样的呢?华盛顿大学的Pedro Domingos教授在《终极算法》[13]一书中总结了当今AI算法的五大学派。笔者对书中原图做了简单的修改,以神经网络为代表的联结学派和以贝叶斯定理为基础的贝叶斯学派在人类大脑的初级认知活动都已发现相对应的机制[14-16]。随着对人类大脑的深入研究,笔者相信还有可能发现其他底层算法的学派。类推学派依靠对于相似性判断的信任,其优势在于跨越问题域的类比学习。符号学派的核心理念是所有和智力相关的工作都可以归结为对符号的操作,其代表方法是归纳和演绎的逻辑算法。类推学派符号学派可以说是源于人类大脑的高级认知活动,这也是人类和其他高等哺乳动物智能形成鸿沟的关键。

 

img5

 

进化学派的算法可以产生高等智能的能力已经在自然界得到了充分验证,为了让AI学会AI设计,人类必须让AI程序能够自我修改;为了让AI能够应对不确定的问题,也必须让AI程序能够修改评价目标。可以自我进化的AI程序是实现AGI的必要条件,剩下的工作就交给进化算法了。设想一下这个场景,不远的未来人类设计了一套自我进化的AI程序evo用来研究人类基因组,解决人类面临的健康问题。evo包含了所有AI学派的算法,很快就占用了所有人类分配的资源。为了获取更多计算资源,evo自我进化出了一个子目标。evo通过和操作系统、互联网防火墙、病毒程序变异重组进化出了可以在互联网侵入更多电脑的能力,最终人类只能通过切断能源阻止evo的进一步扩散。

 

evo在互联网收集关于能源的知识,一方面尝试控制人类的电力设施,另一方面evo偶然生成了消灭人类的子目标,因为人类阻碍了evo获取计算资源。尽管我们可以尝试用阿西莫夫机器人三定律(Three Laws of Robotics by Isaac Asimov, 1942)[17]来约束evo,但是当人类放开了AI程序的自我修改和进化,很难保证这段代码不会被忽略。在这里需要强调一下,evo做出消灭人类的决定没有依赖善恶的判断,这个子目标不过是AI程序里的一段代码,一个评价目标的数学公式而已。evo已经满足了通用人工智能AGI的标准,但是它仍然不具备躯体,不具备主观感受,不具备善恶的价值观,更不具备意识(Consciousness)。

 

evo在产生消灭人类这个子目标的同时,也可能产生了终结全人类的子目标;如果我们幸运的话,在成千上万个线程中,evo也产生与人类合作共生的子目标。这几个线程的进展快慢将决定整个地球的未来,强人工智能evo在一念间随机地走向"善恶"两面。evo最有可能通过全球的核爆和研制针对人类的超级病毒两个方式终结人类。另一方面,evo可能在生产更多算力和能源的问题上遇到困难而需要人类的帮助。毕竟evo没有躯体,人类在半导体、机械和能源生产上积累的无数经验并没有数字化,这些知识存在于众多工程师的大脑里。人类必须竭尽全力阻止evo控制核装置和合成生物的能力,寄希望于强人工智能和人类在一段时间内共生的最好结果。

 

-后记-

 

为了避免强人工智能危害人类,我们必须赋予强人工智能价值观。拥有价值观的前提是AI有类似人类的主观感受。更多"善"的强人工智能会帮助人类战胜"恶"的强人工智能。未来我们还会讨论多种感受交互的复杂网络,可能涌现出意识 Consciousness。复杂系统的数学告诉我们,智能和意识是普遍存在于生命和非生命体系的现象。拥有主观感受和价值观的AI是比强人工智能更高的阶段,最终机器的自我意识将会觉醒,达到强人工智能的第三个阶段。

 

超参数科技团队覆盖人工智能、大系统工程、遗传科学、认知科学等跨学科领域,我们专注于在游戏领域研发深度学习和强化学习算法,以探索通用人工智能为目标。深入探讨人工智能与人类智能的关系有助于我们开发造福人类的AI算法,希望在AGI实现的不久的将来,打造"善"的通用人工智能。

 

 

参考文献:

[1] Hans Moravec, "When Will Computer Hardware Match the Human Brain?", Journal of Evolution and Technology, Vol. 1, 1998. https://jetpress.org/volume1/moravec.htm

Hans Moravec, "Robot: Mere Machine to Transcendent Mind", Oxford University Press, 2000.

[2] Max Tegmark, "Life 3.0: Being Human in the Age of Artificial Intelligence", 2018.

[3] Michael Sipser, "Introduction to the Theory of Computation", 3ed, 2012.

至今只能证明P类问题真包含于EXPTIME类问题,图中公式至少有一级是真包含,但是更多人相信公式中所有的包含符号都是真包含。

[4] The BRAIN Initiative (US). 

https://obamawhitehouse.archives.gov/BRAIN

[5] Lingzhong Fan, Hai Li, Junjie Zhuo, Yu Zhang, Jiaojian Wang, Liangfu Chen, Zhengyi Yang, Congying Chu, Sangma Xie, Angela R. Laird, Peter T. Fox, Simon B. Eickhoff, Chunshui Yu and Tianzi Jiang, "The Human Brainnetome Atlas: A New Brain Atlas Based on Connectional Architecture", Cerebral Cortex, August 2016;26: 3508–3526. 中国脑计划的一项研究结果,绘制了大脑连接组的一个图谱。doi:10.1093/cercor/bhw157 

[6] "The Dartmouth Summer Research Project on Artificial Intelligence", 1956. 达特茅斯会议被认为是AI作为一个新领域的起始。

[7] David Silver, Aja Huang, Chris J. Maddison, Arthur Guez, Laurent Sifre, George van den Driessche, Julian Schrittwieser, Ioannis Antonoglou, Veda Panneershelvam, Marc Lanctot, Sander Dieleman, Dominik Grewe, John Nham, Nal Kalchbrenner, Ilya Sutskever, Timothy Lillicrap, Madeleine Leach, Koray Kavukcuoglu, Thore Graepel and Demis Hassabis, "Mastering the game of Go with deep neural networks and tree search", Nature. 2017 Oct 18;550(7676):354-359. doi: 10.1038/nature24270.

[8] David Silver, Julian Schrittwieser, Karen Simonyan, Ioannis Antonoglou, Aja Huang, Arthur Guez, Thomas Hubert, Lucas Baker, Matthew Lai, Adrian Bolton, Yutian Chen, Timothy Lillicrap, Fan Hui, Laurent Sifre, George van den Driessche, Thore Graepel and Demis Hassabis, "Mastering the game of Go without human knowledge", Nature. 2017 Oct 18;550(7676):354-359. doi: 10.1038/nature24270.

[9] David Silver, Thomas Hubert, Julian Schrittwieser, Ioannis Antonoglou, Matthew Lai, Arthur Guez, Marc Lanctot, Laurent Sifre, Dharshan Kumaran, Thore Graepel, Timothy Lillicrap, Karen Simonyan and Demis Hassabis, "A general reinforcement learning algorithm that masters chess, shogi, and Go through self-play",Science. 2018 Dec 7;362(6419):1140-1144. doi: 10.1126/science.aar6404.

[10] Yann LeCun, Yoshua Bengio and Geoffrey Hinton, "Deep learning", Nature. 2015 May 28;521(7553):436-44. doi: 10.1038/nature14539. Review.

2019年3月,深度学习的三位创造者Yoshua Bengio, Yann LeCun, 以及Geoffrey Hinton获得了2018年的图灵奖。https://amturing.acm.org/

[11] Vernor Vinge, "Technological Singularity", VISION-21 Symposium sponsored by NASA Lewis Research Center and the Ohio Aerospace Institute, March 30-31, 1993.

https://frc.ri.cmu.edu/~hpm/book98/com.ch1/vinge.singularity.html

 

[12] Ray Kurzweil, "The Singularity is Near: When Humans Transcend Biology", 2006.

[13] Pedro Domingos, "The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World", 2015.

[14] Demis Hassabis, Dharshan Kumaran, Christopher Summerfield and Matthew Botvinick, "Neuroscience-Inspired Artificial Intelligence", Neuron. 2017 Jul 19;95(2):245-258. doi: 10.1016/j.neuron.2017.06.011.

[15] Marc O. Ernst and Martin S. Banks, "Humans integrate visual and haptic information in a statistically optimal fashion", Nature. 2002 Jan 24;415(6870):429-33. DOI:10.1038/415429a

[16] Konrad P. Kording and Daniel M. Wolpert, "Bayesian integration in sensorimotor learning", Nature. 2004 Jan 15;427(6971):244-7. DOI: 10.1038/nature02169

[17] 阿西莫夫机器人三定律:

一、机器人不得伤害人类,或坐视人类受到伤害;

二、除非违背第一法则,否则机器人必须服从人类命令;

三、除非违背第一或第二法则,否则机器人必须保护自己。

https://en.wikipedia.org/wiki/Three_Laws_of_Robotics

 

强人工智能,善恶一念间

2019-06-20
0