最近在读一本书《我们最后的发明》,作者在书中表达了对人工智能发展的深度担忧。并阐明了一个耸人听闻的观点——人工智能将带来人类的毁灭(比核武器带给人类的伤害要大多了)。
客观来说,目前的人工智能仍然处于较为低级的阶段,只能应用于非常窄的专业领域(专业术语叫 ANI,狭义人工智能),如文字处理、语音识别、图像识别、棋类对弈等等。受制于硬件环境的制约,对于这一类技术的研究曾经一度停滞不前,但近些年开始,基于大数据技术和生物技术以“深度学习”为代表的“机器学习”类技术的崛起,给人工智能带来了高速发展的可能。
AlphaGo 战胜了人类围棋手已经被说的太多了,举两个其他的例子,大概还是在前年的时候,我研究过一段时间的基于图像识别的文字识别技术,阅读了很多资料,做过一些尝试,发现很难将文字的识别率提升到可以接受的水平,以至于沮丧的认为电脑不可能战胜人脑,因为三岁的小孩就可以轻易的分辨出照片中的动物是一只猫还是一只狗,但是电脑却判断不出来。然而没过多久我就看到新闻,谷歌已经通过“深度学习”技术通过让程序大量的阅读图片(谷歌的数据量很大),使得程序已经可以自动发现在任意图片中的“猫”,而且这还建立在人类从来没有告诉他“猫”这个概念的前提下。就在前几天,谷歌又爆出新闻,通过观看 BBC 的电视节目,他们的程序已经“学会了”读唇语的技能,而且识别率已经远远高于人类的读唇语专家(从这一点可以看出,电脑一旦某个方面超越人脑,人脑就再也没有机会追赶了)。
这还只是 ANI,随着时间的推移,科学家们肯定蠢蠢欲动,开始着手研究 AGI(广义人工智能),通用的人工智能,也就是说在智能上各方面均能达到人类的级别,这才是真正意义上的人工智能,也是历代人工智能工作者梦寐以求的结果。
可是有个比喻说的特别好,说通用人工智能就像是一列高速前进的火车,我们站在站台上远远看着它飞速向我们奔跑过来,然而就在赶到我们跟前的那一刹那,火车并没有停歇,而是从我们身边呼啸而过,将我们远远的甩在身后。这个时候的人工智能就是所谓的 ASI(超级人工智能)。
而且,据很多持悲观态度的分析人士(如本文所提到《我们最后的发明》一书的作者)所设想,从 AGI 到 ASI 的进化时间,要比从我们现在发展到通用人工智能要快的多,根本不是一个数量级,也许我们盯着屏幕眼瞅着我们发明的通用人工智能在短短几分钟内进化成为超级人工智能,然后,剩下的事情,就很难设想了,作者在书中提到了好多可能性,遗憾的是,没有一种可能是对人类有利的。
为什么呢,毕竟是人类创造了它啊?可惜的是,它并没有对创造它的人有什么感激之情,相反,它很可能不再依赖人类,根据自己的决策来处置人类(想想《黑客帝国》吧)。从情感上来说,人类肯定想控制这些智能,并天真的认为可以通过编程手段来处理机器的逻辑判断(这正是我们现在广大软件工程师每天要做的事情),可惜,了解“机器学习”的人都知道,正是因为“机器学习”的“模糊”(输入和输出的因果关系不是通过编程控制的,而是根据统计和概率学习得来的)特性,使得计算机能够自动的找到我们无法通过编程来找到的最优解。
还有一点,也是人类的一道防线,那就是“意识”,作为这颗星球的掌控者,人类骄傲的认为,“意识”是人类独有的东西,因为“意识”是对“思考”的“思考”(元思考?),所以我们认为人工智能再牛,如果没有意识那么也不过是个受人控制的机器而已。可是关于这一点,现在也有很多争论,首先我们自己是不知道意识是怎样诞生的,了解的很少,而且一旦深入研究就会跑到科学、哲学、宗教的汇合点,最后不了了之。
不过,还是有人做出了比较靠谱的设想,今年最火的没有之一的美剧《西部世界》就是一个例子,虽然“人工智能的觉醒”这个概念已经被很多电影和电视剧演绎的有点儿烂了,但是这个剧以及原著小说的关于“觉醒”的设想,让人细思恐极,原来人工智能可以在条件具备的时候完成“意识”的“自举”(Bootstrap?有点儿像拎着自己的头发把自己拎起来的意思)。有兴趣的话,可以自行去网上搜一下关于这个剧的影评,因为自己看可能看不太懂。
不过还是不要太悲观了吧,毕竟已经有越来越多的人意识到这个问题的重要性,也有人开始系统的研究如何通过技术的手段,在研发过程中遵循某种规范和约束来降低智能爆发带来的危险,希望这件事最终像当年的“千年虫”那样能够平滑过渡吧,但愿人类能与超级智能和平相处。