□本报综合报道
电影《黑客帝国》描绘了未来人类在与人工智能的战斗中败北,最终沦为生物电池的惨景。这一场景究竟会否发生?近日,一些科技界的知名人士对此表示了担忧。
01 与机器人打仗人类毫无胜算
近日,钢铁侠的原型特斯拉汽车公司首席执行官埃隆·马斯克在网上发布消息称:“我们得对人工智能十分小心,它的潜在危害性比核武器还要大。”看来这个总是把不可能变成可能的钢铁侠,对人工智能也是有所顾忌的。他还“补了一刀”,“希望我们不仅仅是超级智能的生物加载程序。很不幸,这种可能性正在增加” 。人工智能如果开始思考,人类又该如何应对?
无独有偶,英国著名物理学家斯蒂芬·霍金不久前在接受媒体采访时,也表达了对人工智能未来发展趋势的忧虑。他认为机器人可能“比我们聪明”,与很多人工制成品一样,人工智能对人类而言也可能是有害的,甚至是致命的。
霍金说:“人工智能在并不遥远的未来可能成为人类‘真正的危险’。”
众多从事人工智能研究的科学家认为,他们的研究产品应该足够安全且可以控制。不过,霍金认为机器人可能“进行设计改进它自己,使得它们比我们所有人更聪明”。
当记者问他:“那为什么我不应该为能够与机器人战斗而感到兴奋呢?”
霍金给出的回答很干脆:“因为你会输掉战争,毫无胜算。”
02 人工智能具有“自我学习”的能力
有关人工智能的电影为数不少,譬如《终结者》系列、《黑客帝国》系列、《人工智能》、《我是机器人》等,它们有的表达了对人工智能的担忧和畏惧,有的表现出了对人工智能的一种人文关怀。
不过,对于人工智能,目前尚未有统一的定义。美国斯坦福大学人工智能研究中心的尼尔逊教授对人工智能下了这样一个定义:“人工智能是关于知识的学科——怎样获得知识并使用知识的科学。”美国麻省理工学院的温斯顿教授则认为:“人工智能就是研究如何使计算机去做过去只有人才能做的智能工作。”
以上这些定义主要针对的是目前人工智能的研究方向,与社会学上对人工智能的定义并不相同。人们最容易接受的关于人工智能的定义是这样的:人工智能——由人类所创造的类人的智能。这种人工智能才是人们所广泛担忧的。这种担忧其实是人类对自身智能的一种不信任的投射。按照这个定义,人工智能至少需要具有以下几个要素:自我意识、思维能力,以及上文两个定义中所提到的“自我学习”和“向人类学习”的能力。
03 人工智能的学习和成长能力惊人
我们假设人工智能已经拥有了自我意识,那么人工智能就能学习与思考了。人工智能的学习速度将会是惊人的,能在学习中不断增强自己学习的能力。听起来似乎是绕口令,令人觉得不可思议,但事实上同样的事情已经发生在了人类的身上——18世纪以来,人类的科学技术出现了爆发性的增长,而且这种增长的速度还在不断加快。可以想见在资源充足的情况下(比如允许人工智能连入互联网),人工智能将以怎样惊人的速度来完善自己。
一旦人工智能开始思考,许多问题就会不可避免地产生。有一位想象力丰富的科学家是这样设想人工智能毁灭人类的场景的:人类给人工智能下达了尽可能多的生产铁钉的命令。于是,人工智能开始疯狂地开采铁矿、煤矿,冶炼钢铁,制造铁钉。当人类认为铁钉已经足够时,便命令人工智能停止制造,但人工智能认为他是在妨碍铁钉的制造,本着“尽可能”的原则杀死了这个下达命令的人。终于有一天,地球上的铁矿、煤矿都被开采完了。人工智能忽然想到,人体内部也含有铁……最终,人类被灭绝。
04 人类能够摧毁失控的人工智能吗
在以往的科幻大片中,我们看到过各种各样毁灭失控的人工智能的办法:简单的有输入自毁代码、关闭机器电源、删除数据等,疯狂的有核武器袭击、全城断电等。
说实话,人工智能恐怕不会给我们这种机会。人工智能的生命力比我们想象的强大得多,即便有人设计出了完美的规则,比如机器人三大定律等,进化程度远高于我们的人工智能也可能破解。人工智能失控的风险远大于人类的想象。
05 人工智能真的可能诞生吗
很多时候我们会听到这样的论调,人工智能只是机器,它永远不可能像人类一样拥有自我、情感这类神圣的属性,但我们可能高估自己了。事实上,我们的大脑和人工智能一样都是由有限物质构成的。这就意味着碳基生命并不一定就优越于“硅基生命”。只要人类解开了我们自己的诞生之谜,创造人工智能也并不是不可能。就像电影里说的那样,上帝创造了人类,人类创造了人工智能,人类可以反抗上帝,人工智能为什么不可以反抗人类呢?