近年来,“人机大战”引起世人关注,人工智能发展引发的忧虑和争论开始从学术圈进入公众视野。要将这些思考引向深入,就需拓宽视域,厘清思路,特别要善用底线思维来把握问题。对无限制发展人工智能可能带来的后果,可从近期、远期和终极威胁三个层面来分析。
近期威胁的一个表现是人工智能开始大批量取代蓝领工人和下层白领。这在发达国家的制造业中表现较明显,我国一些工厂也开始这么做。从经济效益看,工业人工智能成本的下降使“取代”变得有利可图。“汽车的出现没有让马车夫找不到新工作”只是以往的经验,这次并非如此:大批工人陆续失业,只要达到某个临界点,社会就有可能发生动荡。
近期威胁的另一表现是军用人工智能的研发。史蒂芬·霍金、比尔·盖茨等人曾呼吁世人警惕人工智能的盲目研发,特别是军事用途的研发,认为这有可能导致比原子弹更可怕的武器出现。因为军用人工智能有可能直接操控武器,一旦失控,后果难以设想;即使没有失控,研发出这类更冷酷、更高效的杀人武器,亦非人类 之福。
人工智能的远期威胁中,最容易想到的就是它们可能的反叛。这点很容易理解,《黑客帝国》《未来战士》等科幻影片对此已做过大量设想。人工智能业界和一些盲目乐观人士常用“人工智能还很初级”之类的说法宽慰公众,但这种理由是站不住脚的,“老虎还小”不能成为养虎的理由。因此,我们对这一威胁必须保持足够的警惕。
人工智能的终极威胁更加发人深省。这种威胁并非建立在人工智能反叛的假定之上,而是恰恰相反。阿西莫夫提出的一个很少有人注意的重要观点是,所有依赖人工智能的文明都终将灭亡。他给出的理由之一:
“一个完全依赖机器人的社会,因极度单调无趣,终究会变得屏弱、衰颓、没落而奄奄一息。”这个看法很有见地。这里排除人工智能反叛人类的可能,假定未来人工智能可承担人们所希望的“任何工作”,人类就会变成整天混吃等死的寄生虫了。如果真是这样,用不了多久,人类的机能和智力都将迅速退化,我们的人生就变得毫无意义。这是更可怕的威胁。
(摘编自江晓原《科技创新应树立底线思维——以人工智能发展为例》 )
材料二
人类智能不过是文明的成果,源于社会与历史的心智积淀,而文学正是这种智能优势所在的一部分。文学之所以区别于一般娱乐(比如下棋和转魔方),就在于文学长于传导价值观。好作家之所以区别于一般“文匠”,就在于前者总能突破常规俗见,创造性地发现真善美,守护人间的情与义。而技术主义者恰恰在这里存在严重缺陷,他们一直梦想着要把感情、性格、伦理、文化以及其他人类表现都数据化,收编为形式逻辑,从而让机器的生物性与人格性更强,使其创造力大增,最终全面超越人类。但他们忘了,人类智能千万年来早已演变得非同寻常--其中一部分颇有几分古怪,倒像是“缺点”。比如,人必有健忘,但电脑没法健忘;人经常糊涂,但电脑没法糊涂;人可以不讲理,但电脑没法不讲理,即不能非逻辑、非程式、非确定性地工作。这样一来,即便机器人有了遗传算法(GA)、人工神经网络(ANN)等仿生大招,即便进一步的仿生探索也不会一无所获,然而,人的契悟、直觉、意会、灵感、下意识、跳跃性思维,同步利用“错误”和兼容“悖谬”的能力,把各种矛盾信息不由分说一锅煮的能力,有时候竞让2+2=8或者2+2=0甚至重量+温度=色彩的特殊能力(几乎接近无厘头),如此等等,都有“大智若愚”之效,只能让机器人迷糊。
在生活中,一段话到底是不是“高级黑”;一番慷慨到底是不是“装圣母”;一种高声大气是否透出了怯弱;一种节衣缩食是否透出了高贵;同是一种忍让自宽,到底是阿Q的“精神胜利”,还是庄子的等物齐观;同是一种笔下的胡乱涂抹,到底是艺术先锋的创造,还是画鬼容易画人难的胡来……这些问题也许连某个少年都难不住,明眼人更是一望便知。这一类人类常有的心领神会,显示出人类具有超强的处理价值观的能力,其实不过是依托全身心互联与同步的神经响应,依托人类经验的隐秘蕴积,选择了一个几无来由和依据的正确,有时甚至是看似并不靠谱的正确——这样做很平常,就像对付一个翅超或一个喷嘘那样自然,属于瞬间事件。但机器人呢,光是辨识一个“高级黑”的正话反听,可能就会导致全部数据库瘫疾。
(摘编自韩少功《当机器人成立作家协会》)