人工智能正渗透在我们生活的方方面面,不管是机器人送外卖,写诗,虚拟大学生,还是各种自动化设施,大家都已经习以为常。而且这种趋势还正继续深化。与此同时,何为人工智能的本质,却并没有统一的、清晰的定义。对于人工智能未来发展将会到怎样的层面,也一直是被讨论的焦点。在讨论人工智能的各种人群主体中,也不缺少哲学家的身影。
近日,《封面新闻》记者专访到复旦大学哲学学院教授、博士生导师徐英瑾。
封面新闻:相对而言,很多人会认为人工智能是一个非常偏工科的科学研究,而您研究哲学,为什么想到要用哲学来谈论人工智能呢?您是如何看待哲学和科学之间的关系的呢?是怎么想到要将人工智能作为自己的哲学思考对象?
徐英瑾:哲学思考有一个问题,很多话是公说公有理,婆说婆有理。我欣赏莱布尼茨的话,任何事情都可以通过演算去弄清是非。有一些终极体悟算不出来,但是这个比例不会很高。分析哲学比较重视论证性,但忽略全局性。欧陆哲学重视全局性,却忽略论证性,我想要做的就是把这两者取长补短,加以综合。这不是很简单就能做到的,但我一直在朝着这个方面努力。
封面新闻:关于人工智能未来发展的预测很多。不少人担心“强人工智能”的出现会威胁人类的生存。您如何看?
徐英瑾:任何事物,我们不能光要它的好处,不要它的风险。人类发展人工智能的一个方向就是,要让人工智能变得越来越聪明,越来越像活人。但这样肯定会带来风险,但如果发展人工智能就还必须冒这个风险。如果不冒这个险,它会变得非常笨,也不是人类想要的人工智能。这就像打仗,有人赢,那么就有人败。人类对风险是有相当高的控制能力的,尽管这种控制不是绝对的。其实不只是对机器人,人类对自己的风险控制能力也不是绝对的。比如说,为了把飞机突然“发疯”这件事情的概率降到最低,人会用“任何时候驾驶室必须至少有两个人同时在场”的规则。但这也不能将风险降到绝对为零,因为还是有两个人在驾驶室里一起发疯的可能。我个人觉得,人类是怎么防范自己失控,就应该怎么去防范人工智能失控。如果人工智能拼命往邪恶的方向发展,这不是人工智能干坏事,而是人在利用人工智能干坏事。当然人工智能会让坏事变得更加严重。至于担心人工智能在肉体、物理上对人的毁灭,我觉得大可不必太担心。因为很强的人工智能与黑暗之间的结合,要加很多安全阀。只要不给人工智能独当一面的机会,就能很好拦阻这种状况的发生。但我不确定我的想法是不是过于理想主义。毕竟现在世界处于比较分裂的状态,各个国家的人类会不会坐下来协商,也都是不确定的、未知的。
封面新闻:你觉得有必要制定一个什么规则来约束一下人工智能技术的发展,防止从事人工智能的从业者是十足的科技狂,创造出一个疯狂的机器人,没有底线,做出对人类杀伤性极强的事情吗?
徐英瑾:其实越是定规范,人类越是会有逆反心理。我觉得,相比基因编辑,人工智能较为不用担心。对于进攻的恶势力,我不认为防御方会失手。因为防御方也可以获得技术,而且官方会支持对计算机技术的利用。我觉得,真正要担心的不是失控的人工智能,而是要去警惕掌握人工智能的人发疯。防止人性的恶,才是关键。我个人觉得最好的状态是这样的:利用人工智能的优点,明了人工智能的局限。不要依赖它。利用网络的便利性,又要与它的缺点作斗争。比如大数据时代对人的信息全面采集造成对人隐私权的侵犯,我个人有一个思考是可以发展小数据技术。当这个技术帮我们进行信息处理时,不会把个人信息上传到云,而是当下处理。就像保密单位那样对信息进行小范围使用和相对封闭化的处理。
封面新闻:从哲学的角度来思考人工智能,有怎样独特的优势?
徐英瑾:不少人注意到,一些物理学、社会学概念经常会被混搭用到其他领域内,比如量子婚姻、量子物理学,熵的增加和递减。而哲学就是让这些概念用在正确的抽屉上,不要混场,不要串戏。有的人会说,不是讲究融合嘛。但是融合的前提是分开。先分清楚概念才有融合的价值和意义。
封面新闻:如果用比较简要精练的语言来概述,人工智能哲学的核心主题是在讨论什么?
徐英瑾:就是对通用人工智能发展进行战略性前瞻研究。我把天下学科都罗列一下,发现只有哲学才能干得动这活儿。研究人工智能不能不知“意向性”,而“意向性”是德国哲学家胡塞尔的概念。
(摘编自2021年11月26日·中国经济网封面新闻记者 张杰 实习生 李心月)