继谷歌电脑软件“阿尔法狗”战胜围棋大师李世石之后,最近又传出电脑软件“大师”(Master)扫平世界围棋大师的60连胜战绩,震惊了世界。
之前,在“阿尔法狗”战胜李大师之后,我已经发表了“人脑和电脑”一文,论述我对人机关系的看法。这个看法也适用今天和今后。
这次电脑“大师”的表现,对我最大的启发就是,电脑不再局限于学习,模仿,概括,总结,完善和系统化人类棋手的经验,而是按照自己的逻辑建立算法。也就是电脑“思维”可以不同与人类思维,从而走出许多人类意想不到的棋步。
当然电脑的“思维”还是来源与人,只是不是来自棋手,而是另外一些人—电脑软件的设计者。他们利用,操控电脑与赤手空拳的人比赛。后者敌不过前者,一点也不奇怪。就像一个无枪的人,打不过一个有枪的人一样。何况电脑背后还不是一个人。也不是一台电脑。据香港“锵锵三人行”节目,聂卫平透露,比赛时,电脑方面有1000台电脑在支持。
这个事件给一些担心电脑对人类造成威胁的人又提供了“依据”。所以这里再进一步从哲学角度谈谈人和机器的关系问题。
人工智能问题,很早就引起人们兴趣,也是计算机科学的研究前沿。我在国内时,曾经给学生出研究课题,题目是“机器智力与人的智力”。注意,这个问题的提法也是有讲究的。一般比较耸人听闻的提法是:“人会受机器控制吗?”或者“机器能否超过人?”但这样的提法本身是不科学的。因为什么叫“超过”,本身就先要搞清楚。所以我们用一个没有倾向性的提法“机器智力与人的智力”。
一些理论文章回答这个问题是不能令人满意的。他们往往论述人脑如何复杂,如何精巧,以此说明机器难以达到。这只能说明难易,而不能说明可否。我想最好能像证明永动机不可能一样,形成热力学第二定律。这样才能根本上解决这个争论。对物质,能量,有物质不灭定律与能量守恒定律。对信息,智力,是否有相应的定律呢?
我很早就意识到这是一个哲学问题,需要哲学的介入。这个问题不是简单能够回答的。
科学哲学是一个很有意义的问题。牛顿的书名叫“自然哲学的数学原理”。当初科学与哲学不分。现在,自然科学博士还叫PhD。Ph是英文哲学(philosophy)的简写。这样的争论,历史上经常出现。比方,牛顿是大科学家。由于牛顿定律有着极大普遍性。于是,牛顿希望把一切归结为他的公式。世界无非是机械运动。然而,自然界的运动不仅是机械运动,物理运动,还有化学运动,生物运动。后者不能归结为前者。它们与机械运动有本质的不同。电脑也一样。电脑是很新奇,但不能夸大。
历史上,对人工智能问题,有三种观点:
1。乐观派。以图灵为代表。1972年,一个英国人搞了一个调查,给英美63个控制论专家问卷。你认为再过多少年可以研制成与成人智力相等的计算机?结果认为50年以内可成的有57人,占90%。
2。悲观派。以美国斯坦福大学哲学教授德雷福斯为代表。他认为人工智能是现代炼金术。
3。中间派。认为我们离机器超过人的边界还远,暂时不参与这种争论。
当然,当时没有说明,什么叫“与成人智力相等”的计算机?今天的围“大师”软件算不算?如果算的话,今天倒是实现了。正好接近50年。但恐怕没有人把这个软件,或者这台电脑,看作产生了一个新物种吧?
计算机先驱之一图灵在1950年提出一个图灵试验来区分人和机器。他的意思是,如果试验者无法区分人和机器,说明机器已经有了人的智力。
我是不承认他的试验的。我认为,机器“智力”与人的智力根本不是一回事,这种试验没有意义。
图灵为他的观点辩解。
计算机是一个形式系统。有一个哥德尔不完全性定理,说任一形式系统均有局限性,说明机器不能比人高明。图灵说,还可以有更高明的机器。但更高明的机器哪里来?还不是要靠更更高明的人?
有人主张在图灵试验中,做算术测验。机器由于死板,所以永远正确,而人总究会犯错误。所以,犯错误的说明是人,从而可以把机器与人区别开来。图灵说,机器也可以安排一些错误来迷惑你。
这是诡辩。机器错误不是无意的,偶然的,而是固定的。所以,从设计角度看,这不是“错误”,而是“正确”。而且,“也”和“安排”,说明什么?不是机器在无意犯错,而是设计者在有意造“错”,以应付试验。
已故北大教授马希文在“人工智能的极限--计算机不能做什么?”一书序言中列出了三个计算机处理问题的必要条件:
1。形式化。
要计算机处理问题,必须要把问题形式化。而要把非形式化变为形式化,这是人的能力。如果把这一过程本身形式化,也就是让机器来把非形式化问题变成形式化,又存在着如何实现这个过程的形式化问题。如此可以递归。
2。不可判定性
用计算机决策,判断,只有命题为真时,才可以在有限步内判定。而当命题事实上为假时,不可能在有限步内判定。结果无限搜索下去,永远报告:“现在还不真”,但永远不能判定它为假,因为也许下一步可能判定为真。
3。计算复杂性
对任何算法,机器必须在合理时间内完成,才有意义。有些问题虽然原则上可以用机器实现,但需要天文数字的时间,其实等于无解。因为要实现这个计算,先要制造出千万年不腐烂的机器!比方,下象棋或围棋,如果用穷尽算法,走一步,电脑就要化千万年。
下面谈谈我对这个问题的一些看法。
1。比较标准
什么叫机器超过人?即怎样估计机器和人的能力?要说机器超过人,早已是事实。汽车代替人腿,走得比人快得多。起重机代替人手,力气比人大得多。但没有人说汽车或起重机超过人。人的主要能力在于智力。单靠体力,人打不过一头野兽。但利用智力,人可以控制老虎,控制机器,包括智能机器。
2。控制与独立(失控)
人控制机器,但不意味着机器不可以有一定独立性。有时看起来机器控制人。比方,进入地铁,不刷卡,门不开。但这是设计者控制使用者。这是人与人之间的一种约定,不是机器有灵性,反抗人的行动。机器可能失控,这一般是局部的,暂时的。失控是一种无规律,无目的行动。不会做出有意义的事情。个别巧合是可能的。当年陈伯达说,让猴子在一台打字机上随便跳,一万年之内,也许会打出一篇莎士比亚文章。根本不可能。
有人说计算机与传统机器不一样,它能自己学习。其实,从人和机器关系来讲是一样的。计算机不是天方夜谭中放在瓶中的魔鬼,放出来以后,就控制不了了。后膛枪发明以后,有人说,今后再也不会有战争了,因为可以把人像小鸡一样,一个一个枪杀。事实并非如此,因为人不会等着被枪杀。如果这样,用菜刀,石头也可以一个一个把人全杀死。这是一种形而上学的观点。只强调物的能动性,把人的能动性凝固起来。作为人造物的机器,它只有相对的能动性。如果光强调形式逻辑,强调偶然性,那末,即使没有计算机,也可能产生可怕后果。某个国王的消化不良可能引起一场战争。一个烟头可能毁灭世界。但这种几率小到根本不必担心。不然就别活了。出门可能撞死,吃饭可能噎死,坐着可能(房顶塌下来)砸死。
3。不断增长与无限增长。
我们说计算机能力有限度,但又不好定量描述,究竟界限在哪里?我们不能给出静态的回答。奥运会百米记录目前是9秒多,以后最少可以多少秒?10年,100年,1000年后呢?很难回答。但如果你说5秒,恐怕没有人会同意。但逻辑上很难驳倒。人们可以相信,这个时间会越来越短。两种结合起来,可以得到这样的结论:不断增长不等于无限增长。飞机的速度不断增长,但不等于无限增长。火箭比飞机快,但那是另一种东西,它也有自己的界限。人工智能的乐观主义者们混淆了不断增长与无限增长的界限,从而夸大了计算机的力量。
4。相对有限与绝对无限
我们说,计算机能力有界,是指一定形态的计算机能力有界。但今后可以有更好的计算机或其它形态的智力机器。从这个意义上讲,机器的能力也是无界的。但这不等于机器可以超过人,因为人也在进步。对人的任何特定能力,机器总可以在某一天达到或超过。但不等于机器全面超过人。比方,电脑围棋超过人类棋手,但人类总体能力提高了。电脑并没有超过围棋软件设计者。所以,要从总体上,动态上,相对上把握,而不是孤立地谈某一点上机器不如人。你说机器超过人,我不说哪一点你超不过,而强调人是一个动态目标。当机器超过原来的人时,人已变成“非人”或“超人 ”。你只能说,未来的机器可能超过今天的人。
系统化的方法论,说起来容易,用起来不容易。
例如,假定我要你吃500个饺子,你肯定拒绝。那我请你吃10个饺子,你不会拒绝吧?不过,当你吃完10个饺子以后,我请你再加一个,行不行?你很难说不行吧。吃完第11个,再来一个,怎么样?这样,步步进逼,各个击破。推出你一次能吃500个饺子。所以要从总体上观察,而不能孤立看问题。
5。量与质
计算机能否“进化”?有人说,机器进化速度比人快。实际上,他是在对“进化”一词偷换概念。机器发展不是一个独立的,像人一样的进化过程,而是依赖于人而发展。它的发展体现了人的发展。
世界上是否存在除人类的进化以外的另一种进化过程?毫无根据。
大脑运动,生物运动,能否归结为物理运动,机械运动?质转化为量,在一定条件下是可以的。超过一定界限,又成为质的问题。如计算复杂性,看起来是量的问题,实际上成了质的问题。
对人的大脑本质还不清楚,怎么把这种能力交给机器?
人获得知识不完全是一个逻辑推理过程,人通过与自然互动,与社会互动,获得知识,与电脑完全不同。
许多事情很难告诉机器。比方,除了形式逻辑,还有价值标准,道德,心理等一系列问题。比方,房子失火,要不要救?一般当然要救。但如果在拍电影,你去救就犯傻了。在战争中,房子失火,要不要救?敌我立场正好相反。要把这一切告诉计算机,谈何容易。从哪里可以看出,从某一点出发,机器可以自己学会这些东西呢?
总之,人类为什么要发明一个东西来控制自己呢?如果要造出人的等价物,人类的繁殖已经如此,何必费那么大劲制造机器人?人造机器是为了弥补人的不足,使人获得更大的自由。
从上述论述,看不出计算机怎么能突然脱离人的控制,独立进化。
我认为,计算机只是一种工具,如同其它人造物,电视,汽车一样。智力机器会普及,就像传统机器普及一样。所谓计算机“思维”,“学习”,“进化”,“智力”等等,这些名词可以用,但与平常的含义有本质不同。不能因为你给了这些名词,它就有这些内涵。计算机也可以叫电脑,但仅仅是一种形像化说法,与人脑完全不是一回事。正像豆腐脑,它的定义是,一种形状像脑的豆制品,而不是“会思考的豆腐”。
总之,人类社会已经进入一个智能机器的时代,各种新奇的人工智能机器将会涌现,将会极大地改变人类社会的面貌。但无论今后的机器如何神奇,它只是人类某种能力,某种性能的替代,扩大,强化。它们永远只是人类的工具,“奴仆”。而不会来控制,压倒,操纵,征服,奴役人类本身。围棋软件与人类的“比赛”只是一种试验,以后不必比了。就像举重比赛,如果有起重机参加,人类的世界冠军也会一败涂地,根本无法对抗。但没有人会嘲笑人类不如起重机,而只会感叹人类的伟大,能够发明起重机这样的“大力士”,大大地强化了人类对抗,改造自然的力量。今后,人类会对智能机器习以为常,不会把它们看作是对人类的威胁,不会把它们与人类相提并论。上面所说的,机器何时能够达到人的智力提问本身是一个伪命题。
之前,在“阿尔法狗”战胜李大师之后,我已经发表了“人脑和电脑”一文,论述我对人机关系的看法。这个看法也适用今天和今后。
这次电脑“大师”的表现,对我最大的启发就是,电脑不再局限于学习,模仿,概括,总结,完善和系统化人类棋手的经验,而是按照自己的逻辑建立算法。也就是电脑“思维”可以不同与人类思维,从而走出许多人类意想不到的棋步。
当然电脑的“思维”还是来源与人,只是不是来自棋手,而是另外一些人—电脑软件的设计者。他们利用,操控电脑与赤手空拳的人比赛。后者敌不过前者,一点也不奇怪。就像一个无枪的人,打不过一个有枪的人一样。何况电脑背后还不是一个人。也不是一台电脑。据香港“锵锵三人行”节目,聂卫平透露,比赛时,电脑方面有1000台电脑在支持。
这个事件给一些担心电脑对人类造成威胁的人又提供了“依据”。所以这里再进一步从哲学角度谈谈人和机器的关系问题。
人工智能问题,很早就引起人们兴趣,也是计算机科学的研究前沿。我在国内时,曾经给学生出研究课题,题目是“机器智力与人的智力”。注意,这个问题的提法也是有讲究的。一般比较耸人听闻的提法是:“人会受机器控制吗?”或者“机器能否超过人?”但这样的提法本身是不科学的。因为什么叫“超过”,本身就先要搞清楚。所以我们用一个没有倾向性的提法“机器智力与人的智力”。
一些理论文章回答这个问题是不能令人满意的。他们往往论述人脑如何复杂,如何精巧,以此说明机器难以达到。这只能说明难易,而不能说明可否。我想最好能像证明永动机不可能一样,形成热力学第二定律。这样才能根本上解决这个争论。对物质,能量,有物质不灭定律与能量守恒定律。对信息,智力,是否有相应的定律呢?
我很早就意识到这是一个哲学问题,需要哲学的介入。这个问题不是简单能够回答的。
科学哲学是一个很有意义的问题。牛顿的书名叫“自然哲学的数学原理”。当初科学与哲学不分。现在,自然科学博士还叫PhD。Ph是英文哲学(philosophy)的简写。这样的争论,历史上经常出现。比方,牛顿是大科学家。由于牛顿定律有着极大普遍性。于是,牛顿希望把一切归结为他的公式。世界无非是机械运动。然而,自然界的运动不仅是机械运动,物理运动,还有化学运动,生物运动。后者不能归结为前者。它们与机械运动有本质的不同。电脑也一样。电脑是很新奇,但不能夸大。
历史上,对人工智能问题,有三种观点:
1。乐观派。以图灵为代表。1972年,一个英国人搞了一个调查,给英美63个控制论专家问卷。你认为再过多少年可以研制成与成人智力相等的计算机?结果认为50年以内可成的有57人,占90%。
2。悲观派。以美国斯坦福大学哲学教授德雷福斯为代表。他认为人工智能是现代炼金术。
3。中间派。认为我们离机器超过人的边界还远,暂时不参与这种争论。
当然,当时没有说明,什么叫“与成人智力相等”的计算机?今天的围“大师”软件算不算?如果算的话,今天倒是实现了。正好接近50年。但恐怕没有人把这个软件,或者这台电脑,看作产生了一个新物种吧?
计算机先驱之一图灵在1950年提出一个图灵试验来区分人和机器。他的意思是,如果试验者无法区分人和机器,说明机器已经有了人的智力。
我是不承认他的试验的。我认为,机器“智力”与人的智力根本不是一回事,这种试验没有意义。
图灵为他的观点辩解。
计算机是一个形式系统。有一个哥德尔不完全性定理,说任一形式系统均有局限性,说明机器不能比人高明。图灵说,还可以有更高明的机器。但更高明的机器哪里来?还不是要靠更更高明的人?
有人主张在图灵试验中,做算术测验。机器由于死板,所以永远正确,而人总究会犯错误。所以,犯错误的说明是人,从而可以把机器与人区别开来。图灵说,机器也可以安排一些错误来迷惑你。
这是诡辩。机器错误不是无意的,偶然的,而是固定的。所以,从设计角度看,这不是“错误”,而是“正确”。而且,“也”和“安排”,说明什么?不是机器在无意犯错,而是设计者在有意造“错”,以应付试验。
已故北大教授马希文在“人工智能的极限--计算机不能做什么?”一书序言中列出了三个计算机处理问题的必要条件:
1。形式化。
要计算机处理问题,必须要把问题形式化。而要把非形式化变为形式化,这是人的能力。如果把这一过程本身形式化,也就是让机器来把非形式化问题变成形式化,又存在着如何实现这个过程的形式化问题。如此可以递归。
2。不可判定性
用计算机决策,判断,只有命题为真时,才可以在有限步内判定。而当命题事实上为假时,不可能在有限步内判定。结果无限搜索下去,永远报告:“现在还不真”,但永远不能判定它为假,因为也许下一步可能判定为真。
3。计算复杂性
对任何算法,机器必须在合理时间内完成,才有意义。有些问题虽然原则上可以用机器实现,但需要天文数字的时间,其实等于无解。因为要实现这个计算,先要制造出千万年不腐烂的机器!比方,下象棋或围棋,如果用穷尽算法,走一步,电脑就要化千万年。
下面谈谈我对这个问题的一些看法。
1。比较标准
什么叫机器超过人?即怎样估计机器和人的能力?要说机器超过人,早已是事实。汽车代替人腿,走得比人快得多。起重机代替人手,力气比人大得多。但没有人说汽车或起重机超过人。人的主要能力在于智力。单靠体力,人打不过一头野兽。但利用智力,人可以控制老虎,控制机器,包括智能机器。
2。控制与独立(失控)
人控制机器,但不意味着机器不可以有一定独立性。有时看起来机器控制人。比方,进入地铁,不刷卡,门不开。但这是设计者控制使用者。这是人与人之间的一种约定,不是机器有灵性,反抗人的行动。机器可能失控,这一般是局部的,暂时的。失控是一种无规律,无目的行动。不会做出有意义的事情。个别巧合是可能的。当年陈伯达说,让猴子在一台打字机上随便跳,一万年之内,也许会打出一篇莎士比亚文章。根本不可能。
有人说计算机与传统机器不一样,它能自己学习。其实,从人和机器关系来讲是一样的。计算机不是天方夜谭中放在瓶中的魔鬼,放出来以后,就控制不了了。后膛枪发明以后,有人说,今后再也不会有战争了,因为可以把人像小鸡一样,一个一个枪杀。事实并非如此,因为人不会等着被枪杀。如果这样,用菜刀,石头也可以一个一个把人全杀死。这是一种形而上学的观点。只强调物的能动性,把人的能动性凝固起来。作为人造物的机器,它只有相对的能动性。如果光强调形式逻辑,强调偶然性,那末,即使没有计算机,也可能产生可怕后果。某个国王的消化不良可能引起一场战争。一个烟头可能毁灭世界。但这种几率小到根本不必担心。不然就别活了。出门可能撞死,吃饭可能噎死,坐着可能(房顶塌下来)砸死。
3。不断增长与无限增长。
我们说计算机能力有限度,但又不好定量描述,究竟界限在哪里?我们不能给出静态的回答。奥运会百米记录目前是9秒多,以后最少可以多少秒?10年,100年,1000年后呢?很难回答。但如果你说5秒,恐怕没有人会同意。但逻辑上很难驳倒。人们可以相信,这个时间会越来越短。两种结合起来,可以得到这样的结论:不断增长不等于无限增长。飞机的速度不断增长,但不等于无限增长。火箭比飞机快,但那是另一种东西,它也有自己的界限。人工智能的乐观主义者们混淆了不断增长与无限增长的界限,从而夸大了计算机的力量。
4。相对有限与绝对无限
我们说,计算机能力有界,是指一定形态的计算机能力有界。但今后可以有更好的计算机或其它形态的智力机器。从这个意义上讲,机器的能力也是无界的。但这不等于机器可以超过人,因为人也在进步。对人的任何特定能力,机器总可以在某一天达到或超过。但不等于机器全面超过人。比方,电脑围棋超过人类棋手,但人类总体能力提高了。电脑并没有超过围棋软件设计者。所以,要从总体上,动态上,相对上把握,而不是孤立地谈某一点上机器不如人。你说机器超过人,我不说哪一点你超不过,而强调人是一个动态目标。当机器超过原来的人时,人已变成“非人”或“超人 ”。你只能说,未来的机器可能超过今天的人。
系统化的方法论,说起来容易,用起来不容易。
例如,假定我要你吃500个饺子,你肯定拒绝。那我请你吃10个饺子,你不会拒绝吧?不过,当你吃完10个饺子以后,我请你再加一个,行不行?你很难说不行吧。吃完第11个,再来一个,怎么样?这样,步步进逼,各个击破。推出你一次能吃500个饺子。所以要从总体上观察,而不能孤立看问题。
5。量与质
计算机能否“进化”?有人说,机器进化速度比人快。实际上,他是在对“进化”一词偷换概念。机器发展不是一个独立的,像人一样的进化过程,而是依赖于人而发展。它的发展体现了人的发展。
世界上是否存在除人类的进化以外的另一种进化过程?毫无根据。
大脑运动,生物运动,能否归结为物理运动,机械运动?质转化为量,在一定条件下是可以的。超过一定界限,又成为质的问题。如计算复杂性,看起来是量的问题,实际上成了质的问题。
对人的大脑本质还不清楚,怎么把这种能力交给机器?
人获得知识不完全是一个逻辑推理过程,人通过与自然互动,与社会互动,获得知识,与电脑完全不同。
许多事情很难告诉机器。比方,除了形式逻辑,还有价值标准,道德,心理等一系列问题。比方,房子失火,要不要救?一般当然要救。但如果在拍电影,你去救就犯傻了。在战争中,房子失火,要不要救?敌我立场正好相反。要把这一切告诉计算机,谈何容易。从哪里可以看出,从某一点出发,机器可以自己学会这些东西呢?
总之,人类为什么要发明一个东西来控制自己呢?如果要造出人的等价物,人类的繁殖已经如此,何必费那么大劲制造机器人?人造机器是为了弥补人的不足,使人获得更大的自由。
从上述论述,看不出计算机怎么能突然脱离人的控制,独立进化。
我认为,计算机只是一种工具,如同其它人造物,电视,汽车一样。智力机器会普及,就像传统机器普及一样。所谓计算机“思维”,“学习”,“进化”,“智力”等等,这些名词可以用,但与平常的含义有本质不同。不能因为你给了这些名词,它就有这些内涵。计算机也可以叫电脑,但仅仅是一种形像化说法,与人脑完全不是一回事。正像豆腐脑,它的定义是,一种形状像脑的豆制品,而不是“会思考的豆腐”。
总之,人类社会已经进入一个智能机器的时代,各种新奇的人工智能机器将会涌现,将会极大地改变人类社会的面貌。但无论今后的机器如何神奇,它只是人类某种能力,某种性能的替代,扩大,强化。它们永远只是人类的工具,“奴仆”。而不会来控制,压倒,操纵,征服,奴役人类本身。围棋软件与人类的“比赛”只是一种试验,以后不必比了。就像举重比赛,如果有起重机参加,人类的世界冠军也会一败涂地,根本无法对抗。但没有人会嘲笑人类不如起重机,而只会感叹人类的伟大,能够发明起重机这样的“大力士”,大大地强化了人类对抗,改造自然的力量。今后,人类会对智能机器习以为常,不会把它们看作是对人类的威胁,不会把它们与人类相提并论。上面所说的,机器何时能够达到人的智力提问本身是一个伪命题。