首先我们必须明确什么是人工智能。
1。我国人工智能创始人之一,北京科技大学涂序彦教授对人工智能这样定义:人工智能是模仿、延伸和扩展人与自然的智能的技术科学。
2。在美国人工智能官方教育网站上对人工智能作了如下定义:Artificial Intelligence, or AI for short, is a combination of computer science, physiology, and philosophy. AI is a broad topic, consisting of different fields, from machine vision to expert systems. The element that the fields of AI have in common is the creation of machines that can "think".
3。人工智能的一个比较流行的定义,也是该领域较早的定义,是由约翰·麦卡锡(John McCarthy)在1956年的达特矛斯会议上提出的:人工智能就是要让机器的行为看起来就象是人的表现出智能的行为一样。但是这个定义似乎忽略了强人工智能的可能性。
4。另一个定义指人工智能是人造机器所表现出来的智能性。总体来讲,目前对人工智能的定义大多可划分为四类,即机器“象人一样思考”、“象人一样行动”、“理性地思考”和“理性地行动”。这里“行动”应广义地理解为采取行动,或制定行动的决策,而不是肢体动作。
人工智能从观点上可分为强人工智能和弱人工智能。
强人工智能观点认为有可能制造出真正能推理和解决问题的智能机器,并且,这样的机器能将被认为是有知觉的,有自我意识的。强人工智能可以有两类:
1.类人的人工智能,即机器的思考和推理就象人的思维一样。
2.非类人的人工智能,即机器产生了和人完全不一样的知觉和意识,使用和人完全不一样的推理方式。
弱人工智能观点认为不可能制造出能真正地推理和解决问题的智能机器,这些机器只不过看起来象是智能的,但是并不真正拥有智能,也不会有自主意识。
目前的主流科研集中在弱人工智能上,并且一般认为这一研究领域已经取得可观的成就。强人工智能的研究则出于停滞不前的状态。我们平时所讲的人工智能其实就是在说强人工智能,但所进行的却是弱人工智能。
从人工智能的早期定义来讲,弱人工智能并不算人工智能。因为早期的人工智能要求机器本身具有独立的思维,可以自我复制,修正,完善。而弱人工智能否决掉了这一点,因而很难将其归入人工智能。而强人工智能的定义就应该是从这种早期观点演化而来的。
“强人工智能”一词最初是约翰·罗杰斯·希尔勒针对计算机和其它信息处理机器创造的,其定义为:“强人工智能观点认为计算机不仅是用来研究人的思维的一种工具;相反,只要运行适当的程序,计算机本身就是有思维的。”
关于强人工智能的争论不同于更广义的一元论和二元论(en:dualism)的争论。其争论要点是:如果一台机器的唯一工作原理就是对编码数据进行转换,那么这台机器是不是有思维的?希尔勒认为这是不可能的。他举了个中文房间的例子来说明,如果机器仅仅是对数据进行转换,而数据本身是对某些事情的一种编码表现,那么在不理解这一编码和这实际事情之间的对应关系的前提下,机器不可能对其处理的数据有任何理解。基于这一论点,希尔勒认为即使有机器通过了图灵测试,也不一定说明机器就真的象人一样有思维和意识。
也有哲学家持不同的观点。Daniel C. Dennett 在其著作 Consciousness Explained 里认为,人也不过是一台有灵魂的机器而已,为什么我们认为人可以有智能而普通机器就不能呢?他认为象上述的数据转换机器是有可能有思维和意识的。
有的哲学家认为如果弱人工智能是可实现的,那么强人工智能也是可实现的。比如Simon Blackburn在其哲学入门教材 Think 里说道,一个人的看起来是“智能”的行动并不能真正说明这个人就真的是智能的。我永远不可能知道另一个人是否真的象我一样是智能的,还是说她/他仅仅是看起来是智能的。基于这个论点,既然弱人工智能认为可以令机器看起来象是智能的,那就不能完全否定这机器是真的有智能的。Blackburn 认为这是一个主观认定的问题。
基于Simon Blackburn的观点,我们可以发现弱人工智能并非和强人工智能完全对立,也就是说,即使强人工智能是可能的,弱人工智能仍然是有意义的。至少,今日的计算机能做的事,象算术运算等,在百多年前是被认为很需要智能的。
从强人工智能的本身讲,至少从目前看是不具备实际意义的。因为它的设想完全是从生命学的角度来讲的。从它的定义不难看出,其要求机器要类同于生物的智能形成一样。仅仅给予其硬件的基础和一个简单的激活程式,之后就要求其靠自己来进行学习来获得技能。这对于仿生学的要求是非常高的。从目前的技术角度来看是没有任何可能的。这就好像一群原始人学会了升火,但没有学会造炸药,一样得用手来开山,修路。激活程序就好像是火,硬件就是炸药。现在的研究,也最多不过是局限于软件的开发,没有硬件的支持,一切都是空谈而已。
当然不论是强人工智能还是弱人工智能,从本身讲对于人类的生存绝不可能出现很大的威胁。首先人工智能是从仿生学的角度来研发的,简单的来认识,其实也不过是一个由无机物构成的生物而已。而且其是通过学习来进行技能的获得的,其在知识的掌握上,最多也就是和人类一个水平而已。而弱人工智能就更不用说了,因为是通过软件来模拟智能的,因而本身是存在设计漏洞的,是不可弥补的。即使有了漏洞的查找修补软件,因为查找修补软件本身也是人设计的,也有漏洞。固而软件是有漏洞存在的,而且具有不可自我弥补性。就好像人体的免疫系统无法对抗先天性缺陷一样。而这样的机器人的自我复制,会将这种漏洞一直传承下去,就好比人类的遗传病一样。而强人工智能一样会存在硬件上的具有不可自我弥补性的漏洞。从这个角度讲,不论什么人工智能都会存在不可自我修复的缺陷。因而其也就不可能是无敌的,人类只要从这一点出发,开发一些类似于现在的基因武器的东西就可以了。机器具有相同,因而这种武器也就具有了通用性和不可抗拒性。所以完全不必要杞人忧天的想着人类会被自己发明的东西灭绝。事实上在现在生物界上,把思维的分界点定在了腔肠动物。即原生动物不具备思维能力。所谓的先天不是指遗传带来的思维,而且思维本身是不能遗传的。而是指由遗传带来的思维结构。而后天就是指由这种思维结构决定的学习能力带来的学习成果。机器人的问题就在于,我们无法完善的建立一个思维结构体,让他来自主学习。事实上在母体中,当大脑形成时,我们就已经开始学习了,而且是没有选择性的局限性的学习,即你给他一个东西,他就是会自主学习。但是机器人的问题在于,我们虽然给他一定的学习的能力,但是这种学习能力的本身不是由硬件决定的,而且是具有局限性的。因此他本身只能算是一个具备一定判断能力的逻辑推断体,但不能叫意识体。因为每个人因为学习的不同,都存在思维死角,因此不可能制造出这样的东西。正如我们现在无法通过自身能力,改造一个类人猿让他变成人,或者让人进化到更高级。必然只能通过改变环境,来对生命体的随机突变进行选择.
个人认为硬件结构在机器人的发展上最重要,意识其实完全是一个计算量的问题.即针对问题,进行可能性计算,并找出最好的方法.生物对于问题就是将经验结合进行计算判断的结果.我认为古代希腊数学的思想很好,足够的计算量可以解决一切的数学问题,而世界是由数构成的.逻辑的基本无非就是与或非,如何把问题转化成数,并进行计算,这便是现在的意识的解决方法.因为世界上不会有同样的两件事,单纯的进行事件的反射的教育,是很难满足工作的需要的.仅仅是一个消极的对待.授之鱼不如授之鱼.找到事物与数的联系,进行转化,然后计算,然后就可以作用了.
时段 | 个数 |
---|---|
{{f.startingTime}}点 - {{f.endTime}}点 | {{f.fileCount}} |