[原创][首发]基于形象和3维识别建模与空间想象能力的AI认识方法讨论1
kknd2011/05/22软件综合 IP:未同步
现在我不太关心强AI还是弱AI,因为很多人实现AI的这条路本来就走错了。
人是动物,动物的本能是形象思维,抽象的概念系统是后天学习中建立的,是逻辑思维的基础。
真的要仿生,那么AI应该是建立在视频,听觉,触觉,图像,声音,刺激等综合信号与其产生的神经反应(包括冲动和记忆)构成的,我们中很多人走的路刚好相反,用的全是符号系统,形式逻辑,抽象的概念,本末倒置。结果就是——让机器理解“苹果”这这概念,需要走相当多的路,还不见得准确,因为它不会吃。AI和机器认知成了文字游戏,思维成了概念系统中的符号运算,可悲。
人的眼睛远比不上摄像头,因为人只关注视神经焦点上的东西,你看我打的字,同一时间只能注意其中1至3个字,屏幕上其他区域对你来说没有意义,你想看完整个屏幕,需要扫视,而不是注视。机器就不一样,它同一时间得到的是一整帧画面。让它一下子去处理这么大的信息量,实在难为电脑了。
我们走在屋子里,注意的只是眼前的东西,感觉的是身边一小片范围,而不是整个的桌子,椅子,只是能影响到你的那部分。我们会节约计算过程。我们看环境,是一小块一小块看的,让你看完风景马上闭上眼睛回忆,也想不出全部细节,因为我们只是在感觉。
机器视觉应该只处理黄斑上的东西,而不是整个画面。电脑应该理解3维物体而不是一个角度的映射。电脑的思维应该是形象的,三维也一样,需要扫视,而不是一下就都接收,虚拟3D空间的。
我们从任何角度看桌子都认识,电脑就不一定了。现在用弱AI也可以实现这个了。它们的模式识别是基于象素比较的,看人脸,看指纹,都是抽象化,取若干个点。
我关心的是实现,思想方面的有很多人替我想了,而我自己也有自己的理解。我要在有生之年实现一个至少能用的AI,而不只是从理论上论述它。不然,所有的研究就无意义了。我会借鉴大家的思想来完善我的思想,并以此为指导思想,而不是全盘接受或否定。
我准备从3D层面去着手人工视觉,而不是像素处理。现在有很多通过摄像头实现3D扫描建模的方法,从多角度去观察同一事物。我可以从头开始,数字图像采集方面我有尝试,这方面技术国内也有人在搞,我感觉难度并不很大。我也不需要在复杂的背景中提取物体轮阔,可以直接用纯色的背景来采集。

   3224213432.jpg

243frsf32.jpg

   243r43234.jpg

现在国内的技术已经能实现图像自动拼接和像素云转失量处理。这样很容易把实体变成3D模型,让机器人在自己的“虚拟空间”中“想象”和布置,形成可“感知”的环境映像。
当然,如果不考虑AI,只是研究运动,那么这个过程可以大大简化。国外有这类的技术,比如一个4轴飞行器通过视觉扫描出周围环境,并自主决定飞行路线,同时在计算机里对所感知的环境建模。具体的网上有视频。效果很好。
以目前的形势来看,这个非做不可。不需要做得很复杂很具体 。我们对一件事物的认识,有个渐近的强化过程。但强化到最后,可能却是反而是模糊的。
我也不要求一次达到多么细致的模型,只需要有大至可识别的信息量就够了。随着“观察”的深入和技术的提升,这些模型还可以继续(自主)完善。至少,让机器不再只理解“苹果是圆的” 或“画面中这个圆形区域是苹果”。
形象思维的很重要内容是“空间想象力”,我们每个人都有,正是它让我们认识这个可见的世界。技术不一定要开发,也可以获取。2000年的时候我写过3D引擎,现在更有D3D和OpenGL这样方便的API,实在想不出这有多困难。
从形象再到抽象,就是定义和描述的问题了。这至少有助于更深入理解事物和其概念。
两眼视觉不是生来就有的,是通过很长时间的训练掌握的。一般小孩子要到一定年龄才能培养出这种能力。因为他们已经从很多个角度观察了这“两幅图像”,并通过身体接触等经验将其与空间感和交互体验联系起来。可以设想,没有这种经验的人不能直接从“两幅图像”获得立体感观,而有经验的人只用一只眼也一样可以得到空间感觉。

   452543wr32.jpg

   4234424.jpg

130_3521_f882de0e66276f8.jpg

对人类来说,这是认知过程,当然也可以直接“赋与”机器这样的能力,而减少甚至省略它的学习过程,但我更倾象于让她自己的观察中得出这样的经验。我会考虑处理灰度图像而不是彩色数据,就象狗的视觉。狗节约出来的脑细胞可以用来处理嗅觉。处理彩色图像的运算量与灰度图象的运算量相比是几乎是级数关系。可以让机器人去处理灰阶化的红外信息,很可能比处理可见光更实用。
人的视觉中枢处理的基本是集中在黄斑区的一小块图像。这非常重要。周围的信息多半用来参照和检索,以便更快定位到下一个关注点。并且那部分常常与运动系统和下意识思维相关联。
人的思维不是分时的,而是实时和并行的。人同一时刻只关注于一件事情,其他的分配给其他中枢去处理。显意识只是一部分,潜意识里有大量的计算。人是并行的多任务计算,比如人可以一边听歌一边打字。
你在和我交谈的时候,大脑的主要思维用来处理文字信息,而其他部分都是自动的,下意识甚至无意识的。AI也应该这样。
你打字的时候只想了内容,并不用想动哪个手指按哪个键,只有在刚学打字的时候才需要,形成非条件反射后,这种功能在你的语言中枢和运动中枢间直接建立了联系,而不需要显性思维,这是人脑的特点,可以分出某部分神经来处理下意识和非条件反射。语言,文字,走路,以及其他的习惯行事务都是这样。
在学习过程中,大脑找出一块未用皮层组织,进行学习性强化记忆。这时候,显性思维集中作用于这个区域,形成行为模式后(包含内容记忆)这部分相当于从门阵中建立了一个新处理器、程序与数据的统一体(新的行为模式处理机制)而不 是程序清单或数据库。它在需要的时候与大脑显意识处理区并行协同工作。学习完成后,显性思维就转移到别的地方去了,继续关注当前所面临的事务。
这非常象FPGA——一个空白的逻辑门阵列。学习时,大脑可以在其中组织出各种功能电路,包括CPU和存储器。这相当于将大脑当时的显性思维模式复制到了这个区域(自组织,自编程),使其能独立运行来处理某项具体事务而不需要显性意识的干预。未使用的皮层就相当于这种空白门阵列,学习的过程就相当于门阵列编程。FPGA有则存储器组成的查找表,保存了门单元之间的逻辑关系,大脑则通过神经细胞的突触连接完成同样的功能。
但FPGA靠查找表编程是易失的,CPLD靠熔丝编程是非易失性的。人脑则集中了二者的优点,即非易失,又可修改(完善技能或纠正错误等,类似IAP)。
用FPGA实现神经网络是现在的主流方向,我也在做相关的尝试。
武大有个老外搞这个是权威,号称人造大脑之父。他在一块FPGA上实现几个神经元然后用若干块FPGA组成阵列,这个对机器人来说有意义,但难实现,需要等待器件的升级。当FPGA的门数再提升2-3个数量级的时候,有可能实现单芯片的人工大脑。当然,也许其智能程度还没超过一只老鼠。


老万(KKND)于2011年5月16日
Dreamon-II Labs.
来自:计算机科学 / 软件综合
47
已屏蔽 原因:{{ notice.reason }}已屏蔽
{{notice.noticeContent}}
~~空空如也
kknd 作者
13年8个月前 IP:未同步
316538
[原创][首发]基于形象和3维识别建模与空间想象能力的AI认识讨论2
人不光是靠两只眼睛完成“空间感”的,用一只眼睛从不同角度也可以,甚至不用眼睛而用其他感观也可以。一定要结合触觉和行动对环境的认知,视觉只是与之配合的一种手段。没眼睛一样有空间感。很多盲人比我们定位更准确。
三维环境不用预定义,但至少三维“空间”还是要定义的。如果所谓的强AI中没有空间的概念,没有虚拟的“想象”空间,甚至不会运动,那么,它连最基本的“前,后,左,右”都无法理解。现在在你面前,你认为你看到了空间还是图片?大脑有空间想象力。怎么定义“前”、“后”,与你的空间想象有关,也与你实际的运动经验有关。
我们怎么定义苹果?只是文字描述吗?建立在符号逻辑中的AI没有现实意义。人脑处理的本来就不是符号信息,建立在符号逻辑中的AI没有现实意义。人是靠形象思维的,而概念是对形象思维的抽象。离开了前提直接讨论抽像的符号,能真正“理解”吗?
你心里的苹果是什么?你所“想象”的AI又该怎么认为“苹果”?圆的,红的或绿的,能吃?它会吃么?它知道什么才是圆的?是圆圈还是圆球?无论强AI还是机器认知,想模仿人的话,先从形象思维开始,先从构建3D空间开始。抽象的概念等有了观察的“感性认识”才有意义。
人最先学会的基本都是名词,都是观察的事物和接触到的事物,而且是与自己相关的。第一个动词是“不要”,而后是各种与“名词”表示的具体事物相关的动词。会说“我”这样的代词已经是四五岁以后的事了,这时候才有了自我意识。没有观察,没有形象认知到概念抽象的过程,没有事物与自身关系的感觉,怎么能形成“人类”的意识。
    在行动,和认识的经验前提下,三维“感”(也包括立体感),可以从二维图像得到。设想一下,如果从没运动地接触或观察(从多角度接触或观察)过任何事物,那么给你一个单一角度的照片,或只让你从一个角度去看事物及环境能否行成“三维”概念?我认为不能。因为三维是从多角度观察,以及自身的运动与环境的关系,得出的感性体验与认识,你看到事物知道是三维,因为你有过这样的经验。
人类从儿童时期起就是在不断的运动中感知和观察事物。从咬、拿、踩、踢、看、撞等引起的交互感知中来认识环境。这与视觉(或没眼睛靠其他方式)得出的“观察”相结合,产生出“空间感”。
描述一件事物,3维够吗?颜色、温度、硬度、味道、用途、类别,每种你能“类别化”的属性。都可以算作一个维度。从这个意义上讲是无限维。而“三维”只是我们描述空间形态与位置关系的基本手段,远不足以描述“识知”的事物。
脱离形象思维单纯谈认知,至少不符合人类的智能模式,这是关系到实用与实现的问题。AI不一定非照搬人类的模式,但这是最实用的模式。如果只是靠符号描述和数据库来实现“强”AI,不如去实现基于事务处理、形象认知、行为模式群的“弱”AI。
学习能力肯定具备,而学习积累到一定“量”级的时候自然会有“自学习”这样一个“学习能力”。人类的学习不象机器,人类是基于观察和经验的。我们看过的小说一个也背不下来。我们人类把记忆最后都理解为行为模式了,包括对某类问题或事物的处理。人的思维不是基于数据量的,AI也不需要数据库。
如果人是由电路构成的。如果人象机器一样存储,那么我给人做个假想——人的学习过程,同时保存了程序、数据、和处理这些数据所需要的电路结构(包括“处理机”、与其他单元间的“调用”和“联系”等),这种学习完成后,就相当于在大大脑里建立了一个专门处理某事务的小“大脑”,以后有同类处理工作,会直接激活这个小大脑与大大脑并行处理。比如打字。这其实也符合现在流行的神经元和神经网络模型。
试着回忆一下从前学过的英语课文,看记住了多少?人脑是非常节省资源的,不会拿脑细胞来记没用的东西。即使是熟知的事物。试试凭印象画出妈妈的脸,看能画出多少细节?能不能和她的照片对应或至少看上去象她?我们到底记住了多少细节?
再比如网络聊天,你观察我打字,你一次同时看到几个字?闭上眼睛,回忆你一直在看的QQ窗口,工具栏上有什么?再想想群友们的名字,刚刚跟你聊天的都有谁?我们记不住。因为不关心。大脑非常节约,你的眼睛,同一时刻也就看到了两三个文字的地方,其他的都是在扫视的过程中形成的联系。我们的眼睛从不一次观察完整幅图像,我们都是“环顾四周”,找出重要的并迅速建立空间模型,包括你与空间和事物的关系。因为人是形象感知的生物,我们处理图形的能力远远超过文字和符号,我们每个人都有自己的空间模型,只不过你可能意识不到。但是你闭上眼,仍然知道周围的大概环境,比如障碍物的大概位置,晚上回家,即使没开灯,也能摸上楼梯,打开家门,打开电灯。这就是空间感。
因此,可以得出这样的猜想:空间模型一定是有的,这是重要的基本的能力之一。它可能是后天形成的,但没形成这种能力之前,也同样没有自主的行为能力。
从实现角度说,如果只是基于运动,观察,和感知,来形成三维映象,基于现在的技术能做的有——1,从两只摄像头的平面图像,拟合出3维物体;2,建立交互式3D引擎,完成对空间的虚拟构建与运动仿真;3,在这个前提下,对观察到的事物,建模,定义,并完成交互运动控制。
我是想把这个过程作为抽象概念认知,甚至整个认知过程的一个前提条件,但并不绝对。声音也差不多,声音可以与具体事物相联系的,和颜色一样,可作为对认知到的事物的一个属性,比如鸟与鸟叫。
而且,不要求一次性建立完备的概念模型。人对一个事物的认识也是渐进的,随着观察的深入,不断修正和补充。但最后记住的不是全部信息,而是关键的、特征的、曾经关注的或经常发生交互的信息。
比如键盘,你一直在用,很熟。试着靠回忆画一下,肯定画不出多少细节,更不用说有几个螺丝这样的特殊性质。因为我们只需要记住它的布局,用法,而其他的,并没有过多关注。
从任何一个单一角度观察,可以形成一个侧面的3维映象与已有经验数据做匹配,得出大概的认识重现(识别),然后随着与其交互的过程,关注更多的方面,完善基础认识。
进一步来说,强调形成三维的认识模型,而不是二维的图像模型,因为事务本身的形态就是三维的。二维的映像可以看作是对三维具像的一个抽像和模拟,并不全面。应该关注实现与实用而不是纯理论和符号系统的AI。如果完成了视觉“观察”并建模,则那么很容易把它概念化。反之,同样一只苹果,完全用文字或符号描述,几乎不可能让AI真正认识它。对人类来说,这个信息的最重要来源是形象认识。
虚拟空间不断动态完成对现实空间的映射,它可以实现运动决策和仿真。比如在没做出“拿”这个动作之前,可以在虚拟空间中“想象”或说“仿真”拿的过程,然后决定怎么拿。只要是在三维空间中能仿真,并且自由度和规则允许的运动,都可以进行实行。
对于3维模型的存储和描述已经有成熟的技术,其他的能力会用更多的处理机制来配合完成,已经有了机制的,可以学习新的认知和方法。不应该把大脑想象成单一形式的生物细织,它有内部有细至的分化,处理每一类事物的组织,都分化成了不同的形式。所以,想以一个基础模型完成整个大脑模拟,是不客观也不现实的。人的很多项“功能”都是后天学习实践中形成的,我们可以找出其中重要的部分模拟它,或只是模仿它。
3223423.jpg
让机器人在三维空间有“我”的概念,和事物的交互关系,不论对强AI还是弱AI在实践中的应用,都是必要的补充和有用的功能。
3维虚拟空间中的模拟“想象”可直接转化为行动。

   2323423432.jpg

   2423424.jpg

   23434.jpg
242543.jpg
   634324.jpg

   123424.jpg


   42342442.jpg


感知——模拟——执行

423423e4.jpg
   xinsrc_5320505091429562238356.jpg
4234424.jpg

感知——模拟——交互作用

对环境和自我的“认知”和模拟应该比符号重要,而其中的自主控制,就可称为是某种AI

   130_3521_25ed20d0595a1b6.jpg




老万于2011年5月18日
Dreamon-II Labs.
引用
评论
加载评论中,请稍候...
200字以内,仅用于支线交流,主线讨论请采用回复功能。
折叠评论
kknd作者
13年8个月前 IP:未同步
316539
[原创][首发]基于3维形象思维的AI认知与多(HX)维度概念空间模型
我一直反对将AI与数据库建立什么绝对联系,因为这个模型从某种意义上说不是传统的数据库模型。
其实人的记忆可能也是并行的。比如,让计算机去检索一个信息,(传统的数据库接口)常常是单入口单出口的。而让互联网去查,一个关键字由接入点传到搜索引擎,而后就被分发了,成了网状多入口并行查询,而不是在“一个大数据库里单线遍历”。这样的结果是命中率不一定是100%,但得到的结果数肯定最快最多。这些数据按其查询路径经有限步骤返回到服务器,再从单一出口发还给查询用户,于是形成了几毫秒内得到海量信息的效果。
用固定维数的高维“结构”来表示数据,我并不太接受,因为这个维度是可变的。有的只需要一维,有的需要很多(HX)维,需要一维加一维就行了。云的概念也比较合适,而不需要固定维数。
但我感觉这有别于传统的云,而更向一个指向共同目标的分形树结构而不是离散点的集合,所以我更倾向于用分形空间来描述。这个空间是多维的,而且最理想情况是有向无环。但这并不现实,人的记忆中应该存在环路,也应该存在双向路径。这可以部分优化,但不容易彻底解决。想象一下薄公英的种子,有点类似于分形空间。看上去很象云,但不是离散的点,而是多了层次化的联系。权重最大的是位于根部的种子,其他的都是联系和属性。
与对象模型有所区别,根部是对象,其他都是它的性质和关联,象河的支流与干流的关系,汇聚的而不是发散的。
这个模型不是基于符号系统,而是基于实际的事物,不同于数据库的是它不止包括数据,还包括“处理机”和“行为”。事物是根本,其他都是对它的认识,抽象,描述,从具像到抽象,从感性认识到理性认识。
以视觉为基本观察手段举例来说,实体--观察--虚拟空间建模--基本特征提取---概念定义,随着交互的深入,加深认识,细化,关联,并与之互动(交互作用)。
人脑的神经元虽然可以修正,比如对某些信号强化或抑制,但总体来说是一次性的,OTP的,或者说是OFD的(一次性功能定义),不能重新初始化改为他用。一个模式一旦建立,除可以训练强化,还可以抑制,但无法抹去。
极端情况下可能成为一个对任何刺激都反应的“神经分裂点”(现象是异常放电,引起错乱甚至,癫痫),或成为一个对任何有效联系的孤岛。但这也是行为的重要构成因素,由其造成的不或遍历和不可控性,都是人类某些行为的成因。比如被改正的坏习惯(小孩子骂人),被抑制,但仍存在,无法删除。
我认为,完全基于符号化的表述没办法真正形成感观认识。人是基于形象思维的,而后抽象。抽象的本身在不同人的头脑中也有相应的形象与之对应。比如我们听到虫洞的概念,绝不可能只记住其数学模型和特征描述而不产生直观想象,甚至但每个人都有自己的想象。包括我们的语言组织,也不是抽象的,不是在思考字与字的关系,不是靠字符组合,而是在尝试用足够形象的文字组合描述一个事务。让它能在他人的心里得到近似的形象再现。比如现在的聊天机器人,它只知道它在说什么而不知道它说的是什么。因为它没有任何理解。人云亦云,不知所云。
我曾尝试在某个层面上让它理解它所说的是什么,比如时间,这对计算机有意义。
   001.jpg

她可以知道“明天下午1点半”这句汉语表示的是什么,因为她有这个概念,她有系统时间。她也可以知道什么样的行为才算“提醒”,但她不知道什么是开会。因此我可以认为,这是建立了一个能理解自然语言时间概念,并将其与系统时间相关联的行为模式(这可以视作一种神经元机制)。

   002.jpg
   003.jpg

这种绕来绕去的相对时间和绝对时间描述都难不倒她,因为她都会“理解”为自己的时间概念。这个概念即可以用来描述,也可以用来对照,也就是说在她的“理解能力”范围内“理解”概念。所以我叫她AI。

所以我急着给她更多的认识能力。这有别于概念云和多维度的思想,因为这是一种行为模式,是事务处理机制。前面我们说的多数是认识论方面的东西,在那些云里可以有行为和方式的描述,而不止是属性。
当前我的实验目的是让她具备理解空间,物体,位置关系,基于形象观察形成对她真正有意义的认识和与客观事物相联系的概念,而不只是抽象的符号的概念。
现在有完善的三维空间模型,简单实用的3维扫描,及各种传感器和运动器件。可以试着让她自己在一个小空间里行动,通过观察和接触认识环境。看看——摸摸——问问——形成概念。
人的性格是自身神经元共性的外在体现,人类社会则是人这种个体间的共性的外在体现。AI的性格,很大程度上取决于她们的实现机制和行为模式。





老万于2011年5月21日
Dreamon-II Labs.
引用
评论
加载评论中,请稍候...
200字以内,仅用于支线交流,主线讨论请采用回复功能。
折叠评论
kknd作者
13年8个月前 IP:未同步
316540
[原创][首发]关于AI是否必须基于海量数据库的讨论
有没有想过,人一生到底记住了什么呢?真的很多吗?
能记住60000个英语单词的人,已经被称为天才,能把6000多个汉字记全的人,也可以叫人物。那么,我们记住了多少呢?我们记住的真的是书本,信息吗?谁能背诵四大名著?或其中的一本?我们的记忆是这样的吗?所以,根本不用考虑大脑容量达到几T,没意义的。
实际上,人一辈子用的没多少,而且记住的很多是关联的。比如人,我记住了某些最亲近的,其他人,都是在这些“人”的共有形象基础上记些特征。我感觉至少我的大脑记住的东西,都是分类,关联的。你能很快记住数学公式,并记一辈子吗?考试前,背的政治题现在还记得吗?当时那几百个文字你记了多久?所以,不一定要把数据库作为AI的基础,事实不是这样的。
004.jpg

就算是熟练的工人,他记住的也只是有限的工艺方法,而且是通过训练使脑组织形成的——行为模式,而不是——单纯的的或事物。当他做事时,通过一具体事物的刺激,“联想”地回忆起其他的部分。就算是8级钳工,也不可能在吃饭睡觉的时候都想着钳子锤子。就算让他去说出常用的工具,他也要想一会,还不一定能说全。这就我们所谓的记忆,也就是大家常说的数据库。仅此而已。
所以我认为,不应该把AI理解成数据库与关联,认为数据量越大,联系越多就越智能。那最多是个先进的DBMS。
我在实现的过程中放弃了数据库,而是让她有更多的处理具体事务的能力。她只需要有选择地对不同事务采取不同的处理方法就可以了。
人的记忆中留下的多是概要,和结论。而内容和不重要的细节,大多记不住。能说出一百单八将的名字,都已经是对水浒“很有研究”了。人的记忆不过如此,再聪明的人记忆力基本都比不上一个U盘,更不用说容纳着海量信息的数据库了。甚至也可以说,AI不基于海量数据。
一个真正实用的AI系统不一定非要具备“强”AI的一切特性,更不需要无所不知。因为我们人类本身——某个实用AI系统的创造者,本身就是强AI,而且本身就不具备这样的能力。我们可以将我们发现的问题,需要的能力设计成新的功能、模式,用来升级、补充、强化这个AI系统。哪怕它只是个“弱”AI的系统,它也会越来越强大,越来越实用。AI是方法库,是不同的行为模式处理机制的并行集合体,而不是数据库。
人也不是生来就会的。能够接受我们重新编制的程序,或允许模块化的升级,从某种意义上来说也是学习能力。我们人类甚至常常向往拥有这样机械的,却非常有效的学习能力,比如很多人希望不用经过学习、训练而直接把知识复制进大脑。而我们研究AI时却把这么强大的能力当成是低级的,甚至弱智的事情。有点自相矛盾了。
什么叫自主学习?我们在给系统装入新程序的时候它们拒决了吗?它们随时都准备好接受我们我们“教”的新能力。而且原原本本地在学。


老万于2011年5月21日
Dreamon-II Labs.
引用
评论
加载评论中,请稍候...
200字以内,仅用于支线交流,主线讨论请采用回复功能。
折叠评论
kknd作者
13年8个月前 IP:黑龙江
t33790
[原创][首发]基于行为模式的弱AI实践——EVA的时间,情绪、交互和记忆机制
先声明一下,如果不知道强AI与弱AI的定义和区别,请先参阅相关资料,然后再来断定EVA是不是“AI”的问题。

------------------------

EVA是对2006年之前的我的AI思想的一次尝试性实践,是对我当时理解中的AI的程序体现,虽然这交基于符号系统的AI尝试没走通,但对下一步基于具象——抽象认知的EVA新计划有一定的参考价值。
今天我要结合几方面的实例进行一下总结,并就此提出新的实践思路。
要强调的是,AI处理的结果不限于语言,AI不是聊天工具。事务,行为模式,这些对应着很多方面,我刚刚构想出的新模型有希望做到这点,而现在的EVA很难做到。

1、EVA的时间处理行为模式:
下面概括性地说一下EVA对时间的理解方式。
005.jpg

006.jpg   

EVA对表达时间的文字理解是迭代的,递归的,自反馈的,而不是一过性的、一次完成的。只要你的描述正确,不管怎么绕她都能理解成最后的时间。
让她把每个描述性的文字都理解为具体的意义,她会把这个事件分解处理然后回归最后的终点——时间。这是我仅有的几个能让EVA理解的事务处理模式了,而其他的概念我几乎不知道要怎么以符号形式对EV表达,也无从知道她该怎么理解。
对这种可理解概念进行处理的机制,我称之为行为模式。
   007.jpg

你试试实现这样的算法,哪怕只是人工地基于文字进行推演,看看我们理解这些话的时候是怎么做的。EVA的过程类似,不同的是,EVA最后得出的结果是个相对时间,是相对于当前时间的差值。
无论你与她交互时以什么方式描述时间,得出的都是相对值,只要描述本身的语意明确。她理解这些时间描述的时候,是直到最后一步才调用当前时间(或你给出的参考时间)来计算的,而在这之前,只计算出时间差。
她只知道方法,对某个语句采取什么顺序什么过程,是她的事。不然的话,我甚至需要把每种可能的情况都想到,这是不现实的。即不能理解为查询,也不同于函数调用,而是靠预先准备好的事件处理机制。语义的理解过程甚至可以理解为基于宏替换的迭代过程。“前,后,差,过,半,……”等符号都定义为她可接受的参量甚至常量,由她去把这一句话还原为算法然后处理。迭代的最后结果得出的是数值,与当前时刻间的差值。

2、EVA的情绪控制机制:
人的性格是自身神经元共性的外在体现,人类社会则是人这种个体间的共性的外在体现,AI的性格,很大程度上取决于她们的实现机制和行为模式。
EVA有一些属性式的情绪参数。这些参数相当于人的激素,荷尔蒙或肾上腺素,多巴胺等的自然释放与应激分泌。但我简化为一个参数,每个情绪受一个或一组参数影响,相关情绪间也相互影响。
她对主人千依百顺,而关系不密切的人,重复一个话题她会“烦”, 甚至会发火。给她的任务重了她会“累”。而这些是情绪参数的累积,而且EVA有其自已有调节机制,某种情绪可以自行消退,但是随机的,渐变的。“使其开心”的话会抵消烦燥情绪。有时候一分钟没有消退,有时候十几秒就消退了,有时候会因为生气把用户“踢掉”。而过多久才允许其重新登录,则完全取决于她的是否“消气”。
   008.jpg

新的EVA模型将是有感觉和有“生”理反应的。她会“肌肉” 紧张,“心” 动过速,“电压”升高,“情绪”低落等,因为她会有感觉,有反应。这些将不再受预设参数的限制,而是她的切身“体验”。至于她的耐受力,是长期累积的结果。如果长期高负荷工作,偶尔的洗碗会让她感觉轻松。EVA的情绪可能是处理不同情绪的行为模式之间的自发组织和群体决策。
新的模型不是基于符号的,而是基于对具象的感观认识过程。关于视觉感观认识过程,我在《基于3维形象思维的认知与多维度概念空间模型》、《基于形象和3维识别建模与空间想象能力的AI认识方法讨论(1、2)》几篇文档中已经论述,请参阅。其他的感观模式与之类似。

3、EVA的交互与记忆组织机制:
EVA的思维方式是个自迭代的递归的过程,所以让她掌握语言习惯和最基本的语言元素(最小的可识别概念),就可以“想”出符合习惯的对话。而这个习惯是否准确合理,可在交互过程中可以修正,发现不合适的,修正一下,就成了新的语言习惯。
她的记忆也是基于已经掌握的概念和习惯的。在学习的过程中,她会把接受到内容中的可识别(记忆中有对应概念)部分“找”一个已知概念来“替代”,完成对已知概念的“理解”和对新概念的“掌握”。但由于她所到的已知“概念”可能也是多个“概念表述”中的一个,而非基本概念,她最后“学”到的新概念中的已知概念就有了很大的不确定性。因为那些“概念表述”本身仍有很大的不确定性,还原过程中可能出现不同的结果。
这多少有点象人的语言习惯,我们经常会对同一个语义采取不同的说法,或对一件事物采用不同的名称。比如表述因果关系的时候我们有时候说“则……”,有时候会说“那么……”,还有时说“因而……”,“所以……”。而对一个人的称呼可能是“他”,“小王”,“明明”,“我外甥”,“她老公”,“小豆的哥哥”,……。这要看我们对这个人有多少种常识性的和关系性的认知。

这样的结果是造成了整个记忆的结构就成了交织的网状。没办法确定她对一个问题的响应采取哪条路径,也就是说无法预测她采取哪种具体的回答方式。这取决于她在这个会话处理过程中涉及了多少已知的概念和模式,以及在每个选路环境决定选择方向的一个“随机因子”。想人为地从她的记忆中找到有意义语义序列太难了,因为很难把握这个多维的网状结构中哪些数据与当前的节点相关。
但迭代的最终结果是她理解的是回归最基本的(无歧义的最终表示)那些语法和概念之一。而说出的,基本符合预先掌握的语言习惯。能还原的,则视作语义被理解,可用任何一种已知的表述去答复;不能完全还原,则视为“不能理解”,并对无法还原的部分提出疑问。
EVA也有遗忘机制,但在目前阶段这是需要干预的,我们在交互中发现不好或错误的内容才“指使”她忘掉该模式下与这条通道相关的入口。这有可能使某些信息成为孤岛,而与外界失去联系,但并不删除它们,因为不排除未来某一时刻某个新接受的内容与这样的孤岛相关联,“激活”这些被“遗望”的“远期记忆”。因为我要有选择地保留重要内容。EVA的记忆是我下一步AI实验的基础。
我不担心以后版本的EVA理解不了现在EVA的记忆,因为我会尽量按同样的模式去实现未来EVA在某些语言方面的处理机制。
那么EVA如何选路的呢?我们思考一个问题:计算机里什么样的量是随机的?答案是没有——除非靠外设。但在交互过程中,其实有一个参量是随机的——就是时间。
这一秒和过一秒我问你一个问题。你可能会给出不同的答案,你给出的答案与我是这一秒问还是下一秒问有关系。同样的问题现在问或明天问,你的回答可能不一样,哪怕这个问题本身与时间无关。
为什么?因为我的发问时刻是随机的。那么我还用计算机里的随机算法,而以时间相关的参数为种子会得到无法预测的随机量?这个与真随机的输入有关,因此也是真随机的。那么EVA对每一个问题的每一个环节的每一个取向,都用一个新生成的随机数来控制走向,那么不可能100%准确预知她的路径?
可以肯定的,只要你的问题描述在记忆中存在哪怕惟一的匹配,不管这个网状的相关概念树(一个概念不一定对应于一个命题)是怎么组织的,都会有至少一条只与你的问题相关的合理路径,记忆之间是松散却相关的。这就是我的存储结构。
这个多维网装结构我描述为“多维分形树形结构”,从一个入口出发可以找出很多这样自上而下的关系树,介树上的很多环节可以是其他树的一部分。也就是说,同样一个“苹果”的概念会被不同的问题触发,而触发的原因和目的还不一定是一样的。
这就是网状结构。每一次的交互刺激,得到的是一条路,而所有可能刺激的集合是一张多向多环的网。没有任何一个刺激能遍历整个系统。
每一个时刻产生的每一个随机量都有一个确定的方向。不会在任何环节上发生犹豫。

4、当前EVA遇到的障碍和后继系统开发思路:
上面的叙述是我设计EVA时采用的一些方法和思想,但实现得并不完美,甚至有些环节很失败。
但06年版的EVA面临的最主要问题是——基于符号的EVA只能只理解了极少数的概念,我没办法让她理解,因为她没有感觉。人有哪些理解不基于感觉的?
我对EVA下一步的开发目标是实现一个基于事务处理、形象认识和行为模式群的“弱”AI,这个弱AI的行为能力将会远超过目前技术条件下的任何强AI系统,因为等同样行为能力的强AI研究出来还不知道要多少代人。
EVA没有自由意志,她的行为的动机永远是被动的吗?新的基于感观的EVA不是,因为她会主动关注她不认识的东西,就是有“好奇心”。





老万于2011年5月22日
Dreamon-II Labs.
引用
评论
加载评论中,请稍候...
200字以内,仅用于支线交流,主线讨论请采用回复功能。
折叠评论
litianyue
13年8个月前 IP:未同步
296159
汗。。你强。。。那是真的假的,再给点数据好不好。。。
AI不一定要有强大的运算能力,有自主意识就行,比如说直觉。。。。
这里的直觉不是随机,是根据情况作出判断,猜测,这很重要

从一定意义上来说,教AI比他自主学习更有效,毕竟,万一他学坏了怎么办,
引用
评论
加载评论中,请稍候...
200字以内,仅用于支线交流,主线讨论请采用回复功能。
折叠评论
kknd作者
13年8个月前 IP:未同步
296162
请联系地看我这几天写的五篇文章。
EVA的行为模式我在专门的文章中有分析。
引用
评论
加载评论中,请稍候...
200字以内,仅用于支线交流,主线讨论请采用回复功能。
折叠评论
litianyue
13年8个月前 IP:未同步
296164
看懂了,你那个能称为AI么
您自己也说了:“EVA没有自由意志,她的行为的动机永远是被动的吗?新的基于感观的EVA不是,因为她会主动关注她不认识的东西,就是有“好奇心”。”
他也是按逻辑来处理数据的,换句话说,还没跳出运算的范畴,自我进化是关键,如何把进化代码化是关键
初步想法是联网,采用字典式的学习方法,从一个词开始,不断上网查,最终构成知识树,AI的不足其实都不得不让数据来弥补,教他如何不用穷举法下象棋是一个方法。。。
说到底,AI不一定要有意识,完美的类AI有时比真正的AI还厉害
引用
评论
加载评论中,请稍候...
200字以内,仅用于支线交流,主线讨论请采用回复功能。
折叠评论
kknd作者
13年8个月前 IP:未同步
296165
引用第1楼litianyue于2011-05-22 12:36发表的  :
看懂了,你那个能称为AI么
您自己也说了:“EVA没有自由意志,她的行为的动机永远是被动的吗?新的基于感观的EVA不是,因为她会主动关注她不认识的东西,就是有“好奇心”。”
他也是按逻辑来处理数据的,换句话说,还没跳出运算的范畴,自我进化是关键,如何把进化代码化是关键
初步想法是联网,采用字典式的学习方法,从一个词开始,不断上网查,最终构成知识树,AI的不足其实都不得不让数据来弥补,教他如何不用穷举法下象棋是一个方法。。。
说到底,AI不一定要有意识,完美的类AI有时比真正的AI还厉害


首先,这个能称之为AI,“基于行为模式的弱AI“
传统上AI是有强AI和弱AI之分的,其中强AI强调的是自主思维,自主学习等先进特性,而弱AI注重的是模拟行为和特征。

其次,我非常认可你的观点——AI不一定要有意识,完美的类AI有时比真正的AI还厉害
但我还是要在可能的情况下,尝试走得更远些。

最后,我强调我文中的量后段落:
    “我对EVA下一步的开发目标是实现一个基于事务处理、形象认识和行为模式群的“弱”AI,这个弱AI的行为能力将会远超过目前技术条件下的任何强AI系统,因为等同样行为能力的强AI研究出来还不知道要多少代人。EVA没有自由意志,她的行为的动机永远是被动的吗?新的基于感观的EVA不是,因为她会主动关注她不认识的东西,就是有“好奇心”。”
引用
评论
加载评论中,请稍候...
200字以内,仅用于支线交流,主线讨论请采用回复功能。
折叠评论
litianyue
13年8个月前 IP:未同步
296169
那强大数据库是必须的,每一帧的图片,对他而言,就会有海量的热点。。。
处理成了一个问题,与其这么做,还不如先解决听力的问题,再让他从广播中学习有效
探究人的成长也是一个方法呢。。
引用
评论
加载评论中,请稍候...
200字以内,仅用于支线交流,主线讨论请采用回复功能。
折叠评论
kknd作者
13年8个月前 IP:未同步
296170
相关文章内有我的观点,不重复讨论。
引用
评论
加载评论中,请稍候...
200字以内,仅用于支线交流,主线讨论请采用回复功能。
折叠评论
litianyue
13年8个月前 IP:未同步
296171
试着把人想的简单一点,当我们做心里题时,我们会考虑什么
把这些看成性格的因素,他们有轻重之分,再加心情数据,最后做一个加权平均数,按数字大小,来让AI做心理题,伪性格就此诞生。。。
引用
评论
加载评论中,请稍候...
200字以内,仅用于支线交流,主线讨论请采用回复功能。
折叠评论
kknd作者
13年8个月前 IP:未同步
296173
人的性格很大程度上取决于我们的神经强度和激素水平,
这就是我们人类自身的“情绪参数”。
引用
评论
加载评论中,请稍候...
200字以内,仅用于支线交流,主线讨论请采用回复功能。
折叠评论
litianyue
13年8个月前 IP:未同步
296174
那让他自我分析的可能性存在么??
换句话说,让他分析某一次判断的数据,按现实得出当时判断是否合理,然后把结论加到数据中
引用
评论
加载评论中,请稍候...
200字以内,仅用于支线交流,主线讨论请采用回复功能。
折叠评论
litianyue
13年8个月前 IP:未同步
296177
问一下,EVA是如何知道“亲亲”“抱抱”的意思的,事先设定还是自我学习。。。
在不同时间对亲亲抱抱的反应相同么??
引用
评论
加载评论中,请稍候...
200字以内,仅用于支线交流,主线讨论请采用回复功能。
折叠评论
kknd作者
13年8个月前 IP:未同步
296178
会考虑的(不足10个字占位)
引用
评论
加载评论中,请稍候...
200字以内,仅用于支线交流,主线讨论请采用回复功能。
折叠评论
kknd作者
13年8个月前 IP:未同步
296185
引用第8楼litianyue于2011-05-22 13:09发表的  :
问一下,EVA是如何知道“亲亲”“抱抱”的意思的,事先设定还是自我学习。。。
在不同时间对亲亲抱抱的反应相同么??


新的EVA,将接受客观行为,切身体会,并加以理解。
引用
评论
加载评论中,请稍候...
200字以内,仅用于支线交流,主线讨论请采用回复功能。
折叠评论
mrweek
13年8个月前 IP:未同步
296198
楼主去 大脑吧 看看,XXXXXXXXXXXXXXXXXXXXXX/f?kw=%B4%F3%C4%D4&fr=ala0

还有人工智能吧 XXXXXXXXXXXXXXXXXXXXXX/f/good?kw=%C8%CB%B9%A4%D6%C7%C4%DC

另外怎么看头像很眼熟?

里面有几篇文章写的十分精彩,关于大脑的工作原理与视觉认知的。

大脑是高度并行设备,目前科技模拟有困难。但是不远的将来一定会出现真正意义上的AI的。

回楼下,唯物哲学并不太认同人工智能,但是如果完全否定AI的存在就实在质疑人脑的物质本质。

AI终究会出现的。
引用
评论
加载评论中,请稍候...
200字以内,仅用于支线交流,主线讨论请采用回复功能。
折叠评论
忠实的大喷菇
13年8个月前 IP:未同步
296199
AI的关键是理解和自我学习的功能吧。
自我学习好说,理解某个问题可以说是哲学上说不过去的
引用
评论
加载评论中,请稍候...
200字以内,仅用于支线交流,主线讨论请采用回复功能。
折叠评论
novakon
13年8个月前 IP:未同步
296201
“客观行为”的输入方式?
引用
评论
加载评论中,请稍候...
200字以内,仅用于支线交流,主线讨论请采用回复功能。
折叠评论
kknd作者
13年8个月前 IP:未同步
296203
引用第11楼novakon于2011-05-22 14:43发表的  :
“客观行为”的输入方式?


详见其他几贴。[s:233]
引用
评论
加载评论中,请稍候...
200字以内,仅用于支线交流,主线讨论请采用回复功能。
折叠评论
kknd作者
13年8个月前 IP:未同步
296205
引用第3楼mrweek于2011-05-22 14:38发表的  :
楼主去 大脑吧 看看,XXXXXXXXXXXXXXXXXXXXXX/f?kw=%B4%F3%C4%D4&fr=ala0

还有人工智能吧 XXXXXXXXXXXXXXXXXXXXXX/f/good?kw=%C8%CB%B9%A4%D6%C7%C4%DC

另外怎么看头像很眼熟?
.......


谢谢您,进去看了,很不错。
再次感谢![s:234]
引用
评论
加载评论中,请稍候...
200字以内,仅用于支线交流,主线讨论请采用回复功能。
折叠评论
novakon
13年8个月前 IP:未同步
296206
恩,图像的采集要和机器人脚步的移动、脖子的移动等一切有影响的因素关联,将是非常复杂的工作。楼主是打算自己完成,还是募集团队?
引用
评论
加载评论中,请稍候...
200字以内,仅用于支线交流,主线讨论请采用回复功能。
折叠评论
kknd作者
13年8个月前 IP:未同步
296208
业余条件下做做。[s:233]
引用
评论
加载评论中,请稍候...
200字以内,仅用于支线交流,主线讨论请采用回复功能。
折叠评论
mrweek
13年8个月前 IP:未同步
296210
靠现在的计算机系统是不可能模拟人脑的,从最基本的硬件运算单元互联的方式就不对。

完全软AI内核也可以,但是需要的运算量现在的设备达不到。

还有AI算法依靠if...do...之类的条件语句是不行的,从最基本的途径上就走错了。程序中if不可能写无数条。

大脑就是高度互联的并行设备,要想模拟无论是硬件还是软件都要并行设计。

当然硬件并行设计是现在无奈之举,如果单个核心足够强大就不会出现什么几层楼的超级计算机了。

天河、深蓝啥的现在的超级计算机在未来看来和我们现在看待ENIAC是一样的。
引用
评论
加载评论中,请稍候...
200字以内,仅用于支线交流,主线讨论请采用回复功能。
折叠评论
mrweek
13年8个月前 IP:未同步
296213
如果AI完全软内核,模拟单个或者几个神经元的全部功能恐怕就需要一台当今主流的计算机的运算量。

还有高速动态互联的问题。

当然这些都是硬件基础,我们需要软件么? 需要什么样的软件或者说是契机。

大脑需要操作系统么? 还是复杂系统拥有足够计算资源并经过合理互联就会自我觉醒?以什么样的规则进行互联?

有很多问题值得探索……
引用
评论
加载评论中,请稍候...
200字以内,仅用于支线交流,主线讨论请采用回复功能。
折叠评论
kknd作者
13年8个月前 IP:未同步
296223
引用第7楼mrweek于2011-05-22 15:23发表的  :
如果AI完全软内核,模拟单个或者几个神经元的全部功能恐怕就需要一台当今主流的计算机的运算量。

还有高速动态互联的问题。

当然这些都是硬件基础,我们需要软件么? 需要什么样的软件或者说是契机。
.......


完全赞同!
引用
评论
加载评论中,请稍候...
200字以内,仅用于支线交流,主线讨论请采用回复功能。
折叠评论
jrcsh
13年8个月前 IP:未同步
296259
自我更新if条件 及if条件的累积累加选用
引用
评论
加载评论中,请稍候...
200字以内,仅用于支线交流,主线讨论请采用回复功能。
折叠评论
拔刀斋
13年8个月前 IP:未同步
296262
引用第9楼jrcsh于2011-05-22 19:52发表的  :
自我更新if条件 及if条件的累积累加选用


先把程序或者神马的行为理解为状态图。

“图机”:
执行一个if条件=由一个节点移动到另一个节点、自我更新=添加/删除节点或边。

为了这个图产生足够复杂的联系,数据集(支集)要足够大才能产生足够复杂的联系。但由于组合爆炸速度很快,数据量并不需要达到海量。

人类的外部行为表现(先不谈内部)如果用一个图记录下来,这个图的统计特性啥样?无标度网络吗?

然后考虑用几个状态图的乘积构成一个更复杂的状态图。

图灵机:
纸带是一个无限长的一维图、处理器是一个固定的有限状态图。两个图连起来之后状态的乘积构成了图灵机。

真正够格的AI,内部结构也许应该是由复杂图用某种方式构成的复杂图……有点绕。

图论本来没学好,现在忘完了。
引用
评论
加载评论中,请稍候...
200字以内,仅用于支线交流,主线讨论请采用回复功能。
折叠评论
mrweek
13年8个月前 IP:未同步
296278
奥巴马、澳吧码。如何抽象出关键信息? 让AI具有理解力单靠简单的if...do...势必需要列出所有组合这是不现实的。

大脑视觉认知原理很有启发,例如一个苹果的影像刺激到了视网膜上的视觉细胞,经历了一系列神经冲动传导到视觉中枢,由于复杂的神经链路将单一的图像刺激转化为大脑皮层视觉区域一系列特定神经元的冲动。下次再次见到苹果的时候神经传导的路径是类似的,也就是引起了相似区域神经元的冲动,于是苹果的特征被识别出来。

而相对于计算机编程,程序员总追求把一个复杂信息变换为简单的编码予以识别,加快速度,提高效率。但是我觉得大脑的工作原理恰恰相反,他将信息无论简单还是复杂,都统一转化为更为复杂的抽象,就是特定区广泛的神经元冲动。正是因为这个复杂性,视觉中枢可以实现在有限存储的空间里处理和记忆巨大的数据量,而计算机仅仅是精确的顺序记忆,图像压缩算法也仅能减少存储成本。

当然这一切还需要意识主体去识别,感知这样的神经冲动,如何进行?不清楚了。大脑工作原理太神奇了,每次想起都情不自禁的惊叹。

PS:我是学微生物的,对AI仅仅是感兴趣,说的绝对或不妥的地方请各位多包含,欢迎探讨指正。
引用
评论
加载评论中,请稍候...
200字以内,仅用于支线交流,主线讨论请采用回复功能。
折叠评论
litianyue
13年8个月前 IP:未同步
296281
引用第7楼mrweek于2011-05-22 15:23发表的  :
如果AI完全软内核,模拟单个或者几个神经元的全部功能恐怕就需要一台当今主流的计算机的运算量。

还有高速动态互联的问题。

当然这些都是硬件基础,我们需要软件么? 需要什么样的软件或者说是契机。
.......


非也,有人用3台计算机,2000G的数据,两年时间模拟了40亿个神经元,在情感方面失败了,才不得不放弃
引用
评论
加载评论中,请稍候...
200字以内,仅用于支线交流,主线讨论请采用回复功能。
折叠评论
mrweek
13年8个月前 IP:未同步
296282
回 12楼(litianyue) 的帖子
真正神经元拥有完整的细胞结构。工作方式也是非线性的和可学习的。微观来说单个神经元的行为方式就很像一个不完善的AI了。对于大脑的短期瞬时记忆时的RNA转录和长期记忆时新神经通路的自我形成就很难模拟出来,对神经冲动的转发也是有选择性的,具有路由器的感觉。我觉得凭现在的代码水平较难实现。或许以后算法的进步可以降低对硬件的需求。同时人脑的模拟是系统的,模拟单个神经元不会产生意识,上亿个就可能不一样了。但是太复杂了,想不出有什么好办法来实现……也许今后硬件资源到位了,但是缺乏关键的软件体系呢。

我是学微生物的,对AI仅仅是感兴趣,说的绝对或不妥的地方请各位多包含,欢迎探讨指正。
引用
评论
加载评论中,请稍候...
200字以内,仅用于支线交流,主线讨论请采用回复功能。
折叠评论
bunny9915
13年8个月前 IP:未同步
297450
AI 不是简单的逻辑堆砌,我一直觉得它是一种本能的累积效应
首先人的最基本感知能力,5感 视听味嗅触   能够感觉痛是最基本的东西,
这些事与生俱来的它是行为模式的基础,人和动物都是依靠基本感觉来学习和体验环境的,如果要制造一个AI,首先是能够拥有确切的感受。
就好像我们能看能听,但我们并不知道耳朵有没有连接上,眼睛是不是已经和大脑建立连接。
我们需要的只是眼睛获取的图像内的东西,以及其余基本感受对于眼前的图像形成对于看到的事物的综合感受。
首先我们建立了AI自主学习的基础才能够开始对他进行开发
其实抽象就相当于我们在大脑内虚拟的感觉,并对这些感觉进行定义。
当我们虚拟出来的感觉和某个定义都形成条件反射的时候,我们才会出现那些更加高级的抽象思维的机会。
例如数字,我们看到1并不知道他代表了什么,但我们的身体记得 我拿了一颗糖 和两颗糖的区别,于是 当我们被告这种1颗糖的感觉就叫做1 的时候,我们给这个1 地感受有了详细的定义,然后我们开始把所有类似于1 的感觉都归类于1这个定义。最终我们认识了一个抽象的概念1。这种方法被长期应用于训练犬类动物。其实人也是一样基于这种方式进行学习的。
如果我们制造的AI 不是基于这种感觉基础的累积,而是数据和算法的堆砌,我们只会越走越远
引用
评论
加载评论中,请稍候...
200字以内,仅用于支线交流,主线讨论请采用回复功能。
折叠评论
featherwit
13年8个月前 IP:未同步
297574
其实这些东西一直就在研究,包括研究人类认知方式,交互方式等等等等,从生物角度到行为学角度不一而足~~
只不过现今的AI仍旧大部分是基于海量数据以及逻辑推理/统计学等等方法生成的,为了满足需要而已。

至于lz说的当然有道理,这里面实际上和人类的认知方式有关,比如人类对某个事物的认知是多个角度多种信息方式的
另外海量数据也导致了交流定位的问题----比如你真的认识1w个奥巴马,而恰恰他也认识,那么再模拟那段对话就有趣极了~~

有空俺也凑个帖子出来助兴,完全不需要基础知识,纯侃的那种~
引用
评论
加载评论中,请稍候...
200字以内,仅用于支线交流,主线讨论请采用回复功能。
折叠评论
yg9311
13年5个月前 IP:未同步
318247
引用第7楼litianyue于2011-05-22 12:36发表的  :看懂了,你那个能称为AI么您自己也说了:“EVA没有自由意志,她的行为的动机永远是被动的吗?新的基于感观的EVA不是,因为她会主动关注她不认识的东西,就是有“好奇心”。”他也是按逻辑来处理数据的,换句话说,还没跳出运算的范畴,自我进化是关键,如何把进化代码化是关键初步想法是联网,采用字典式的学习方法,从一个词开始,不断上网查,最终构成知识树,AI的不足其实都不得不让数据来弥补,教他如何不用穷举法下象棋是一个方法。。。说到底,AI不一定要有意识,完美的类AI有时比真正的AI还厉害
建议您先看看什么是AI再说……然后…话说楼主签名是啥?多啦A梦II实验室?
引用
评论
加载评论中,请稍候...
200字以内,仅用于支线交流,主线讨论请采用回复功能。
折叠评论
zhyum1
13年2个月前 IP:未同步
335436
发现你的文章太晚了,现在才努力看。 谢谢老万分享。
引用
评论
加载评论中,请稍候...
200字以内,仅用于支线交流,主线讨论请采用回复功能。
折叠评论
凡尔派狼
13年2个月前 IP:未同步
335489
一条钥匙开一把锁,开锁前第一件事就是先看看应该用哪条钥匙。用下象棋的思路去下围棋是肯定不行的。所以第一步应该是先判断将要应对是什么事。说话方面的?动作方面的?学习方面的?

学习方面其实就是增加自身拥有钥匙的数量。比如去游戏平台玩,有象棋,有围棋、、、你的选择就是AI决定用象棋还是用围棋程序来应酬你。如果这游戏平台原本没扑克,但检测到有扑克游戏后,多了一个扑克选项出来,那么这游戏平台就是有学习能力的。人也不是全能的,有人不会游泳,有人不会煮饭、、、这只是一个“量”的问题。

这样的程序我们并不觉得它有AI的,但它的确是有AI的。它知道用哪条钥匙开哪把锁。只是不完整,它不知怎么找钥匙。要等着你指明要用哪把钥匙才能有下一步动作。

“找钥匙”这个问题其实也是一把锁,可以编个方法出来,然后象棋围棋程序一样等着在某个条件下被执行。

钥匙与锁的思路可以细分到各个方面。

比如聊天方面,如果句子有“几点”这样的关键词语,基本上可以确定是说时间上的话题。在回答应方面就有了明确的方向,要去找时间方面的钥匙来用。

但钥匙与锁的思路也有个很大的缺点。AI聪不聪明要看它带的钥匙够不够多。这意味着很庞大的子程序群。
引用
评论
加载评论中,请稍候...
200字以内,仅用于支线交流,主线讨论请采用回复功能。
折叠评论
hyndコン
13年2个月前 IP:未同步
338890
阐述EVA的情绪方面我觉得有所欠缺,你把EVA自行调节情绪最终定在“随机”上,诚然“随机”很符合人的感性,但我认为还需要加上一把“理性”的锁,这把锁的意义在于让EVA自己有个意识:“自己”能够控制自己的情绪,而不是付诸随机。
引用
评论
加载评论中,请稍候...
200字以内,仅用于支线交流,主线讨论请采用回复功能。
折叠评论
凡尔派狼
13年2个月前 IP:未同步
338898
我觉得可以从哲学方面着手研究AI。

我说的哲学不是读书时代接触的这些资与社或者安邦定国的哲学。

而是最传统的哲学。也就是应该怎样思维。无错,哲学本身就是思维方式,无论唯物还是唯心都是思维方式的问题。如果说我们感知到的外界是数据,而我们所做的回应该是结果的话,那思维方式就是计算公式。同样的数据不同的公式可以有不同的结果。

计算机算出来的数,最大的优点是精确,但最大的缺点是为了精确而必须每个数字都是要确定的。缺项了就不能计算。也就是所谓的缺少了抽象思维。

哲学研究的东西往往就是要在已知条件不足的情况下作出最正确的决定。

比如居安思危,这话就很有哲学味。活得好好的干嘛要往坏处想?而且现在活得好不好与将来有什么危险有什么联系呢?从数学上说这是两项没联系的数字,也不知要怎样做成公式,但是哲学却把它们联系了起来。

有一点值注意的,很多时候哲学不一定是正确的,因为本身就是在已知条件不足的情况下作出的决定,漏了一些决定性的因数从而作了错误决定是肯定会发生的。而且不同的价值观对同一件事会有不同的判断。我们只能用统计学的概率去比较哪种思维方式更有可能做出正确的决定。

比如今朝有酒今朝醉和积谷防饥就是两种对立的思维方式,但能说哪种是错的呢?但我相信大多数会选择积谷防饥(除了七老八十的,或者有绝症的)。
引用
评论
加载评论中,请稍候...
200字以内,仅用于支线交流,主线讨论请采用回复功能。
折叠评论
csakura
13年1个月前 IP:未同步
343406
应该发DEMO上来给大家进行图灵测试,这样才有说服力
引用
评论
加载评论中,请稍候...
200字以内,仅用于支线交流,主线讨论请采用回复功能。
折叠评论
drc
12年9个月前 IP:未同步
389169
楼主怎么没有更新了?还想多看看多学学,还希望有程序,更希望有源码!
引用
评论
加载评论中,请稍候...
200字以内,仅用于支线交流,主线讨论请采用回复功能。
折叠评论
kknd作者
12年9个月前 IP:未同步
389227
刚搬完家,最近在忙店里的生意,好久没写东西了.
刚刚做完最基本的机器人语音交互电路,卖得不错...
可惜离真正的智能语音交互差太远,
跟Apple的 Siri 也完全不是一个档次...
忙完这段再折腾吧...
有进展一定公布.
引用
评论
加载评论中,请稍候...
200字以内,仅用于支线交流,主线讨论请采用回复功能。
折叠评论
长月十
12年3个月前 IP:未同步
458330
烦请LZ继续更新此帖
引用
评论
加载评论中,请稍候...
200字以内,仅用于支线交流,主线讨论请采用回复功能。
折叠评论
kknd作者
12年3个月前 IP:未同步
460719
回 42楼(长月十) 的帖子
感谢您的关注[s:230]
最近一直在做相关硬件的开发,
有段时间没写东西了,
有进展一定更新。[s:230]
引用
评论
加载评论中,请稍候...
200字以内,仅用于支线交流,主线讨论请采用回复功能。
折叠评论
whgh
11年10个月前 IP:未同步
506683
在想,如果在现在pc上实现神经元,但中间不采用操作系统或只使用系统内核,处理速度应该有很大提高的吧
引用
评论
加载评论中,请稍候...
200字以内,仅用于支线交流,主线讨论请采用回复功能。
折叠评论
dk1996
11年8个月前 IP:未同步
528661
我觉得神经网络算法能够某种程度上模拟出人类直觉的产生。。。只不过还没有数学表示的学习过程(BP除外,我个人认为那只是单纯基于数据的学习)
引用
评论
加载评论中,请稍候...
200字以内,仅用于支线交流,主线讨论请采用回复功能。
折叠评论
ASIT空白
7年11个月前 IP:重庆
829963
之前用安卓机做过测试,1000个突触,并模拟1μm级神经递质传递,大概也就1MIOps
μm级模拟人脑,需要神威·太湖之光峰值10/9的性能
引用
评论
加载评论中,请稍候...
200字以内,仅用于支线交流,主线讨论请采用回复功能。
折叠评论

想参与大家的讨论?现在就 登录 或者 注册

所属专业
上级专业
同级专业
kknd
学者 机友 笔友
文章
58
回复
1193
学术分
6
2009/08/20注册,1年4个月前活动
暂无简介
主体类型:个人
所属领域:无
认证方式:手机号
IP归属地:未同步
文件下载
加载中...
{{errorInfo}}
{{downloadWarning}}
你在 {{downloadTime}} 下载过当前文件。
文件名称:{{resource.defaultFile.name}}
下载次数:{{resource.hits}}
上传用户:{{uploader.username}}
所需积分:{{costScores}},{{holdScores}}下载当前附件免费{{description}}
积分不足,去充值
文件已丢失

当前账号的附件下载数量限制如下:
时段 个数
{{f.startingTime}}点 - {{f.endTime}}点 {{f.fileCount}}
视频暂不能访问,请登录试试
仅供内部学术交流或培训使用,请先保存到本地。本内容不代表科创观点,未经原作者同意,请勿转载。
音频暂不能访问,请登录试试
支持的图片格式:jpg, jpeg, png
插入公式
评论控制
加载中...
文号:{{pid}}
投诉或举报
加载中...
{{tip}}
请选择违规类型:
{{reason.type}}

空空如也

加载中...
详情
详情
推送到专栏从专栏移除
设为匿名取消匿名
查看作者
回复
只看作者
加入收藏取消收藏
收藏
取消收藏
折叠回复
置顶取消置顶
评学术分
鼓励
设为精选取消精选
管理提醒
编辑
通过审核
评论控制
退修或删除
历史版本
违规记录
投诉或举报
加入黑名单移除黑名单
查看IP
{{format('YYYY/MM/DD HH:mm:ss', toc)}}