中国神经科学论坛

 找回密码
 注册

扫一扫,访问微社区

QQ登录

只需一步,快速开始

查看: 5121|回复: 2

认知对思想行为的影响

  [复制链接]
 楼主| chenghwn 发表于 2011-11-27 19:22:32 | 显示全部楼层 |阅读模式
本帖最后由 chenghwn 于 2011-11-30 15:39 编辑

格式比较乱,我新修改的见二楼的附件。

认知对思想行为的影响一、前言我们的认知是如何影响我们的思想行为的呢?当我们通过推理得出,如果进行某些行为会带来奖赏,我们会追求这种奖赏,而当我们通过想像也得出这种结论时,我们不会去追求这种奖赏,……。为什么?我们的思想行为为什么会这样,我在奖惩中枢与学习的这篇文章中将它们归结为奖惩学习与奖惩预期,只进行了粗浅的讨论,但没有具体而深入讨论下去。本文,就是要更进一步的讨论之。
如何讨论呢?现有的认知神经科学对它们的了解非常有限,对现有的神经科学来说,这是个非常复杂的问题。我在新论复杂性问题这篇文章中指出了,我们简化复杂性问题最有效的方法之一就是明确讨论对象的结构与功能,从而简化思维过程。现在的问题就是,在现有的神经科学的知识背景下,我们对大脑的结构与功能(指与认知过程相关的功能)无法明确,因而在这里我不得不借助智能机器人来论述认知对思想行为的影响(这样我们就能根据已有的知识明确与认知相关的结构功能及它们的之间的功能关系,从而简化思维过程)。我无法肯定人一定会采取本文所述的方式来用认知影响思想行为,但我从理论上证明了,采取下面的方法,能使智能机器人的认知,对它的思想行为的影响特点与人相似。我认为人应会采取与下述的方法相似的方法来……。
奖惩预期是认知对思想行为影响的关键。有必要先适当设置智能机器人的奖惩预期中枢的结构与功能。
二、奖惩预期中枢1、奖惩预期的一些特点如何模拟人设置智能机器人奖惩预期中枢的结构与功能呢?先让我们分析下面的几个例子。
日常经验告诉我们:1、我们总是首先追求那些能给我们带来更多利益的目标。(这是动力预期的结果)2、当一个目标相比其它目标更能带来利益,但实现目标的可能性比较小时,我们可能会选择那些实现的可能性较大,并能带来较大利益的目标来追求。(这也必然是动力预期的结果。),但如果其它的目标所能带来的利益与它相比如果相差太大,即使它实现的可能性与其它目标实现的可能性有一定的差距,我们也可能会选择它。3、两个目标,当我们对它们的动力预期相同,而预期实现的可能性也相同时,我们会难于取舍。4、如果预期两个目标所带来的奖惩一样,但其中一个实现的可能性大时而另一个实现的可能性相对较小时,我们会选择那个实现可能性大的目标。
当然具体到不同的人,他们的具体选择会有所不同,但都会遵守上面所述的规律。我们的选择都是根据目标的奖惩预期(动力预期)的大小做出的,谁的动力预期值大,我们就会选择谁。
比如,如果两个任务完成后分别能得到十箱苹果或十箱桃子,且只能选择一个任务,从而只能获得苹果或桃子。对我来说,苹果、桃子都喜欢,但更喜欢苹果,我会这样来选择任务:1、在预期两个任务目标实现的可能性差不多的情况下,我会选择那个能获得十箱苹果的任务。2、预期经过努力获得苹果的那个任务实现的可能性较小,而获得桃子的那个任务实现的可能性非常大时,我会选择那个获得桃子的任务。3、如果我对苹果与桃子喜爱度相同,而预期两个任务实现的可能性差不多时,我会难于取舍。4、但如果将十箱桃子换成一个小桃子,即使预期经过努力获得苹果的任务完成的可能性非常小,而获得桃子的是必然的,我也会选择能获得苹果的任务。当然不同的人会有不同的选择。这几种情况下的选择都是动力预期的结果。
分析上面几种情况下的选择,我们会发现一个目标动力预期的大小与目标最终实现所获得的奖罚的动力(用A表示)大小及实现目标的可能性密切相关,在实现目标最终所能获得的奖罚的动力大小一定的情况下,实现的可能性越大则动力预期越大,但不会超过A的大小,A的大小与实现的可能性成近似正比例关系。我们可以这样认为,最终的预期动力的大小(用M表示)是A与实现的可能性的大小(用B表示)及一个变量(K)的积,即M=A*(B*K),B×K只能小于或等于1。
再以普通推理为例,日常生活中,普通的推理过程会多次与不同的具体的奖惩建立记忆联系,但当我们通过普通推理得出通过某些方法必然能获得某些食物,这时的奖惩预期的大小一般情况下便是食物所带来的奖赏,不会超过获得食物所获得的奖惩,也就是说普通推理过程一般情况下产生的动力预期有限或忽略不计。它对奖惩的影响是,当我们通过普通推理获得某些结果后,实现的可能性会总在一定范围内,普通推理过程会影响获得食物的奖赏预期的值,这个值的大小一般会是获得食物所获得的奖赏值与这个普通推理所带来的实现的可能性的范围的积。
当我们预期到获得一个食物的可能性较小时,我们的动力预期会比获得这个食物的动力预期小许多,绝不是这个食物的动力预期。当我们进行某些思维过程认为能获得食物时,获得食物的动力预期的值会与获得食物的动力值相似(比如通过普通推理获得),而通过另一思维过程想到食物时,获得食物的动力预期的值会远小于获得食物的动力值(比如通过想像获得)
如果不设置一个不直接带来奖惩的奖惩预期计算中枢(或功能与之相似的的中枢)来模拟计算现实中的奖惩预期,便无法模拟实现上述的动力预期功能(至少我现在没有想到更好的方法)。
因而为了让智能机器人模拟上面所述的,现实生活中经常发生的选择事件,我根据它们的特点设置了下文所述的动力预期计算中枢。
2、奖惩预期计算中枢的设置对于智能机器人,为了更好的实现奖惩预期,我设置了一个中枢(或它就包含在奖惩中枢的联络区当中),它的兴奋与奖惩中枢的兴奋保持一致,也分奖和惩结构部分(奖赏中枢兴奋时它相应的奖部分一定兴奋,惩罚中……,但它兴奋时奖惩中枢不一定兴奋),同时它还包含一个综合计算结构。这一中枢是参与奖惩预期计算的中枢,其计算方式是根据它的奖赏部分与惩罚部分的兴奋的某些特点来计算(由综合计算结构来完成),其计算方法是:如果目的完成后的动力大小用D表示,而这一中枢兴奋后的计算值用M(为获得奖赏次数除于,获得奖赏与惩罚的次数之和,)所获得的值)表示,则实际预期动力(SD表示)为SDD×MM小于或等于1)。它们能与其它皮质中枢建立记忆联系。我用预期计算中枢(用yjz表示)来表示它。
还有一种情况,就是不设置专门的奖惩预期计算中枢,而从已有的中枢中,通过设置获得一个功能与之相似的中枢。方法是:可设置状态中枢的基本记忆柱群,使它包含抑制性的记忆柱与兴奋性的记忆柱,抑制性的记忆柱兴奋后向皮质传出抑制性的冲动同时对兴奋性的记忆柱进行抑制、兴奋性的记忆柱向皮质传出兴奋性的冲动。当基本记忆柱群兴奋时抑制性的记忆柱与兴奋性的记忆柱都可兴奋,只是兴奋的强度不同。它们能与兴奋的奖惩中枢建立记忆联系,惩罚中枢促进抑制性记忆柱的兴奋抑制兴奋性记忆柱的兴奋,并与抑制性的记忆柱建立兴奋性的记忆联系。奖赏中枢相反。
对象(K)在不同的条件下兴奋,有时获得奖,有时获得惩,从而与奖和惩中枢分别建立了广泛的记忆联系,同时也与预期中枢的综合计算部分更多的建立了记忆联系。在进行动力预期的主注意目的(比如在预期获得食物的可能的时候)下,当对象(K)被注意后,它可能会成为亚主注意目的对象,利用它与奖惩中枢及奖惩预期中枢的记忆关系来与主注意目的对象建立记忆联系(如何建立的见我的注意力问题的系统讨论及关于亚主注意目的的blog),从而使它利用主注意目的对象通过注意力分配中枢来易化或抑制预期中枢从而使我们的预期与环境刺激相适应。
虽然我们可通过设置奖惩与状态中枢来获得设置动力预期计算中枢的计算部分的功能。但综合计算部分的功能必须设置一个专门的中枢来实现。相比较而言,我觉得进行智能编程设置一个专门的动力预期计算中枢更简单明了。(当然如果从生命进化的角度来看可能不是这样,直接利用奖惩中枢及注意力中枢可能比再专门进化产生一个计算中枢更容易进化产生。)
如图1:可有两种方法实现动力预期的计算,1、是直接设置动力预期计算中枢。2、是对状态中枢的记忆柱进行设置。使之产生与专门设置动力预期计算中枢相似的效果。
图1 奖惩预期的计算
1、图1各个中枢之间的功能联结关系一方面通过设计获得,另一方面通过奖惩学习获得。比如,预期计算中枢的计算部分与综合计算部分的关系就可通过设计“先天”获得。而对于最终的预期动力大小的选择可通过奖惩学习获得(由预期刺激直接获得的预期动力在实践过程中会经常带来惩罚,而通过计算获得的预期动力更多的情况下会带来奖赏)。
2、对于一个刺激如果带来奖赏会兴奋动力预期计算中枢的奖部分(或更多的兴奋状态中枢与综合计算部分相对应的基本记忆柱群的兴奋性记忆柱)并与它们建立记忆联系。它带来惩时机理相似。再进行动力预期时不管是通过动力预期计算中枢,还是通过状态中枢的对应记忆柱所产生的最终效果应相似(当然需要相应的设计)。
关于这个计算中枢如何影响动力预期的,一种方式可以通过直接的编程规定获得(也就是进行奖惩预期时必须先天有计算中枢的参与),另一种方式可以通过学习获得。如何通过学习获得呢?当我们进行奖惩预期时,由于不通过计算中枢而直接获得的动力预期往往带来惩罚(比如当婴儿看到一个他无法吃到的苹果时,如果他的动力预期是吃到苹果的动力,则他便会以获得苹果为目的,就会不断获得惩罚,当然这是个简单的讨论,实际情况要复杂的多),从而使这一预期过程更多的与惩罚中枢建立了记忆联系,那么再进行动力预期时,这一预期过程在惩罚中枢的影响下会被抑制,而通过计算中枢计算的奖惩预期由于能与环境相适应,因而往往带来奖赏,更多的与奖赏中枢建立相应的记忆联系……。从而在每次奖惩预期时,通过计算中枢来计算动力预期大小的通路会受到易化,而另一条计算通路会被抑制,最终习惯化。
这样,在智能机器人多次追求一目的的过程中,如果所引起的奖赏部分兴奋(目的完成)的次数越多,惩罚部分兴奋的次数越少,则表示下一次这一目的实现的可能性越大,因而奖惩预期的动力大小越接近目的完成后对动力中枢的兴奋。通过经验学习当M大于一定的值(这个值小于1)后,我们便预期SDD,而当M小于一定值后(大于0)我们对M的计算便等同于0。
某些环境状态下,一神经通路的兴奋(用A表示,这一神经通路的兴奋即可以是某类刺激引起,也可以是某类思维过程、认知结果或行为方式引起,比如现实刺激或普通推理等)出现时多数情况下能获得奖赏,这种情况下MA约为1。而在这些环境状态下AG(也是一神经通路)同时兴奋时,有时能,有时不能获得奖赏,则当AG同时出现的情况下其动力为MA×MG,大概为MG(通过计算而来)。
动力预期计算的有关问题
关于动力预期的大小如何计算的问题。比如对一个必然能获得的食物的动力预期的大小,在我们获得了食物后,通过记忆,它的动力预期的大小就与获得食物后所产生的奖赏相一至。我在奖惩中枢与学习这篇文章中指出了它来源于奖惩经验的学习、记忆。获得食物后,产生奖赏(奖惩中枢兴奋,包括奖惩预期中枢),食物就与奖惩预期中枢建立了记忆联系。这解决了预期动力的基础问题,还有它的比值问题。奖惩预期计算中枢的奖与惩部分就是分别记忆奖与惩发生的次数与强度然后由综合计算部分按一定的方式计算出来,就获得了预期的比值的大小。这种记忆是通过实践中的奖惩经验获得的。
在动力计算过程中亚主注意目的与状态兴奋在其中发挥了重要的作用。举一个理想状态下的例子,对一个奖赏对象D来说,在A环境刺激发生的情况下,根据经验预期D出现的概率是MDA,而在B条件下,根据经验预期D出现的概率是MDB,而在A与B同时出现的情况下,虽无这方面的经验,我们仍可预期D出现的概率大概是MDB·MDA(当然如果A与B同时出现了,但我们只注意了A,就会主要只有A对我们的奖惩预期产生影响,而B的影响会很小)。这种在多个影响奖惩预期的因素同时发生的情况下,我们是如何将它们的影响进行叠加的呢,答案是在主注意目的对象及亚主注意目的对象的影响下进行的状态兴奋。
比如:对于小孩(或智能机器人)来说,当如何推理处于学习阶段,没有成为“习惯”时,这时通过奖惩经验学习他们会认识到在完成某些特定任务的过程中,推理有助于任务的完成,而如果不推理不利于任务的完成,因而在进行与推理有关的动力预期时,他会回忆起推理,推理相关的神经通路会成为亚主注意目的对象(认为注意它时目的完成的可能性大,而不注意时目的不能完成)。由于参与动力预期的与推理相对应的预期计算中枢的记忆柱在状态中枢也存在对应的记忆柱,因而这时(在进行动力预期),这些状态中枢对应的记忆柱就会与主注意目的对象建立记忆联系,从而被进行预期的主注意目的不断易化兴奋,(动力预期时,动力预期中枢相关的记忆柱会受到主注意目的的易化,从而使动力预期能正确进行,这是奖惩学习的结果。使在用“推理”进行动力预期时更能兴奋预期中枢的记忆柱)这样,最终的预期结果,“推理”的影响会参与进去。在“最终”的预期时,在预期计算中枢与推理相对应的记忆柱会受到主注意目的的持续易化兴奋,其它能影响预期结果的因素也会在主注意目的的影响下通过状态中枢对预期计算中枢产生持续的易化兴奋,最终按一定规律产生总和(如何总和的,我们应根据现实规律进行设计)。
如图:在主注意目的下,因素1(或因素2或因素3)进行动力预期后,与因素1相对的预期计算中枢的综合计算部分的记忆柱在状态中枢也存在相对应的记忆柱(用z表示),这些对应的记忆柱会与主注意目的对象建立记忆联系,然后在主注意目的对象的周期性易化兴奋下z也被周期性易化兴奋,从而使综合计算部分在进行动力预期的过程中始终受到z(因素1或2或3)的易化兴奋,这样在最终的动力预期发生时,所有我们注意到的影响动力预期的因素都会对动力预期的计算产生相应的影响,只要设计适当,这种影响会让动力预期的计算与环境相适应。
图2 多因素影响下的奖惩预期
当小孩或智能机器人的推理熟练化(习惯化)后,由于推理可不成为亚主注意目的对象,在动力预期时也可不成为注意对象,前文所述的过程便可能不会发生,也就可不去直接参与动力预期,这种情况下“推理”不参与动力预期并不会对最终的预期结果产生太大的影响,这是因为推理所带来的预期比值比较高,当不考虑它的影响时,对最终的预期值并不会产生太大的影响。但想像需要始终参与进去,因想像会对预期值产生重要影响,如不参与就会带来惩罚,从而强化与预期目的的关系。通过长期的实践,最终,推理或想像所产生的相关结果与随后的认知或行为的关系会习惯化。也就是说某种情况下,我们会习惯性进行推理或想像,并用推理想像的结果习惯性的指导我们下一步的思想行为,这个过程可不进行专门的动力预期。
关于那个苹果与桃子的例子,首先,我有关于苹果与桃子所带来的奖赏经验,并且有奖赏对象多少对奖赏预期大小影响的奖惩经验(这些经验会与动力预期中枢及动力预期计算中枢奖与惩部分分别建立记忆联系)。这样,根据已有的相似经验,苹果、桃子及它们的多少对我所能带来的基本的奖赏预期大小(其大小基本等于获得苹果或桃子的情况下的动力值)便确定了。任务完成后,奖赏的获得情况,我们会根据是谁制定的规则来进行预期计算(以前有类似的奖惩经验)。至于任务完成的可能情况,对动力预期的影响,我们应有与这两个任务相似的完成任务的经验,我们根据经验作出动力预期的计算。这些奖惩经验计算在我上文所述的计算方法下影响了最终的动力预期计算(任务完成的可能情况及规则是谁制定的这两个因素能在状态中枢的影响共同影响M的大小),计算结果又决定了我们的思想行为的方向。
预期计算中枢主要参与动力预期的计算,现实中可能发生的事件的概率的预期它可不参与,但这种预期的能力是在预期计算中枢的参与下通过奖惩学习获得的,并且对现实中可能发生的事件的概率的预期可参与动力预期的计算,如何参与也是奖惩经验学习的结果(其预期计算方式与上文所讨论的推理、规则等对动力预期的影响方式相似)。
这种预期直接影响到智能机器人的行为。对它们的认知具有重要的意义。
  3、对思想行为的影响。认为现实发生的问题(下面对现实的讨论都是假设对现实刺激的反应没有习惯化的情况下的讨论)。1、以现实发生的事件做为思考的基础,一般能带来目的完成,兴奋与奖赏相对应的yjz部分。以非现实发生的做为思考的基础,一般情况下,目的不能完成,兴奋与惩罚相对应的yjz部分。2、如果通过某些回忆或() 认知方法获得的认知结果,在被我们认为是现实发生的情况下,指导我们的行为,往往能带来奖赏。今后通过这些方法获得的认知内容,我们便会认为是现实发生的。我们判断现实发生的方式,都是通过这种方式获得的。在这些回忆与认知方法下获得的认知结果,如果是对可能发生的事件的认识,那么我们往往认为是已经或将要现实发生的,这时yjz的比值往往比较高,这是因为在整个认知过程中各种认知方法的yjz的比值都比较高,因而最终的yjz的比值也就高。3、被回忆、认知为现实发生的事件,在参与动力预期时,yjz的比值往往比较高(指奖赏对应部分的兴奋强度与惩罚对应部分的兴奋强度比经计算后的M),从而用它来指导行为。现实感觉、对感觉的现实回忆,那些回忆方式产生的回忆内容被认为是现实的,那些是现实感觉,都是奖惩学习的结果。这些回忆方式都会在实践过程中与yjz建立了记忆联系,并以此来指导行为,这些都是现实认知产生的基础。
哪些类型的推理、想像、回忆能使yjz高比值,都是长期奖惩学习的结果。某些类型的思维过程或认知结果(比如在认知后认为结果能实现),在实践过程中往往能带来任务完成,从而更多的与yjz的奖赏对应部分建立记忆联系,如现实回忆、对现实发生的推理、以现实发生为基础的思考等。
认知对思想行为的影响,也可以说是奖惩预期对思想行为的影响。在奖惩预期的思维过程中如果存在能引起yjz兴奋比值低的思维类型,思维目的结果的动力预期便低,如果没有这样的思维类型,其动力预期便会相对高,思维目的对象的实现可能性大,对yjz的兴奋比值高。
举个例子:在普通环境及我们清醒的情况下,我们看到(注意到)某一对象(比如苹果),进行普通回忆(非想像性回忆),这时我们的回忆内容如果兴奋了奖惩预期计算中枢(下面的情况相似)则主要兴奋yjz的奖部分(一般是现实的),再根据回忆内容进行逻辑推理得到结果(能获得苹果)(主要兴奋yjz的奖部分),根据结果来进行奖惩预期,这时M应较大,在这种情况下,我们会采取获得苹果的行为。而如果我们在思维的过程中进行想像性回忆(获得苹果),则可能主要兴奋yjz的惩部分,奖惩预期时M较小或即使没进行奖惩预期,M也较小,我们在这种情况下,不会采取获得苹果的行为。当然这只是一个简单的例子,其实奖惩预期通过长期的学习,有时是个复杂的过程。
当然一个思维过程与随后的认知与行为习惯化后,最终可不需要yjz的参与(具体的机制可参考我的注意力的系统分配这篇文章),这相当于默认yjz的比值为1或为0或为一固定的值。
经常能使目的实现的认知一般是:普通性回忆、推理、某些类型的认知结果及刺激对象为可信人的言语或其它等所参与的认知。经常使“行为”目的不能实现的认知,一般是一些特殊类型的想像或某些特殊类型的认知结果,及刺激对象一般为不可信人的言语等所参与的认知。可信人的言语内容通过普通性回忆,推理而自然回忆起目的的实现,便能通过(可通过状态性兴奋:言语内容、普通性回忆标志对象、目的对象进行回忆)回忆兴奋奖赏预期中枢,从而通过行为来实现目的。而由不可信人的言语或想像回忆起目的的实现,便兴奋惩罚预期中枢,从而不通过行为来实现目的。其它的影响认知对行为影响对象或思维过程方法相似。
通过长期的实践,最终,认知的产生及其所产生的相关结果与随后的认知或行为的关系会习惯化。也就是说某种情况下,我们会习惯性进行某种认知(如推理或想像),并用这种认知(如推理想像)的结果习惯性的指导我们下一步的思想行为,这个过程可不进行专门的动力预期。
三、小结认知对思想行为影响的奖惩学习可以作以下总结:一神经通路(比如推理、想像等),先通过奖惩学习选择获得与其它神经通路的兴奋与抑制关系,然后习惯化(比如通过学习在某些情况下我们会通过推理来解决问题,开始是认识到应推理,后来是习惯性进行推理)。通过学习获得它的功能联系后,能对思想行为的方向起指导作用。也就是说,先预期用这一神经通路参与的思维结果指导思想行为时往往能带来正确或错误的结果,从而指导思想行为的进程。经常指导发生兴奋关联,不断强化这种指导关系,最终将这种指导关系习惯化(会在皮质与状态中枢带来一系列的变化)。比如推理与想像的作用。通过上面的学习,一般情况下,推理的内容我们会习惯性的用它来指导我们实行或准备实行思想行为,而空想的内容我们一般不会。
  


该贴已经同步到 chenghwn的微博
chenghwn 发表于 2011-11-30 15:37:51 | 显示全部楼层
附件是我新修改的。

认知对思想行为的影响.rar

44.33 KB, 下载次数: 776

 楼主| chenghwn 发表于 2014-5-2 21:15:02 | 显示全部楼层
这是我在中国科技论文在线上发的。相对以前的文章稍作了一些修改。主要是留个记号。这个比较适合我写文章的目的。
http://www.paper.edu.cn/html/releasepaper/2014/04/304/


201404-304.pdf

840.75 KB, 下载次数: 620

您需要登录后才可以回帖 登录 | 注册

本版积分规则

小黑屋|手机版|Archiver|生物行[生物导航网] ( 沪ICP备05001519号 )

GMT+8, 2024-3-28 21:46 , Processed in 0.055342 second(s), 19 queries .

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表