找回密码
 注册

QQ登录

只需一步,快速开始

楼主: 可泽

因此论文已经投稿,特删去主题,请大家原谅!

[复制链接]
chenghwnss 发表于 2007-5-6 16:48:00 | 显示全部楼层

1、将情绪中枢与我的奖惩中枢互换,将高兴、不高兴用奖和惩替换,来解释各种现象,可看到你、我对各种现象的方式差不多(虽说我并不认同你的解释)。至于一条条的贴出来就没有必要了。我又没说什么。
2、你认为高兴与不高兴是基础的情绪与的我一样。
3、情绪心理学我没有看过,你上面的观点来自情绪心理学?看来有机会我是要看一下。
4、虽说有相似之处,但区别还是很大的,即我认为情绪是奖惩中枢存在的必然的“副产物”。我想(随便想的)可能正是因为情绪这一概念的干扰,才使心理学家们对人脑的高级功能无法取得突破性进展。
我平时不会说话。谢谢!大家可以交个朋友。

 楼主| 可泽 发表于 2007-5-6 21:38:00 | 显示全部楼层

哦!我那个请求只是为了与你更好地交流。

怎么说自己平时不会说话呀。学心理学的应该对自己和别人话语后面的心理都有认识。

很愿意与你交流。

汪之旻 发表于 2007-5-7 20:15:00 | 显示全部楼层

我的意思是说,尽管你的理论看似容易接受,但是,你没有说明很多的问题,比如,神经高兴(兴奋性作用),恐惧(抑制性情绪)的存在是否没有逻辑矛盾,以及你目前恐怕没有想过的一个问题:与条件反应。

当且仅当某条件A与条件B出现的时候,人在某个场景有某种反应,但是这个反应需要一个数学基础,这个基础是否存在,尚需验证,而且,是否会出现和人的反应不一致的情形,也完全无法查考。所以说,这还是个猜想。我模拟了一个人工智能,功能类似于我所描述的概念系统,也能够实现你所描述的上述功能,但是我到现在无法证明他能够判断出A与B并存的条件。这个问题存在于我们知道“知道”,却不知道“不知道”。

 楼主| 可泽 发表于 2007-5-7 21:26:00 | 显示全部楼层
哦!我对人工智能及其“方言”很外行,对数学也不懂。你说的“是否会出现和人的反应不一致的情形”是指即使在人这里可以被验证为是普遍的,但在人工智能上则不一定适用吗?
汪之旻 发表于 2007-5-9 08:34:00 | 显示全部楼层
有的看似可行的理论未必能够在事实上存在,其中的一个原因是人类不能很好地将模糊的问题精确化,当精确化的过程发生的时候就会发现可能其中一个模糊的功能的实现与另外一个模糊的功能实现完全冲突,也许我们可以寄希望于模糊描述功能的动态范围,希望找到一个不冲突的区域,但往往有可能某些不可避免的冲突就会存在其中。
 楼主| 可泽 发表于 2007-5-9 10:12:00 | 显示全部楼层
看来我真的不易于理解太抽象的语言,而更喜爱较为具体的交流.比如,很希望你能指出我论文中的某一个观点或解释未必是与心理事实相符合的.
汪之旻 发表于 2007-5-14 12:35:00 | 显示全部楼层

我具体要指出的是你的理论普遍建立在模糊的概念之上,没有进行相关的推理、数理研究,即不能够证明它是事实可能存在的,即使你能够证明这种证明可以在不精确的前提下大致达到和人类行为相似的结果。

总的说来就是无法证明你给的解释在客观世界的存在的可能性,而这个可能性的证明的途径我现在认为只有两条,一条是继续从人脑的方向研究,证明人脑就是这样的,另一个方面是按你的想法重构一个智能,并且证明它能够达到人类的智能程度,这两方面都不容易做,第一个可能容易一点。

opushen 发表于 2007-5-18 18:27:00 | 显示全部楼层
QUOTE:
以下是引用汪之旻在2007-5-14 12:35:00的发言:

我具体要指出的是你的理论普遍建立在模糊的概念之上,没有进行相关的推理、数理研究,即不能够证明它是事实可能存在的,即使你能够证明这种证明可以在不精确的前提下大致达到和人类行为相似的结果。

总的说来就是无法证明你给的解释在客观世界的存在的可能性,而这个可能性的证明的途径我现在认为只有两条,一条是继续从人脑的方向研究,证明人脑就是这样的,另一个方面是按你的想法重构一个智能,并且证明它能够达到人类的智能程度,这两方面都不容易做,第一个可能容易一点。

同意汪先生的观点(不愧对AI有过潜心的研究),只是不以为“第一个可能容易一点”。 [em17]

不知汪先生是否考虑过究竟有那些指标可以用于证明AI已经达到人类智能?若还是图灵检验,我会觉得伤心的。

汪之旻 发表于 2007-5-20 22:35:00 | 显示全部楼层

回复opushen:

我昨天也在考虑这个事情,我想大概可以这样,让一个机器人和一个人过一辈子的时间,比较它们的行为,确定机器人的智能性,毕竟对于黑箱在没有精确了解人类神经结构的情况下是不可能证实的。所以最终还是要回到第一个上来。

最近关于基础的网络理解有了一部分进展,我觉得有一种情况可能实现我们的“否定”,这个问题我以前认为很难解决。最近考虑到一个结构,可能就是否定(反义)的原型,而且对于这些结构,包括推理结构,自动反应结构和反义结构我都会作详细的存在条件验证和稳定性的验证(在什么条件下,结构会崩溃)。

根据这个模型的特性,我认为人类的稳定性与压抑程度成正比,创造性则与此相悖,通常,人是不稳定的。

人的并行性随着年龄(时间/经验)的增长(不考虑神经细胞死亡)是会逐渐下降的。

经常熬夜做某件事晚睡觉的人会患上神经衰弱,而且在再次做同一事情而且动力不足的时候会容易感觉到困倦。

人对于不能直接感受到的东西/概念(比如说“不存在”)通常不会有感觉,只有被某个契机触发了以后,才会感觉到“没有存在”。通常一个好的领导必须要能够考虑到每一个方面,因为很难感到不存在的东西,所以面面俱到通常是不可能的。所以事前要求考虑到所有可能面临的问题通常是不现实的。

如果你告诉一个人十分钟以后去打开一盏灯,然后给他玩一个他很喜欢的游戏,你会发现人对时间的感知出了问题,通常有三种情况,一、早去了(增量过度/衰减过度),二、忘了(事件本身被排除于短时记忆,也没有想起来),三、游戏终止的时候突然想起来(从长时记忆里激发的短时记忆)。

opushen 发表于 2007-5-22 22:54:00 | 显示全部楼层
QUOTE:
以下是引用汪之旻在2007-5-20 22:35:00的发言:

回复opushen:

我昨天也在考虑这个事情,我想大概可以这样,让一个机器人和一个人过一辈子的时间,比较它们的行为,确定机器人的智能性,毕竟对于黑箱在没有精确了解人类神经结构的情况下是不可能证实的。所以最终还是要回到第一个上来。

最近关于基础的网络理解有了一部分进展,我觉得有一种情况可能实现我们的“否定”,这个问题我以前认为很难解决。最近考虑到一个结构,可能就是否定(反义)的原型,而且对于这些结构,包括推理结构,自动反应结构和反义结构我都会作详细的存在条件验证和稳定性的验证(在什么条件下,结构会崩溃)。

根据这个模型的特性,我认为人类的稳定性与压抑程度成正比,创造性则与此相悖,通常,人是不稳定的。

人的并行性随着年龄(时间/经验)的增长(不考虑神经细胞死亡)是会逐渐下降的。

经常熬夜做某件事晚睡觉的人会患上神经衰弱,而且在再次做同一事情而且动力不足的时候会容易感觉到困倦。

人对于不能直接感受到的东西/概念(比如说“不存在”)通常不会有感觉,只有被某个契机触发了以后,才会感觉到“没有存在”。通常一个好的领导必须要能够考虑到每一个方面,因为很难感到不存在的东西,所以面面俱到通常是不可能的。所以事前要求考虑到所有可能面临的问题通常是不现实的。

如果你告诉一个人十分钟以后去打开一盏灯,然后给他玩一个他很喜欢的游戏,你会发现人对时间的感知出了问题,通常有三种情况,一、早去了(增量过度/衰减过度),二、忘了(事件本身被排除于短时记忆,也没有想起来),三、游戏终止的时候突然想起来(从长时记忆里激发的短时记忆)。

嗯。这里涉及了我们如何可能感觉的问题,也涉及了所谓的“注意机制”的问题。

真心希望汪先生的论文能发表,这样我们再可能详细讨论你的观点——尽管可能浅肤。

但目前我们不知道你的模型,因此还不可能讨论你这里提出的问题或结论。

 

 

[em27]
您需要登录后才可以回帖 登录 | 注册

本版积分规则

Archiver|手机版|小黑屋|生物行[生物导航网] ( 沪ICP备05001519号 )

GMT+8, 2025-6-29 22:49 , Processed in 0.023097 second(s), 12 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表