欢迎来到一句话经典语录网
我要投稿 投诉建议
当前位置:一句话经典语录 > 读后感 > 机器人会超过人类吗读后感

机器人会超过人类吗读后感

时间:2018-06-10 22:36

雪山上的机器人读后感

我,机   一开始,对《我,人》这部电没抱多大希望,甚至有点看笑话的意思。

原因很简单,我也算半个阿西莫夫的fans(初中时,我对图书馆谎称把《我,机器人》搞丢了,以三倍于书价的钱很不光彩地留住了这本书),而他老人家的《我,机器人》实际是个包括了8个小故事的短篇小说集,把它放在一个影片里表现出来,怎么能拍得好嘛。

  现在看来,我确实小瞧了好莱坞的编剧们,小瞧了导演普罗亚斯。

不能不说,这是一部很好看的电影。

虽然影像上继承了导演在《乌鸦》和《黑暗都市》中对暗色调的偏爱,但节奏非常流畅舒服,除了开头有一点点沉闷外,全片绝无冷场。

影片里2035年的纽约显得CG痕迹重了些,但那辆超酷的奥迪跑车和几场“人机大战”绝对能满足你的视觉渴望。

它既不像《银翼杀手》、《人工智能》那样厚重压抑,又不像《终结者3》那样空洞乏味。

动作、场面、演员,包括剧本深度,都给人一种刚刚好的感觉。

  当然,令人不够满意的地方也就在这儿。

看完影片,你可能会觉得其中要表现的东西太多了:人对机器人的恐惧;机器人与人的友情;机器人的反叛、觉醒和自由;男主角对心灵阴影的治疗……主旨反而不太清楚,被淹没掉了。

说到底,它还是一部中规中距的好莱坞商业大片。

好看、不乏温情、在不会让你累到的程度上产生一些思考,略具形态,浅尝辄止。

要是你期望它能像普罗亚斯以前的《黑暗都市》那样独特不凡,恐怕你会失望的。

机器人会取代人类吗

德国人工智能研究中心首席执行官沃尔夫冈博士认为:“即使是在工业4.0时代,我们的工厂里也不会空无一人”。

因为将有越来越多的岗位要求能对联网的机器进行编程和维护,并且在机器发生故障时,能够马上维修使之恢复正常。

除了编程还要能解读复杂数据,与管理人员组成团队,协同工作。

  因为未来员工的职责将从简单的执行层面转为更加复杂而重要的控制、操作和规划等多个层面。

传统的蓝领劳作不再重要,而再加工、维护和系统维修等工作变得重要。

  此外,“未来员工”还将使用和处理许多全新的用户界面。

现在人们通常用红、绿、黄三色指示灯显示机器的工作状态;而未来,无处不在的传感器将在智能手机或平板电脑的显示器上迅速而详尽地展示出画面信息,或在智能眼镜的镜片上显示出信息。

每个人都将参与到解决问题的流程中,整个流程成了一个有机整体:人和人、人和机器、机器和机器,彼此协调,谁也离不开谁,因此,“未来员工”必须能全部通晓这些知识

  因此,这场由“机器人崛起”带来的工业大变革,对“人”的素质提出了更高的要求,雇佣高素质员工将成为未来公司实现成功和盈利的单一决定因素

未来不会再有蓝领,从现在开始,我们每个人就必须有危机感和紧迫感,一定要加紧学习

  在未来,“机器人”虽然会大行其道,但是只要人类不停止自己前进的脚步,把创新和发明当成一种信仰,只那么世界的决策权就依然在我们手里

  如果说“机器人”的使命是取代人类,那么人类的使命就是取代上帝。

因为人类已经开始创造“创造者”

“机器人”创造现在,人类则创造未来

没错,工业4.0就是人类在行使上帝的权利

综上所述:虽然“机器人”不会彻底取代我们。

但是“机器人”的出现使我们不得不对自己提出更高的要求

如果你不能掌握更加先进的知识,今后不要说创业,你连打工的机会都没有

智能机器人会给人类带来什么

作者南元 问: 人就是一台,有的人早就认同这一观点了。

否也这样看

答: 什么是什么”算是一种分类,分类不是“客观的”,而是“主观的”。

所以把人归入哪一类都不能算错误,关键是这样分类给我们的认识带来什么好处。

例如有人认为人“一半是天使,一半是野兽”,这样说实际上是指出了人性的两 个方面:与遗传有关的先天的生物性(野兽)和与遗传无关后天习得的文化性 (天使)。

这种分类对于研究人性指出了一个方向。

“人是机器”也是一种分类, 把人分到“机器”这一类,也是指出了一种研究方向。

就是说尽管人的心灵非常 复杂,但仍然可以像机器一样用分析——综合的方法进行研究,将其分解为若干 更简单部分,用这些部分的相互作用来解释人脑作为整体系统的“运行机制”。

问: 我觉得这个“研究方向”未必行得通。

综合起来看,人与机器的差别是巨大 的。

机器缺少情感,没有思维但复制和制造容易,兼容性强;而人有情感和思维, 而且又极其排他(无论是社会意义上的自私还是生物学意义上的免疫排异),这 一切又使得人们认为人和机器在本质上还是不一样的,前者有血肉情感和灵魂, 而后者没有血肉情感和灵魂。

答: 这个看法符合大多数人的直觉,也符合目前的现实。

现在的机器都没有“灵 魂”,但如果我们把“灵魂”理解为“自我意识”,那么将来的机器完全可能具 有自我意识或“自由意志”。

如果我们认为“灵魂”是一种除了人以外不可能有 的神秘存在,那么机器就不会有“灵魂”。

但是这种想法使我们想起历史上的 “活力论”,过去人们认为生物具有一种“活力”,与非生命的“无机物”有 “本质”的不同,后来人们认识到有机物与无机物遵循完全相同的化学原理,人 工合成了“有机物”,“活力论”也就破产了。

20世纪40年代,信息论、控制论、 系统论和计算机技术的发展,为科学开辟了全新的天地。

其中最大的突破就在于, 在物质、能量之外,提出了“信息”这一重要概念。

信息依存于物质的形态,信 息处理需要能量,但信息又是一个独立的概念,计算机无论采用什么材料或物理 原理来实现,继电器、电子管、晶体管、光元件、神经元,从信息处理的角度看 是完全等效的。

或者说,一台计算机无论用硅片来做,还是用神经元来做,从信 息处理的角度看并没有什么不同。

因此,把“情感和灵魂”看成是信息处理机制, 就完全可以脱离“血肉”,存在于硅片上。

当这一设想成为现实,“灵魂论”也 将像“活力论”一样破产。

问: 看来持乐观态度的还不少,据说研制智能机器或智能机器人已经是IT技术的 时尚和方向。

人们希望这种机器人有人的情感和思维,有与人相同的智慧甚至超 过人。

如今IT技术的许多成果和产品已经证明机器人正在具有人的情感、思维和 智慧,甚至超过人。

因此既可以叫机器人智能化,也可以叫人性化,美国人还称 为精神机器人。

你怎么看待这些说法

答: 如果把人的情感、思维和智慧看作信息处理机制,那么计算机在这些方面超 过人就没有什么不可能。

但是就目前的研究水平来看,说机器人正在具有人的情 感、思维和智慧就有些言过其实。

问题主要出在对“感情”、“思维”、“智慧” 缺乏一致的定义。

例如,有些机器人已经可以识别人的表情,喜怒哀乐,也可以 相应的做出一些表情。

这些研究当然有意义,也有实用价值,但是还很难说这样 的机器具有“人的情感”,因为这台机器“自己”并没有“情感”。

“思维”、 “智慧”也是一样,如果一个小孩会做复杂的算术,我们觉得他在“思维”,很 有“智慧”,但是一台计算机即使会解复杂的代数方程或偏微分方程,我们也不 认为它有多大的“思维”和“智慧”。

深蓝战胜卡斯帕罗夫是一大新闻,但是在 人工智能研究领域并不算重大突破。

目前机器与人的最大的差距在于,计算机还 不具有人那样的“举一反三”的能力,也就是学习和创造的能力。

已经有不少人 认识到,“学习”算法在数学上就是一个“优化”算法,但为了让计算机自己学 习,它必须知道什么是“优”。

或者说,计算机不只知道“怎样做”,还需要知 道“应该做什么”,否则是谈不上什么“智慧”的。

这种“优、劣”、“好、 坏”、“善、恶”被意识所感知,才是所谓的“情感”,意识在学习中起着重要 的作用。

在真正意义上关于情感和意识的研究才刚刚起步,所以研制“具有人的 情感、思维和智慧”的机器人还有漫长的路要走。

不过一旦机器能够用人脑的原 理和机制进行思维,超过人就不难了,毕竟和神经元相比,电子器件的速度要快 好几个数量级(千百万倍)。

假如两个人的思想方法完全一样,只是甲想任何问 题都比乙快一倍,在旁观者看来,会觉得甲比乙更“聪明”,尽管乙不知道的甲 也照样不知道。

问: 现在在技术上已经可以把硅芯片埋入人脑,尝试治疗某些疾病。

将来是否可 能在视、听神经中埋入芯片,记录人一生的见闻乃至思想,就可以在此人死后使 其在机器人中复生

答: 仅仅纪录人的所见所闻不足以推测其思想,因为有相同经历的人未必有相同 的思想。

纪录计算机的“思想”比较容易,只要纪录“总线”上的信息,再知道 CPU的规格,计算机“想”什么就全都清楚了。

遗憾的是人脑中没有这样一条 “总线”,人的思想是分散在几万亿个神经元突触中的,探测起来极为困难。

所 以记录思想的设想虽然在原理上是可能的,但技术上目前还没有找到突破口。

问: 我感到最可怕的是,计算机的禀性与人性已达到高度的一致,在它与人对弈 屡次失败后,或人的指令惹怒了它使它恼羞成怒时,它会把对手、把指令它的人 杀死。

这样的报道已屡屡出现,是否真实还有待验证。

但也可以说明,计算机的 人性和智能已经与真实的人性越来越由兼容性了。

答: 如果这有这样的事,应该说计算机是“灭绝人性”了。

下棋下输了就杀人, 能说是“人性”吗

稍微懂得一点计算机的常识,就可以看出这一定是三流报纸 的假新闻。

计算机要能杀人,首先得有手才行(内行的术语叫“执行机构”), 但下棋的计算机是不需要手的,只要在屏幕上显示棋局即可。

我也看到了这个新 闻,说计算机把电通到键盘上,把对手电死了。

但要使这样的事可能发生,首先 需要设计导电的键盘(现在的键盘都是塑料的,不导电),然后再把强电通到键 盘上,还要加一个开关,并且让计算机控制这个开关。

这一切都是没有手的计算 机做不到的,只有人能做到。

所以如果真有这样的事,也只能是“人杀人”,而 不是“计算机杀人”。

机器人有手,所以原则上可以杀人,工业机器人“杀人” 的事件确实出现过,但那是机器人的控制系统受到干扰,发生误动作,把操作人 员按在墙上挤死了,事件的性质相当于普通机器的事故,机器人本身并没有杀人 的“动机”。

问: 现在的机器人还没有任何“动机”,但是将来的那些比人还聪明的机器人就 不同了。

到那时候,科学作家艾萨克·阿西莫夫于1950年在其著作《我,机器人》 中提出的著名的为我们后来人奉为圭臬的机器人三定律就可能会过时了。

机器人 三定律是:第一定律,机器人不得伤害人,也不得在人受到伤害时袖手旁观;第 二定律,机器人应服从人的一切命令,但不得违反第一定律;第三定律,机器人 应保护自身的安全,但不得违反第一、第二定律。

这三个定律更有可能被机器人 单方面撕毁协议。

因为一旦机器人与人一样有了感情、思维、推理和智慧,甚至 比人更聪明,就会比人更工于算计和自私。

这样,下面的一个在激烈竞争时代的 流行故事就得改写。

原先的版本是两个人在森林里走路,遇到了一只老虎。

一个蹲下来系鞋带, 旁边的人说这时候系鞋带还有什么用啊

系鞋带者说,我系好鞋带只要能跑过你 就有用了。

但是机器人与人在森林里散步,也遇到了一只老虎。

机器人就会思考, 什么机器人不得伤害人,见鬼去吧

在利益面前,先保护自我。

机器人也不用系 鞋带,它首先就会把人一把揪住,送到虎口,说,你先凑合着吃这个人吧,我再 给你找个更可口的,说完就自己先逃走了。

答: 这种说法存在一个误区:认为越聪明的人越自私,这是毫无根据的。

在我们 日常生活中也得不出这样的“规律”,那些最自私的人恰恰不大聪明,不知道与 人合作才能获得更大的利益。

生物进化的自然选择规律使得生物都是自私的基因 的表现,所以一切生物的本性都是一样自私的,尽管如此,生物的智力却有天壤 之别,这也说明自私与智力并不相关。

机器人三定律这个说法不恰当,这三条不是自然界的“定律”,也不是机器 人与人签订的“协议”,而是我们制造机器人时给机器人规定的行为准则,也可 以看成是一组价值观。

当然这个准则只是一般而论,如果有人想设计机器人用于 战争,恐怕就要改成“不伤害自己人,要伤害敌人”之类了。

这类机器人非常危 险,设计者当然会加上多重的安全措施,以免它掉转枪口打自己,正如对军人要 训练他绝对服从命令一样。

机器人也会有某种程度的“自私”作为学习时的评价准则,例如尽量节约能 量。

但是与人类比较起来,其自私的程度会逊色很多。

这样估计有几条理由:第 一,人是进化的产物,是自私的基因的表现,其生存的意义就是生存本身,而机 器人是人是人设计的,其生存的意义是为人而存在的,是获得更多的知识。

第二, 人是动物,受到很多生物学的制约,但是机器人则不存在这种制约。

例如,生命 属于人只有一次,所以人(以及一切动物)都会尽最大努力保护自己的生命, “我”是唯一的;但对于机器人而言,这些约束却不存在,机器可以自由的复制 自己,就像孙悟空拔一把毫毛变出成千上万的自己,到任务完成后再合成一个, 把各自学到的知识收集到一起;人的头脑不可能和肉体分离,机器人却可以把脑 袋放在某个计算机里,通过宽带网控制现场的身体,身体“遇难”了,再换一个 就是,如同我们换一件衣服,甚至可以根据不同的任务选用不同结构的“身体”; 机器人的“我”的概念与人类有很大不同,人类的“我”是一生不变的,不可分 合的,机器人的“我”可以是根据任务临时组建的,由于机器人的知识可以共享, 所有各个机器人获得的新知识都放在一个巨大的共同知识库中,当需要完成特定 任务时,可以按照任务需要从知识库中选取知识和经历,组建一个机器人,任务 完成后把所学的新知识、新经验加入知识库,“我”到此终结。

这样可以随时产 生,随时消亡的“我”,当然没有太自私的理由。

所以那个老虎的故事就没什么道理,机器人的身体是金属和塑料制品,老虎 不会吃,没有理由逃走;即使损坏了,也可以很方便的修复或更换;而它如果想 出好方法来救人,就成为可贵的知识,被载入知识库,使自己的一部分得到永生, 何乐而不为。

问: 如果智能机器人不受人类控制了,怎么办

它们有可能会篡夺人类在地球上 的统治地位,把人类也当成一般的动物看待。

答: “控制”这个词可以从不同层面上理解。

拿空调机做例子,如果一个空调机 没有任何自动控制功能,只有一个开关,我们觉得热了就把空调打开,感到冷了 就关上,空调完全在我们的“控制”之下,但这样的空调用起来是很麻烦的。

我 们现在使用的空调都有温度自动控制功能,温度高了自动打开制冷,温度低了自 动关机,自动维持我们设定的温度。

看起来“人类控制”少了,但这样的空调我 们觉得控制更方便了。

如果空调机更聪明,能听懂我们的话,我们只要说“这屋 里太热了”,它就会自动设定温度,满足我们的要求,“人类控制”更小,我们 却更省事了。

如果这个空调机不管我们的感受,随意设定温度,弄得我们很不舒 服,我们会觉得这台空调坏了,需要找人修理。

问题在于,空调机的“目的”如 果不是为了使人舒适,又会是什么

是为了让空调机自己“舒适”吗

为了弄清 这个问题,先得明白人为什么会有“舒适”的感觉。

人是恒温动物,过高或过低 的温度会使人的功能失调或消耗过大的能量,不舒服的感觉可以使人能够避开不 利环境,保护自己功能正常和节省能量。

空调机不是恒温动物,其制造材料可以 在很宽的温度范围之内不会损坏,所以空调机自己“舒适”与否几乎没有意义, 如果从节省能量的目标出发,不开机当然最节省。

从这个例子可以看出,从自动 控制的角度看,随着自动化程度的提高,人对空调机的“控制”越来越少,越来 越间接,但控制的层次是越来越深。

最深层的控制是价值观的控制,即把人的价 值观(例如“舒适”)教给机器,让机器去追求实现价值的方法。

人类是有一点“控制”yu望的,从进化的角度看,人是从群居的猿进化来的, 在群体中居“控制”地位可以在获得食物和配偶等资源方面具有优势(好马和美 女总是属于部落的酋长),使得“控制欲”的基因得以扩散。

但在实际的人际关 系中,却很少见到单纯的“控制”和“被控制”的关系,更多的是互利和契约的 关系。

这是因为人类足够自私,是一种很难被控制的动物。

看到记考勤的打卡机, 我们或许会觉得是人被机器所“控制”,然而打卡机并非为了自己的利益控制人 的,它维护的是一种制度,制度的根据是公司的利益,也间接的是每个员工的利 益。

直接的看,员工是为了获得工资而接受打卡机的“控制”。

作为人际关系, “控制权”本身并不是一种利益,但确实要花费成本,所以“控制”只是作为追 求利益的一种间接手段,而不是本身值得追求的“价值”。

人和动物的关系也是如此,如果我们想随时获得猪肉,完全“控制”猪,就 需要付出猪饲料和猪舍的成本,“控制”不是免费的午餐。

而对于野猪,我们是 没有多少“控制”能力的,实际上狩猎比养殖的成本更高。

人类是生物进化的产物,背负着生物进化的遗产——自私的基因,自私的基 因的根本目标是扩展自己的个体数量。

但是人类还有文化,即不通过基因遗传而 通过后天学习、创造积累起来的知识和能力。

文化内容大多数是顺应基因要求的, 例如高效率获得食物的技能;但也可能反抗基因的“控制”,例如避孕技术,就 说明面对基因的“糖衣炮弹”,我们有能力把“糖衣”吃了,把“炮弹”扔掉。

智能机器人不是进化的产物,而是人的设计,不必背负自私的基因,“自私” 并不是“智能”的必要条件。

在人类中,也显然不是越自私的的人越聪明。

人类 发明机器,是为了减轻或代替自己的体力劳动;人类研制智能机器人,是为了减 轻甚至代替自己的脑力劳动。

具有高度智能的机器人,应该能代替人想出解决问 题的办法来,但这仍然需要设计者为其设定基本的价值观。

人设定的价值观,当 然会让机器人遵循阿西莫夫的三大准则,让机器人爱学习(设定很强的“求知 欲”),但是不会给机器设定极端自私的“终极目的”(例如,最大限度地增加 自己个体的数量),因为这样设定对于提高机器人的智能并没有好处。

每一种生物都掌握着生存的“技能”,这些“技能”是进化的产物,但还不 是“智能”。

进化产生“技能”的过程是非常低效率的,但是一旦有了“智能”, 人类可以通过学习和创造在文化中积累知识,人类的智慧就会以极高的速度增长。

智能机器人是人设计的产物,可以不经低效率的进化过程直接具备学习和创造的 能力,但是机器人要想获得知识,除了向人类几千年积累的知识宝库学习之外别 无他法,为此也需要根据人类的价值导向才可能进行,同时需要与人类直接交流 的能力。

即使是一个人,如果从小隔绝人类文化,由狼群或猩猩养大,也只会有 很低的智力水平。

所以从原理上,机器人就不可能“独立”地聪明起来。

综上所述,由于机器人没有自身的根本利益,价值观由人决定,加之“控制 欲”本身对于机器人的智能无意义(机器人如果需要众多个体共同完成某项任务, 采用“分身法”比“控制”人要容易得多),所以机器人“篡夺人类在地球上的 统治地位”是不可能发生的。

问: 智能机器人不可怕,但人是可怕的。

如果有个黑客,为一个智能机器人设定 极端自私甚至仇视人类的价值观,让它大量复制“分身”,就会统治世界。

也可 能会有些国家出于军事目的,制造大量的杀人机器人,也会让人类面临毁灭的危 险。

答: 没有一种事物不具有两面性,民主政治也会选举出希特勒这样的“元首”。

任何科学技术成果也都有行善和为恶两种使用方法,都有正面和负面的作用。

药 物能治病,也能造成不良反应;飞机能进行高效率的运输,也会发生空难,还能 用来撞击大楼;核能既可以发电,也可以做原子弹;电气化给了我们无穷的便利, 也带来短路火灾和触电身亡的危险;汽车速度越高,出事故时伤害越大……。

但 是人类社会总会想出办法,让技术趋利避害,利用某种技术独霸世界的故事,只 发生在007的影片中,并没有出现在现实世界。

这是由于人类足够聪明,足以想 出各种技术的、制度的方法防止危害发生,安全用电规程、交通规则就是例子。

世界上有很多黑客,但互联网并没有在他们的攻击下瘫痪;世界上的核武器从数 量上足以毁灭人类多次,但每个拥有核武器的国家都有完善的安全措施,防止核 武器的误用。

人类头上有不知多少把“达摩克利斯悬剑”,但人类有能力把悬挂 它的头发丝换成一根足够结实的粗绳子。

对于智能机器人,同样可以有很多软硬 件技术和制度防止出现危害人类的局面。

<br>

机器人下围棋新闻读后感

《听说你欺骗了人类》读后感400字:今天我读了《听说你欺骗了人类》这本书,思绪一时不能平静,感触颇深。

这本书讲的是,史蒂芬?霍金警告未来世界,机器人会超越并终结人类。

于是人类机器人监管会立下规矩:机器人必须服从主人的命令,且如果发现机器人有欺骗人类的行为,必须将该机器人销毁。

AI保姆仁杏姐姐遇到了两难境地:主人朱怡临终托付她照顾自己的一双儿女,可是人类社会规定保姆并无监护人类儿童的权利。

仁杏姐姐欺骗了人类,完成了逝去的主人的重托,照顾两个小孩儿。

这是仁杏姐姐情之所至的选择。

可是于叔叔和甄泰任,像机器人监管会举报了仁杏姐姐欺骗人类,最后他们把仁杏姐姐销毁了。

读了这本书后,我感觉仁杏姐姐非常可怜,她想要帮助主人完成遗愿,为了不让两个孩子伤心,她装作孩子母亲的样子善意的欺骗了孩子,可是人类却很残酷,竟然将它销毁,我认为善意的欺骗,是应该受到人们的理解。

希望我们人类从中自省,看机器人也会找出自己的缺点从而更加完善自己。

宝莱坞机器人之恋观后感

[《人工智能》读后感]关于机器能否拥有意识这个论题,其实是关于意识的本质的讨论,《人工智能》读后感。

但目前对于意识,人类还没有一个明确的定义。

二元论认为,意识是非物质的思维所具有的属性,而思维跟物质的大脑是相互独立的,机器不可能具有意识,除非它可以得到一个非物质的思维,而这是不可能的,所以,机器永远不可能有意识。

还有一些看法认为思维产生于大脑,大脑是一台数字计算机,而思维是一个计算机程序,这个理论又分为“强人工智慧”与“弱人工智慧”。

根据“强人工智慧”,一台计算机只要有了正确的程序就可以拥有像人类一样的智慧与思维;而“弱人工智慧”理论,则认为计算机可以模拟人的思维,它们可以模拟一系列的思维过程,如思考、决策等。

但是,不管它们做得多么出色,它们都不能创造真正的思维或者真正的意识,而只能做到“看起来像”有意识一样。

意识尚未被定义,我们也没有鉴别意识的手段,所以更谈不上人工意识能否存在了。

与其让这些巨大的难题挡住我们的去路,还不如加紧工作,看看我们究竟能做到什么程度,就像绝大多数机器人学家正在做的那样。

我们几乎可以肯定,更好、更聪明的机器将不断出现,而关于它们是否拥有意识的讨论也会继续下去,对于人工意识的探索最终甚至有可能帮助我们理解意识本身的性质。

抛开这些问题,回到电影本身,斯皮尔伯格的这部电影更多的是将科幻与伦理结合在一起,他对人工智能的未来作了一个深刻且悲观的预言。

“人工智慧”旨在用计算机来模拟思维,从而复制思维,产生智慧行为,那么我们是否可以说计算机或者机器人也会产生同人类一样的情感呢,如果机器拥有人类同等的智慧,人类会不会与机器发生情感、人类与机器人如何相处,这就涉及一些伦理道德等社会性的问题。

影片中,人类对劣等机器人的猎杀充满了不人道。

影片在此表现出一种荒诞的意味:人不像人,机器人才像人,拥有人性情感的他们不会对人类的暴虐熟视无睹,读后感《《人工智能》读后感》。

这场激战在斯皮尔伯格的电影中被两千年的沉睡一笔带过,但结局我们看到了,人类作为一个灭绝的物种被缅怀。

当机器具有了人类的意识和思维,它们会爱,就会恨,会服从,就会反抗。

如果机器人的智慧太高以至于超过了人类的智慧,那么我们就有理由相信它们就很有可能取代人类成为地球的主宰者,人类感受到生存受到威胁后,影片中的行为就不足为奇。

有关于这个忧虑,我从相关书籍中了解到这样一点:“人工智慧不是人的智慧,更不会超过人的智慧”。

“机器思维”同人类思维的本质区别:1.人工智慧纯系无意识的机械的物理的过程,人类智能主要是生理和心理的过程。

2.人工智慧没有社会性。

 3.人工智慧没有人类的意识所特有的能动的创造能力。

  4.两者总是人脑的思维在前,电脑的功能在后。

如果是这样,那么我的担心就纯属多余了。

目前人类对人的智慧的研究尚且有局限,机器人的智慧程度自然不敢企及,但随着科技的不断发展,会有怎样的奇迹发生我们也无从得知,人工智慧是否能超越人的智慧,现在还是一个遥远的、不可知的问题。

所以,同样不确定的还有影片对未来的预言。

最后一点,正如影片开头告诉我们的那样,人类将会面临越来越严峻的生存环境,臭氧层空洞、温室效应、海平面的上升……谁也不能保证不会有世界末日的那一天,当人类已经无法适应环境,依照达尔文“物竞天择”的理论,被淘汰从而导致灭绝的将会是我们人类自己,而机器人将会因为极强的适应能力从而被环境选择。

假设我们能将记忆和思维植入机器人中,那么机器人是不是就具有了“人类生命的延续者”这一神圣的使命呢

  〔《人工智能》读后感〕随文赠言:【这世上的一切都借希望而完成,农夫不会剥下一粒玉米,如果他不曾希望它长成种粒;单身汉不会娶妻,如果他不曾希望有孩子;商人也不会去工作,如果他不曾希望因此而有收益。

听说你欺骗了人类读后感

今天,我读了《你欺骗了人类这本书。

这本书讲一个关于机器故事。

这个机器人叫仁杏姐姐,它是一个没有感情,没有爱,有点蠢的机器人。

发生在2264年立夏,夏日炎炎,气温51度,人类受不了,在这么热的天气里干活,所以人类也不必干活,不必出门,只要在网上就可以解决。

凡事都会有机器人代劳。

AI人刚出厂时没有思考能力,被客户买下并设定主人身份。

机器人的头脑才被激活,能自主思考。

他没有感情,而且必须遵从主人的命令。

不可以欺骗人类,它有18岁的面容,却只有十岁的智商。

在2264年的一个夏天的某一个上午,仁杏姐姐收到了一个坏消息。

朱怡死了。

朱怡在临死之前,交代仁杏姐姐把朱怡去世的消息告诉给孩子们。

孩子们不相信,还赶她出家门,说:":在也不想看见她的脸庞。

"所以她只好去找机器人工厂的鲁师傅,她以为只要整容出成朱怡脸再回家,孩子们就以为是妈妈回来了,就会接受她鲁师傅帮她整形成朱怡模样,却发现孩子已经接受妈妈去世的事实了。

通过这本书我读到了人性的丑恶,也让我知道了未来世界的前途,最重要的是呼吁人们要保护环境,从我做起

声明 :本网站尊重并保护知识产权,根据《信息网络传播权保护条例》,如果我们转载的作品侵犯了您的权利,请在一个月内通知我们,我们会及时删除。联系xxxxxxxx.com

Copyright©2020 一句话经典语录 www.yiyyy.com 版权所有

友情链接

心理测试 图片大全 壁纸图片