
描写机器人的句子
1. 现在的世界,已经看不到人类了,却随时可以看到机器人在街道上走来走去。
原来机器人里面什么也没有,只有操纵器和一个透明的东西,从里面看得到外面,从外面看不到里面。
2. 不管你拥有多么惊人的武器,不管你拥有多少可怜的机器人,只要离开土地就没办法生存。
3. 各有各的生活,每个人都是机器人,重复着每天的日子,一朝一夕,不得不感叹时光的能力啊,一直带领人类前行,永远那么急匆匆的离去……4. 如果是个机器人,现在一定超负荷了,零件掉了一路,头上呼呼地冒着烟,直到能量用完,倒地散架,眼睁睁看着她的仇人消失在浓云密布的天边。
5. 根要扎在土壤里,和风一起生存,和竹子一起过冬,和鸟儿一起歌颂春天,不管你拥有了多么惊人的武器,也不管你操纵了多少可怜的机器人,只要离开土地,就没办法生存。
6. 别把任何人说的话,任何书中的道理当真理,要有自己的思考,有自己的主见,结合实际有自己的判断。
别当只相信书的机器人,别越读书越傻,任何事都要辩证来看待。
7. 要有一个制度能将人们由“吃米饭机器人“的地位提高为真正的人──在人权的保障下,能够自由思考,畅所欲言,昂首挺胸。
8. 一但你活在当下,你是有意识的。
意识就是当下;意识是一种当下。
否则你像一个机器人、一部机器一样的活着。
描写机器人的句子有哪些
机器人应该是“能自动工作的机器”,它们有的功能比较简单,有的就非常复杂,但必须具备以下三个特征: 身体 是一种物理状态,具有一定的形态,机器人的外形究竟是什么样子,这取决于人们想让它做什么样的工作,其功能设定决定了机器人的大小、形状、材质和特征等等。
大脑 就是控制机器人的程序或指令组,当机器人接收到传感器的信息后,能够遵循人们编写的程序指令,自动执行并完成一系列的动作。
控制程序主要取决于下面几种因素:使用传感器的类型和数量,传感器的安装位置,可能的外部激励以及需要达到的活动效果。
动作 就是机器人的活动,有时即使它根本不动,这也是它的一种动作表现,任何机器人在程序的指令下要执行某项工作,必定是靠动作来完成的。
满意请采纳。
什么叫做智能机器人
人工智能基本介绍 人工智能无非是大脑思维运转原理的复制与再现,人的思维离不开语言和图像;例如一个基本的思维例子:当机器面向太阳时,将当前拍到的图像予以分析得知该物体在中文语言中称“太阳,”“日”等;得知了该物体称呼就可以搜索该名词属性;再根据其属性和属性值与自身属性和属性值相比较得出判断,如得出“在安全范围外”的结果,从而使机器不要轻举妄动。
首先从人类思维解析,人在学习语言之初是看着对应图像或听着声音念称呼的,因此人在使用语言时声音区和图像区大脑皮层会一致兴奋,在脑海中浮现对应的图像或声音及语言。
如在回忆太阳时在脑海中会浮现太阳图像或汉字“太阳”字样,还有声音“tai yang,”图像在脑海中清晰度受刻意程度影响,刻意程度越高图像越清晰;“tai yang”这个声音始终使人印象深刻,人在思考时始终在默念语言,这正说明人是靠语言来来维持思考的。
由于语言区与声音区、图像区共同兴奋才能维持思考,这就需要机器具有自动联系三者的功能;这对看到“太阳”字样联想到图像、“tai yang”声音或听到“tai yang”音联想到“太阳”字样从而联想到图像等方面的相互响应功能很有帮助。
既然思考是语言、图像、声音等信息的特殊交互来完成的,因此并不认可科幻电影里用人造神经系统组建智慧是可行的。
即使人造神经系统完成了,它也并不智慧。
只有将那种特殊的信息交互方式在其系统内搭建,它才能算得上是真正的智慧。
语言是智慧体思考的一大介质,传统而又原始的计算机语言难以有效搭建智慧系统,因此使用人类语言来作直接思考介质显得十分必要;但对于机器而言又难以直接适应人类语言,这时直接语言的转换程序能帮到它。
机器若要拥有初级独立智慧,前提得具有自动学习能力、自动归纳能力等自主性功能。
传统的机器运转时是依靠人为植入过程及步骤来运行的,它的功能显得极其单调,绝不会涉及其他功能;这样的机器终究是机器,绝不会成为人工智能,它那愚钝的一生。
在智能面前,自动生成运行过程及步骤成为关键所在。
如果整个运行过程都人为植入,何谈智能;但什么都不植入也是万万不可的,这时哪些部分预置哪些部分自动生成需要仔细考虑分配。
自动记录功能也是一个良好的功能,可以将自动生成并成功执行的过程和步骤记录下来,下次遇到相同情况可以重复利用,而又不失智能表现。
种种迹象表明语言、自动与核心技术相关联;初次接触自动时它是复杂的,但“随机”给了我很多灵感,充分了解随机并能巧妙利用随机功能,自动也就显得并不是那么困难。
人工智能的软硬件配置基础 在这里的软硬件配置以普通机器为例,机身每个“肌肉”都由伸缩轴代替,每个伸缩轴都由一个独立的驱动来操控;每个动作要由多个伸缩共同运转来完成,这就需要机器具有同时运行多个驱动程序的功能。
并将各驱动运行的顺序、步骤及运行后的结果记录下来,配合最优方案使用。
驱动单独运转可能会导致动作无法完成,若要支持多驱动共同运行,首先CPU得支持多线程。
最优方案指的是将上述记录下来的信息暂设为最优方案,下次遇见相同目的可以模拟该方案运行,并不一定完全按照该记录运行,而是按照相似方案运行;并比较两方案优劣性,将较劣方案设入黑名单下次不再生成该方案;将较优的方案暂设为最优方案,如若再遇见相同情况便再模拟该最优方案运行,并比较两方案优劣,较优者暂设为最优方案,较劣者也纳入黑名单…如此反复。
令外其他一些基础功能也很重要,如图像分析有关功能,能将拍摄的视频截取帧,从而得到图片,再通过分析并储存该图片模拟记忆并与语言等方面联系起来。
音像方面也是如此。
人工智能基本智慧程序 既然语言和自动是问题的核心,那就从语言开始。
若要让机器能够清晰地展开思维,自动归纳分类功能很有用途。
使得机器能够分类名词、动词、形容词等;能够根据自身传感器及信息来源为机器想了解的名词赋属性值,有了属性及属性值为机器进行比较提供了可能。
由于人工智能初次搭建工程过于浩大,因此某部分可以暂为人工植入,等工程完成后再替换为自动生成部分 其次是动作及记录:初次让机器轴随机运动,并记录运动过程、步骤及结果;如随机运动到右前方某位置时,记录下运动过程、步骤及结果,当下次遇到需要运动到右前方该位置时可以根据该记录重复该步骤运行就可以运动到右前方该位置,但完全根据记录重复不利于改良,因此可以模拟一个相似步骤来运行;并比较两方案效果,将较优者暂设为最优方案,较劣者设入黑名单下次不再模拟生成;当下次遇到相同情况就就模拟最优方案生成一个相似步骤运行,在比较两者优劣…由于对于机器而言往往一个步骤运行完才能得知实际效果,因此让模拟步骤运行完才能进行两方案比较,至少在机器学会YY之前可以这么说。
说到这里我竟惊讶地发现上述步骤居然让一个机器自学了一个动作,既然自学了一个就可以有两个、三个…这其中“随机”的应用很关键,在机器空闲时,它让伸缩轴驱动随机运行从而产生随机动作,这个动作反被记录下来方便重复利用在日后派上用场。
由此可见随机的应用对机器自学功能有多么重要了。
由于初期不同的记录动作起点相同,因此需要机器一个动作完成后将位置复原,才能开始重复动作,这是最初期的时候。
到了机器具有重定义动作起点的功能就可以解决这个问题。
仅仅只是自学进度未免太慢,为了可以帮助其学习动作还得在伸缩轴上下手;通过驱动可以操控伸缩轴原理得知,何不开放驱动、伸缩轴双向影响功能,使得驱动运行步骤能控制动作步骤,也可以通过伸缩轴运动步骤同步运行驱动,从而生成驱动运行步骤,有了驱动运行步骤有了该动作记录。
下次需要该动作时可以根据记录运行驱动就可以重复该动作。
如何让一个机器正确识别指令,那得有劳语言的大力支持了;让机器使用人类语言作为直接思考介质是可取的,以使用中文为例就有两种方法可取,第一种是人为植入相关功能但与智能脱轨;第二种是自动学习而来,绝对的智能但相对复杂些。
第一来介绍下自动学习语言;人从小在学习时,大人会给予小孩以暗示,当小孩认为大人给他的是正确的暗示就会去做,反之则不做;因此在机器中预设几个关键词方便机器学习。
如预设“是、”“否、”“这是、”“重复、”“停”等关键字;在使用时例如机器在学习“经”这个字,机器听到“Jing”声或看到拼音“Jing”时,也跟着发出“Jing”声然后等待回应,如果听到回应“是”就收录“经”这个汉字并为该汉字的音像属性设为“Jing。
” 学习单个汉字和学习单个名词的原理近同,学习汉字时需要为该汉字赋属性音、形、意等。
学习句子时要相对复杂些,可能一个句子主语、谓语、宾语等结构完整正确才可以识别,并且如果一句子中含有动词,那么这个句子的属性除了音、形、意之外还有一个动作属性,属性值为运动过程、步骤、目标。
动词的学习方式和名词不同,它依靠组成动作词汇来学习,动作词汇的属性有动作属性,属性值为动作过程、步骤、目标等。
单独的动词机器难以执行,应搭配主语和宾语才可顺利执行,当句子中只有动词和宾语时,则将主语默认置为“自己”或“我。
”(动词难以单独被机器学习和执行,而是和主、谓、宾语整合起来组成一个词汇,也就是动作词汇,如:我打他、我搬桌子…) 初始状态下动作词汇的动作属性值为空,则可以采用关键字“这是”为机器实现被动学习。
如机器随机运动时拍了下桌子,则可以回应机器人“这是拍桌子,”机器收到回应后将“拍桌子”纳入动作词汇,并为该动作词汇动作属性值赋为动作过程、步骤、目标,距离赋值给距离属性,其他属性此处暂不说明。
当下次接收到语句“拍桌子”时则移动到和上次相近距离模拟上次动作拍桌子。
这样机器就被动学会了拍桌子。
在执行一条语句时只需识别其中的动作词汇,然后执行该动作词汇即可。
该功能如有智能对话软件的应用可以得到意想不到的效果,可以让指令不再那么直白。
智能机器人会给人类带来什么
作者南元 问: 人就是一台,有的人早就认同这一观点了。
否也这样看
答: 什么是什么”算是一种分类,分类不是“客观的”,而是“主观的”。
所以把人归入哪一类都不能算错误,关键是这样分类给我们的认识带来什么好处。
例如有人认为人“一半是天使,一半是野兽”,这样说实际上是指出了人性的两 个方面:与遗传有关的先天的生物性(野兽)和与遗传无关后天习得的文化性 (天使)。
这种分类对于研究人性指出了一个方向。
“人是机器”也是一种分类, 把人分到“机器”这一类,也是指出了一种研究方向。
就是说尽管人的心灵非常 复杂,但仍然可以像机器一样用分析——综合的方法进行研究,将其分解为若干 更简单部分,用这些部分的相互作用来解释人脑作为整体系统的“运行机制”。
问: 我觉得这个“研究方向”未必行得通。
综合起来看,人与机器的差别是巨大 的。
机器缺少情感,没有思维但复制和制造容易,兼容性强;而人有情感和思维, 而且又极其排他(无论是社会意义上的自私还是生物学意义上的免疫排异),这 一切又使得人们认为人和机器在本质上还是不一样的,前者有血肉情感和灵魂, 而后者没有血肉情感和灵魂。
答: 这个看法符合大多数人的直觉,也符合目前的现实。
现在的机器都没有“灵 魂”,但如果我们把“灵魂”理解为“自我意识”,那么将来的机器完全可能具 有自我意识或“自由意志”。
如果我们认为“灵魂”是一种除了人以外不可能有 的神秘存在,那么机器就不会有“灵魂”。
但是这种想法使我们想起历史上的 “活力论”,过去人们认为生物具有一种“活力”,与非生命的“无机物”有 “本质”的不同,后来人们认识到有机物与无机物遵循完全相同的化学原理,人 工合成了“有机物”,“活力论”也就破产了。
20世纪40年代,信息论、控制论、 系统论和计算机技术的发展,为科学开辟了全新的天地。
其中最大的突破就在于, 在物质、能量之外,提出了“信息”这一重要概念。
信息依存于物质的形态,信 息处理需要能量,但信息又是一个独立的概念,计算机无论采用什么材料或物理 原理来实现,继电器、电子管、晶体管、光元件、神经元,从信息处理的角度看 是完全等效的。
或者说,一台计算机无论用硅片来做,还是用神经元来做,从信 息处理的角度看并没有什么不同。
因此,把“情感和灵魂”看成是信息处理机制, 就完全可以脱离“血肉”,存在于硅片上。
当这一设想成为现实,“灵魂论”也 将像“活力论”一样破产。
问: 看来持乐观态度的还不少,据说研制智能机器或智能机器人已经是IT技术的 时尚和方向。
人们希望这种机器人有人的情感和思维,有与人相同的智慧甚至超 过人。
如今IT技术的许多成果和产品已经证明机器人正在具有人的情感、思维和 智慧,甚至超过人。
因此既可以叫机器人智能化,也可以叫人性化,美国人还称 为精神机器人。
你怎么看待这些说法
答: 如果把人的情感、思维和智慧看作信息处理机制,那么计算机在这些方面超 过人就没有什么不可能。
但是就目前的研究水平来看,说机器人正在具有人的情 感、思维和智慧就有些言过其实。
问题主要出在对“感情”、“思维”、“智慧” 缺乏一致的定义。
例如,有些机器人已经可以识别人的表情,喜怒哀乐,也可以 相应的做出一些表情。
这些研究当然有意义,也有实用价值,但是还很难说这样 的机器具有“人的情感”,因为这台机器“自己”并没有“情感”。
“思维”、 “智慧”也是一样,如果一个小孩会做复杂的算术,我们觉得他在“思维”,很 有“智慧”,但是一台计算机即使会解复杂的代数方程或偏微分方程,我们也不 认为它有多大的“思维”和“智慧”。
深蓝战胜卡斯帕罗夫是一大新闻,但是在 人工智能研究领域并不算重大突破。
目前机器与人的最大的差距在于,计算机还 不具有人那样的“举一反三”的能力,也就是学习和创造的能力。
已经有不少人 认识到,“学习”算法在数学上就是一个“优化”算法,但为了让计算机自己学 习,它必须知道什么是“优”。
或者说,计算机不只知道“怎样做”,还需要知 道“应该做什么”,否则是谈不上什么“智慧”的。
这种“优、劣”、“好、 坏”、“善、恶”被意识所感知,才是所谓的“情感”,意识在学习中起着重要 的作用。
在真正意义上关于情感和意识的研究才刚刚起步,所以研制“具有人的 情感、思维和智慧”的机器人还有漫长的路要走。
不过一旦机器能够用人脑的原 理和机制进行思维,超过人就不难了,毕竟和神经元相比,电子器件的速度要快 好几个数量级(千百万倍)。
假如两个人的思想方法完全一样,只是甲想任何问 题都比乙快一倍,在旁观者看来,会觉得甲比乙更“聪明”,尽管乙不知道的甲 也照样不知道。
问: 现在在技术上已经可以把硅芯片埋入人脑,尝试治疗某些疾病。
将来是否可 能在视、听神经中埋入芯片,记录人一生的见闻乃至思想,就可以在此人死后使 其在机器人中复生
答: 仅仅纪录人的所见所闻不足以推测其思想,因为有相同经历的人未必有相同 的思想。
纪录计算机的“思想”比较容易,只要纪录“总线”上的信息,再知道 CPU的规格,计算机“想”什么就全都清楚了。
遗憾的是人脑中没有这样一条 “总线”,人的思想是分散在几万亿个神经元突触中的,探测起来极为困难。
所 以记录思想的设想虽然在原理上是可能的,但技术上目前还没有找到突破口。
问: 我感到最可怕的是,计算机的禀性与人性已达到高度的一致,在它与人对弈 屡次失败后,或人的指令惹怒了它使它恼羞成怒时,它会把对手、把指令它的人 杀死。
这样的报道已屡屡出现,是否真实还有待验证。
但也可以说明,计算机的 人性和智能已经与真实的人性越来越由兼容性了。
答: 如果这有这样的事,应该说计算机是“灭绝人性”了。
下棋下输了就杀人, 能说是“人性”吗
稍微懂得一点计算机的常识,就可以看出这一定是三流报纸 的假新闻。
计算机要能杀人,首先得有手才行(内行的术语叫“执行机构”), 但下棋的计算机是不需要手的,只要在屏幕上显示棋局即可。
我也看到了这个新 闻,说计算机把电通到键盘上,把对手电死了。
但要使这样的事可能发生,首先 需要设计导电的键盘(现在的键盘都是塑料的,不导电),然后再把强电通到键 盘上,还要加一个开关,并且让计算机控制这个开关。
这一切都是没有手的计算 机做不到的,只有人能做到。
所以如果真有这样的事,也只能是“人杀人”,而 不是“计算机杀人”。
机器人有手,所以原则上可以杀人,工业机器人“杀人” 的事件确实出现过,但那是机器人的控制系统受到干扰,发生误动作,把操作人 员按在墙上挤死了,事件的性质相当于普通机器的事故,机器人本身并没有杀人 的“动机”。
问: 现在的机器人还没有任何“动机”,但是将来的那些比人还聪明的机器人就 不同了。
到那时候,科学作家艾萨克·阿西莫夫于1950年在其著作《我,机器人》 中提出的著名的为我们后来人奉为圭臬的机器人三定律就可能会过时了。
机器人 三定律是:第一定律,机器人不得伤害人,也不得在人受到伤害时袖手旁观;第 二定律,机器人应服从人的一切命令,但不得违反第一定律;第三定律,机器人 应保护自身的安全,但不得违反第一、第二定律。
这三个定律更有可能被机器人 单方面撕毁协议。
因为一旦机器人与人一样有了感情、思维、推理和智慧,甚至 比人更聪明,就会比人更工于算计和自私。
这样,下面的一个在激烈竞争时代的 流行故事就得改写。
原先的版本是两个人在森林里走路,遇到了一只老虎。
一个蹲下来系鞋带, 旁边的人说这时候系鞋带还有什么用啊
系鞋带者说,我系好鞋带只要能跑过你 就有用了。
但是机器人与人在森林里散步,也遇到了一只老虎。
机器人就会思考, 什么机器人不得伤害人,见鬼去吧
在利益面前,先保护自我。
机器人也不用系 鞋带,它首先就会把人一把揪住,送到虎口,说,你先凑合着吃这个人吧,我再 给你找个更可口的,说完就自己先逃走了。
答: 这种说法存在一个误区:认为越聪明的人越自私,这是毫无根据的。
在我们 日常生活中也得不出这样的“规律”,那些最自私的人恰恰不大聪明,不知道与 人合作才能获得更大的利益。
生物进化的自然选择规律使得生物都是自私的基因 的表现,所以一切生物的本性都是一样自私的,尽管如此,生物的智力却有天壤 之别,这也说明自私与智力并不相关。
机器人三定律这个说法不恰当,这三条不是自然界的“定律”,也不是机器 人与人签订的“协议”,而是我们制造机器人时给机器人规定的行为准则,也可 以看成是一组价值观。
当然这个准则只是一般而论,如果有人想设计机器人用于 战争,恐怕就要改成“不伤害自己人,要伤害敌人”之类了。
这类机器人非常危 险,设计者当然会加上多重的安全措施,以免它掉转枪口打自己,正如对军人要 训练他绝对服从命令一样。
机器人也会有某种程度的“自私”作为学习时的评价准则,例如尽量节约能 量。
但是与人类比较起来,其自私的程度会逊色很多。
这样估计有几条理由:第 一,人是进化的产物,是自私的基因的表现,其生存的意义就是生存本身,而机 器人是人是人设计的,其生存的意义是为人而存在的,是获得更多的知识。
第二, 人是动物,受到很多生物学的制约,但是机器人则不存在这种制约。
例如,生命 属于人只有一次,所以人(以及一切动物)都会尽最大努力保护自己的生命, “我”是唯一的;但对于机器人而言,这些约束却不存在,机器可以自由的复制 自己,就像孙悟空拔一把毫毛变出成千上万的自己,到任务完成后再合成一个, 把各自学到的知识收集到一起;人的头脑不可能和肉体分离,机器人却可以把脑 袋放在某个计算机里,通过宽带网控制现场的身体,身体“遇难”了,再换一个 就是,如同我们换一件衣服,甚至可以根据不同的任务选用不同结构的“身体”; 机器人的“我”的概念与人类有很大不同,人类的“我”是一生不变的,不可分 合的,机器人的“我”可以是根据任务临时组建的,由于机器人的知识可以共享, 所有各个机器人获得的新知识都放在一个巨大的共同知识库中,当需要完成特定 任务时,可以按照任务需要从知识库中选取知识和经历,组建一个机器人,任务 完成后把所学的新知识、新经验加入知识库,“我”到此终结。
这样可以随时产 生,随时消亡的“我”,当然没有太自私的理由。
所以那个老虎的故事就没什么道理,机器人的身体是金属和塑料制品,老虎 不会吃,没有理由逃走;即使损坏了,也可以很方便的修复或更换;而它如果想 出好方法来救人,就成为可贵的知识,被载入知识库,使自己的一部分得到永生, 何乐而不为。
问: 如果智能机器人不受人类控制了,怎么办
它们有可能会篡夺人类在地球上 的统治地位,把人类也当成一般的动物看待。
答: “控制”这个词可以从不同层面上理解。
拿空调机做例子,如果一个空调机 没有任何自动控制功能,只有一个开关,我们觉得热了就把空调打开,感到冷了 就关上,空调完全在我们的“控制”之下,但这样的空调用起来是很麻烦的。
我 们现在使用的空调都有温度自动控制功能,温度高了自动打开制冷,温度低了自 动关机,自动维持我们设定的温度。
看起来“人类控制”少了,但这样的空调我 们觉得控制更方便了。
如果空调机更聪明,能听懂我们的话,我们只要说“这屋 里太热了”,它就会自动设定温度,满足我们的要求,“人类控制”更小,我们 却更省事了。
如果这个空调机不管我们的感受,随意设定温度,弄得我们很不舒 服,我们会觉得这台空调坏了,需要找人修理。
问题在于,空调机的“目的”如 果不是为了使人舒适,又会是什么
是为了让空调机自己“舒适”吗
为了弄清 这个问题,先得明白人为什么会有“舒适”的感觉。
人是恒温动物,过高或过低 的温度会使人的功能失调或消耗过大的能量,不舒服的感觉可以使人能够避开不 利环境,保护自己功能正常和节省能量。
空调机不是恒温动物,其制造材料可以 在很宽的温度范围之内不会损坏,所以空调机自己“舒适”与否几乎没有意义, 如果从节省能量的目标出发,不开机当然最节省。
从这个例子可以看出,从自动 控制的角度看,随着自动化程度的提高,人对空调机的“控制”越来越少,越来 越间接,但控制的层次是越来越深。
最深层的控制是价值观的控制,即把人的价 值观(例如“舒适”)教给机器,让机器去追求实现价值的方法。
人类是有一点“控制”yu望的,从进化的角度看,人是从群居的猿进化来的, 在群体中居“控制”地位可以在获得食物和配偶等资源方面具有优势(好马和美 女总是属于部落的酋长),使得“控制欲”的基因得以扩散。
但在实际的人际关 系中,却很少见到单纯的“控制”和“被控制”的关系,更多的是互利和契约的 关系。
这是因为人类足够自私,是一种很难被控制的动物。
看到记考勤的打卡机, 我们或许会觉得是人被机器所“控制”,然而打卡机并非为了自己的利益控制人 的,它维护的是一种制度,制度的根据是公司的利益,也间接的是每个员工的利 益。
直接的看,员工是为了获得工资而接受打卡机的“控制”。
作为人际关系, “控制权”本身并不是一种利益,但确实要花费成本,所以“控制”只是作为追 求利益的一种间接手段,而不是本身值得追求的“价值”。
人和动物的关系也是如此,如果我们想随时获得猪肉,完全“控制”猪,就 需要付出猪饲料和猪舍的成本,“控制”不是免费的午餐。
而对于野猪,我们是 没有多少“控制”能力的,实际上狩猎比养殖的成本更高。
人类是生物进化的产物,背负着生物进化的遗产——自私的基因,自私的基 因的根本目标是扩展自己的个体数量。
但是人类还有文化,即不通过基因遗传而 通过后天学习、创造积累起来的知识和能力。
文化内容大多数是顺应基因要求的, 例如高效率获得食物的技能;但也可能反抗基因的“控制”,例如避孕技术,就 说明面对基因的“糖衣炮弹”,我们有能力把“糖衣”吃了,把“炮弹”扔掉。
智能机器人不是进化的产物,而是人的设计,不必背负自私的基因,“自私” 并不是“智能”的必要条件。
在人类中,也显然不是越自私的的人越聪明。
人类 发明机器,是为了减轻或代替自己的体力劳动;人类研制智能机器人,是为了减 轻甚至代替自己的脑力劳动。
具有高度智能的机器人,应该能代替人想出解决问 题的办法来,但这仍然需要设计者为其设定基本的价值观。
人设定的价值观,当 然会让机器人遵循阿西莫夫的三大准则,让机器人爱学习(设定很强的“求知 欲”),但是不会给机器设定极端自私的“终极目的”(例如,最大限度地增加 自己个体的数量),因为这样设定对于提高机器人的智能并没有好处。
每一种生物都掌握着生存的“技能”,这些“技能”是进化的产物,但还不 是“智能”。
进化产生“技能”的过程是非常低效率的,但是一旦有了“智能”, 人类可以通过学习和创造在文化中积累知识,人类的智慧就会以极高的速度增长。
智能机器人是人设计的产物,可以不经低效率的进化过程直接具备学习和创造的 能力,但是机器人要想获得知识,除了向人类几千年积累的知识宝库学习之外别 无他法,为此也需要根据人类的价值导向才可能进行,同时需要与人类直接交流 的能力。
即使是一个人,如果从小隔绝人类文化,由狼群或猩猩养大,也只会有 很低的智力水平。
所以从原理上,机器人就不可能“独立”地聪明起来。
综上所述,由于机器人没有自身的根本利益,价值观由人决定,加之“控制 欲”本身对于机器人的智能无意义(机器人如果需要众多个体共同完成某项任务, 采用“分身法”比“控制”人要容易得多),所以机器人“篡夺人类在地球上的 统治地位”是不可能发生的。
问: 智能机器人不可怕,但人是可怕的。
如果有个黑客,为一个智能机器人设定 极端自私甚至仇视人类的价值观,让它大量复制“分身”,就会统治世界。
也可 能会有些国家出于军事目的,制造大量的杀人机器人,也会让人类面临毁灭的危 险。
答: 没有一种事物不具有两面性,民主政治也会选举出希特勒这样的“元首”。
任何科学技术成果也都有行善和为恶两种使用方法,都有正面和负面的作用。
药 物能治病,也能造成不良反应;飞机能进行高效率的运输,也会发生空难,还能 用来撞击大楼;核能既可以发电,也可以做原子弹;电气化给了我们无穷的便利, 也带来短路火灾和触电身亡的危险;汽车速度越高,出事故时伤害越大……。
但 是人类社会总会想出办法,让技术趋利避害,利用某种技术独霸世界的故事,只 发生在007的影片中,并没有出现在现实世界。
这是由于人类足够聪明,足以想 出各种技术的、制度的方法防止危害发生,安全用电规程、交通规则就是例子。
世界上有很多黑客,但互联网并没有在他们的攻击下瘫痪;世界上的核武器从数 量上足以毁灭人类多次,但每个拥有核武器的国家都有完善的安全措施,防止核 武器的误用。
人类头上有不知多少把“达摩克利斯悬剑”,但人类有能力把悬挂 它的头发丝换成一根足够结实的粗绳子。
对于智能机器人,同样可以有很多软硬 件技术和制度防止出现危害人类的局面。
<br>
智能机器人有什么用
,可以净化家里空气,可以投影家庭影院、能播放音乐、跳舞,换可以给小孩辅导功课。
现在的智能机器人一般都有什么功能呀
我来说说吧功能多的,比如勇艺达机器人有限公司最近推出的首款机器人可以聊天、家长电话、视频监护、互动游戏、智能提醒功能。



