当前位置: www.89677.com > 互联网 > 正文

www.89677.com机器人三大定律,图灵测试

时间:2019-11-17 04:34来源:互联网
2014年6月7日是计算机科学之父阿兰·图灵(AlanTuring)逝世60周年纪念日。这一天,在英国皇家学会举行的“2014图灵测试”大会上,聊天程序“尤金·古斯特曼”(EugeneGoostman)首次“通过

2014年6月7日是计算机科学之父阿兰·图灵(Alan Turing)逝世60周年纪念日。这一天,在英国皇家学会举行的“2014图灵测试”大会上,聊天程序“尤金·古斯特曼”(Eugene Goostman)首次“通过”了图灵测试。

2014年6月7日发生了一件事情:聊天程序“尤金·古斯特曼”(Eugene Goostman)在英国皇家学会举行的2014图灵测试大会上冒充一个13岁乌克兰男孩而骗过了33%的评委,从而按照图灵当初的定义,“通过”了图灵测试。

2014年6月7日发生了一件事情:聊天程序“尤金·古斯特曼”(Eugene Goostman)在英国皇家学会举行的2014图灵测试大会上冒充一个13岁乌克兰男孩而骗过了33%的评委,从而按照图灵当初的定义,“通过”了图灵测试。

人类一方面想要人工智能面世,替人类解决问题或事情;一方面又担心人工智能的出现会危害到人类的安全,没有人担保机器人不会背叛人类。现代科技高速发展,出现人工智能机器人只是时间的问题,也许在未来20之后,机器人可能成为每个家庭的标配,此后就多了一个“家电”,但我们准备好智能机器人的降临吗?在出现之前我们该做怎样的准备呢?是否会出现像是电影《我,机器人》场景,这就不得而知了。

如果你想深入了解何为图灵测试,请看《图灵测试,测的到底是什么?》;但简单地说,这个测试的任务是让计算机程序来冒充人和人类裁判对话,如果裁判拆穿骗子的正确率不够高,就算是程序通过了。

www.89677.com 1

www.89677.com 2图灵测试

www.89677.com 3

www.89677.com 4通过图灵测试的程序“尤金·古斯特曼”。图片来源:cdn-static.zdnet.com

尤金的在线对话页面,不幸的是因为这一事件给服务器带来的压力,该网站已经几天无法访问了……

1950年,阿兰·图灵在那篇名垂青史的论文《计算机械与智力》的开篇说:“我建议大家考虑这个问题:‘机器能思考吗?’”但是由于我们很难精确地定义思考,所以图灵提出了他所谓的“模仿游戏”:

阿西莫夫机器人三定律:

尤金最初在2001年由弗拉基米尔·维西罗夫(Vladimir Veselov)、谢尔盖·乌拉森(Sergey Ulasen)和尤金·杰姆琴科(Eugene Demchenko)在俄罗斯圣彼得堡共同开发,它模拟的是一个13岁乌克兰男孩。“尤金诞生于2001年。”维西罗夫介绍道:“我们当时的主要想法是,尤金能够声称自己知道所有事情,但考虑到他的年龄,他不知道所有事情也是很合理的。”“我们花了很多时间去使他具备可信的人格。今年,我们改进了尤金的‘对话控制器’,使得跟只会回答问题的程序比起来,尤金在对话中更加像人类。”

但是,通过了测试又怎么样呢?说明了什么问题呢?

一场正常的模仿游戏有ABC三人参与,A是男性,B是女性,两人坐在房间里;C是房间外的裁判,他的任务是要判断出这两人谁是男性谁是女性。但是男方是带着任务来的:他要欺骗裁判,让裁判做出错误的判断。

1.机器人不得伤害人类,或看到人类受到伤害而袖手旁观;

www.89677.com 5模拟这样一个乌克兰小孩是“公平”的吗?其实两年前Abstrusegoose就嘲笑过这种思路。图片来源:科学松鼠会

图灵测试

1950年,阿兰·图灵在那篇名垂青史的论文《计算机械与智力》的开篇说:“我建议大家考虑这个问题:‘机器能思考吗?’”但是由于我们很难精确地定义思考,所以图灵提出了他所谓的“模仿游戏”:

一场正常的模仿游戏有ABC三人参与,A是男性,B是女性,两人坐在房间里;C是房间外的裁判,他的任务是要判断出这两人谁是男性谁是女性。但是男方是带着任务来的:他要欺骗裁判,让裁判做出错误的判断。

那么,图灵问:“如果一台机器取代了这个游戏里的男方的地位,会发生什么?”这台机器骗过审问者的概率会比人类男女参加时更高吗?这个问题取代了我们原本的问题:‘机器能否思考?’”而这,就是图灵测试的本体。

www.89677.com 6

【图片来源:BBC】

……等等,那现在这帮人在搞的图灵测试又是什么啊。

其实你可能已经注意到了图灵的真正目的。不是说“思考”没法定义吗?没关系,我们不去纠缠哲学,我们来制造一个可操作的标准。如果这台机器“表现得”和一个思考的人类(人类是会思考的,对吧?)无法区分,那么我们就大可把它当做是在“思考”。

当然,有些方面机器很难表现得和人类一样,比如有血有肉——但是既然我们关注的是思考,那么就可以选择一个有代表性的领域,图灵选择的就是“模仿游戏”。

而到了1952年,在一场BBC广播中,图灵谈到了一个新的具体想法:让计算机来冒充人。如果足够多的裁判(图灵选择的数字是30%)误以为在和自己说话的是人而非计算机,那就算作成功了。

可以看到,图灵测试的核心其实不是“计算机能否和人对话”,而是“计算机能否在智力行为上表现得和人无法区分”。冒充异性和冒充人类都不过是特例而已。
不过这个1952年版的图灵测试在后世被发扬光大,成了今天我们所知的图灵测试的唯一方法。这就带来了一些问题。

那么,图灵问:“如果一台机器取代了这个游戏里的男方的地位,会发生什么?”这台机器骗过审问者的概率会比人类男女参加时更高吗?这个问题取代了我们原本的问题:‘机器能否思考?’”而这,就是图灵测试的本体。

2.在不违反第一定律的前提下,机器人必须绝对服从人类给与的任何命令;

这届图灵测试大会由雷丁大学系统工程组织。按照大会规则,如果在一系列时长为5分钟的键盘对话中,某台计算机被误认为是人类的比例超过30%,那么这台计算机就被认为通过了图灵测试。此前,从未有任何计算机达到过这一水平。2014图灵测试大会共有5个聊天机器人参与,其中尤金成功地被33%的评委判定为人类。负责区分参赛者是人类还是计算机的评委包括了英国演员罗伯特·卢埃林(Robert Llewellyn),他曾成功发起要求政府授予图灵死后赦免状的运动。

中文屋子

图灵测试自诞生以来产生了巨大的影响力,不光有支持,也少不得批评。其中最重要的批评之一,可能是1980年约翰·塞尔在《心智、大脑和程序》一文中提到的中文屋子思想实验了。

塞尔说,想象他锁在一间屋子里,手动模拟一个巨大的AI程序,和外界进行中文的对话。这个程序据说是“懂中文”的——至少,能以中文通过图灵测试。屋子里除了一堆纸(塞尔的原话是“bits of paper”)上写着运算的规则之外,别无他物。(好吧,为了人道起见也许应当添加基本的维生设施……)

www.89677.com 7

【图片来源:rationallyspeaking.blogspot.com】

塞尔不懂中文,在屋子里摆弄符号显然也无助于他习得中文,屋子里也没有别的东西理解中文了。如果塞尔不“理解”中文,那么塞尔加上这堆纸也不能说是“理解”中文吧!虽然屋子的中文水平足以骗过中文使用者,但没有任何实体真的“理解”发生了什么。

换言之,所谓的图灵测试也是没有用的,就算通过了它也不能表明计算机在思考。

但问题还不仅限于图灵测试,按照这个实验,一台电脑和塞尔一样,都是只能识别弯弯扭扭的“符号”,对这些汉字符号的意义一无所知。这也正是计算机程序的问题,不管它是硅基的还是塞尔基的。这等于是说有理解力的强AI根本不可能出现!

这个思想实验看起来一目了然,完美符合直觉,而且很迎合了不少人的愿望——证明人类心智是独一无二的天赐产物,人类造不出赝品来。不过话说在前头,我(遵循丹尼尔·丹内特等人的观点)认为它是错的。

其实塞尔当初在伯克利讲座上首次提出这个实验的时候,就有听众反对说,锁在屋子里的人可能不懂他在处理什么东西,但他只是整个系统的一部分啊,他还有规则书,有演算纸笔,有一堆汉字的数据库,凭什么一定要他理解、而不能让整个系统理解?

塞尔的回答是:

“这个想法认为虽然一个人不懂汉语,不知怎么的他和他的那一堆纸联合起来就能懂汉语。一个不深陷意识形态之中的人,怎么会认为这想法可信,还真有点难以想象啊。”

也许吧,但是,真的只有“一堆纸”?

www.89677.com 8中文屋子

3.在不违反第一定律和第二定律的前提下,机器人必须尽力保护自己;

www.89677.com 9一个人(C)询问两个他看不见的对象(正常思维的人B和机器A),对象能够理解C所用的语言。如果经过若干询问后,C无法区分A与B,则A通过图灵测试。图片来源:维基百科

直觉泵的旋钮

这种思想实验——用丹内特的话说叫“直觉泵”——有个共同的问题。它的确给出了一个直觉的结论,但是这结论是来自一个完整的详尽的思想实验,而不像普通的逻辑推理那样来自具体而明确的几个前提。如果这个实验的某个细节,某个你觉得无足轻重的细节,欺骗了你的直觉呢?

最有名的直觉泵大概是有轨电车问题(Trolley Problem),1967年由英国哲学家费丽帕·弗特提出。铁轨上有五个小孩在玩,停用的岔轨上有一个小孩在玩,你要把车转移到岔轨上压死一个孩子救下五个吗?这是一个非常典型的关于道德问题的直觉泵。但是千万不要以为这实验就能完整地代表你的道德立场——如果我换一个条件,那个岔轨没有停用,也在正常运行,只是这趟车正好不往那走呢?如果我再换一个条件,根本就没有岔轨,那个小孩就在你身边玩,你把他推下去就能让车停下救另外五个小孩呢?如果那一个小孩是你的亲人呢?如果根本没有小孩、只有你自己决定是否要自己跳下去呢?

www.89677.com 10

【有轨电车问题已经成为了一个大领域,有无数的变体。图片来源:Workman Publishing】

对待直觉泵,这正是丹内特的建议:研究它的细节,看看每个细节如果发生了改变会不会影响到最后产出的那个直觉。用他的话说,是“转动直觉泵的旋钮”。
回到中文屋子。塞尔说,他在手动模拟一个程序的运行——但是他没有说他是在哪一个层级上模拟。如果外面的人输入了一串中文,比如“你好啊”,屋子里的人在做什么?他是在做机器码(将寄存器23945的内容加到寄存器93756上)?是在做源码(定义常数p,令p=100)?是在做伪代码(将句子拆分为名词、动词、代词和修饰词,判断其是否为一个问题)?有没有注释可看?如果他在顶层,那么他会不会对自己在做什么有所理解?如果他只是底层的一个计算器,那他之上的繁复层级真的可以用“一堆纸”来轻描淡写地概括吗?

设想这样一个问题:写下一个英文大写字母D,把它逆时针旋转90度,然后把它放在一个英文大写字母J的上面。请问这让你想到了什么样的天气?

一个顶层的塞尔(或者干脆就是一个懂中文的塞尔)的脑海中会浮现出D躺在J上的这个形状。一个底层的塞尔当然对此一无所知,但是他身为计算器所驱动的那个中文屋子要怎么回答这个问题?如果这个中文屋真的通过了图灵测试,它当然不会被这道题难倒——但是解这道题的唯一办法,就是照着它的指示,把D躺倒,放在J上,对比记忆库,判断出这个形状最接近于雨伞,根据雨伞联想到雨天。这是底层的塞尔所不知道但中文屋作为一个整体必须在它的“内存”中做的事情。而这件事情和一个懂中文的塞尔解题时的所思所想又有何区别呢?

但是,如果简单地用“一堆纸”这个人畜无害的词,轻描淡写地描述中文屋,你的直觉就被误导了。如果一个中文屋真的完美通过了图灵测试,真的和人无法区分,它在和裁判对话时的“思维”状态必须是和真人高度类似的。假如图灵测试的裁判决定用苏格拉底式方法教授对方量子物理学,那么一个底层的做算术的塞尔当然不会因此学会量子物理——但是中文屋却会(别忘了,它通过了图灵测试——它能在智力行为上表现得和人无法区分)。这就像是给中文屋安装了一个新程序,能执行简单的量子物理计算和模拟。在这种情况下,你还凭什么说,因为底层的人没有理解,所以这间屋子也不能理解呢?

不过上面的论证其实都有一个麻烦。这些说的都是理想的图灵测试,是1950年图灵给出的最原始形态。而2014年6月7日这个聊天程序通过的那个“图灵测试”,和1950年图灵心中的那个测试,并不完全是一回事。

图灵测试自诞生以来产生了巨大的影响力,不光有支持,也少不得批评。其中最重要的批评之一,可能是1980年约翰·塞尔在《心智、大脑和程序》一文中提到的中文屋子思想实验了。

1950年,英国“人工智能之父”——阿兰·图灵,提出鉴定判断人工智能的测试。

雷丁大学的客座教授、考文垂大学副校长凯文·沃里克(Kevin Warwick)参与了大会的组织工作。“某些人会说其实图灵测试早已经被通过了,世界各地的类似赛事上都有‘图灵测试’的身影。不过,这次活动所包含的同时比较测试是史上最多的,也通过了独立认证。”他说:“至关重要的是,在这次测试中,对话是不受限制的。真正的图灵测试正是不预设问题或主题的。所以,我们很骄傲地宣布,图灵测试是在这周六才首次被通过的。”沃里克说,图灵自己在逝世前不久就曾预言图灵测试迟早会被通过。

聊天机器人的“图灵测试”

如果你刚才几部分的内容没忘光,可能还会记得,我们反复强调了图灵测试的准则是“计算机在智力行为上表现得和人无法区分”。

但是现实中真要测的话总得有规章,而英国皇家学会的测试规矩是,在一系列时长为5分钟的键盘对话中,某台计算机被误认为是人类的比例超过30%,那么这台计算机就被认为通过了图灵测试。尤金在2014年的成绩是在总计150场对话里骗过了30个评委里的10个,比两年前提高了4个百分点(所以严格来说,并不是发生了什么大突破,只是在改良的过程中跨越了一个武断的阈值)。

麻烦来了:尤金的设计思路并不是“一台在智力行为上表现得和人无法区分”的机器,而是一台“能够在5分钟长度对话内尽可能骗过人类”的机器。

经济学有个所谓的古德哈特定律:一项指标一旦成为政策制定的依据,便立刻不再有效。政策制定者会牺牲其他方面来强化这个指标,使得这个指标不再具有指示整体情况的作用。类似的道理勉强也可以套用到别的领域里。某种意义上尤金·古斯特曼就是例证——它不但是专门设计的聊天机器人、缺乏任何其他领域的智力能力,而且为了骗过人类,还被特意设定成一个13岁的非英语母语的小孩,以便在很多问题无法回答或者出现错误的时候,让裁判误以为这是因为它年龄小,而非因为它欠缺人性。

这恐怕并非图灵当初设想的人工智能形态。当然更不是科幻爱好者恐惧(或者盼望)的天网觉醒。

www.89677.com 11

【也许要这样的人工智能才更接近图灵的本意吧……图片来源:xkcd,汉化:Ent】

无论是尤金的编写者还是程序的组织者,对此倒也心知肚明。编写者弗拉基米尔·维西罗夫说,“我们希望能借此激发人们对人工智能与聊天机器人的兴趣。”而组织者凯文·沃里克说,计算机冒充人会带来网络安全的问题,“理解这类实时在线交流如何让人们对某些事信以为真并对他们造成影响,是非常重要的事情。”没有人真的提到图灵测试本来的那个意义——判断计算机是否在思考;因为这也的确不是本来的那个图灵测试。

有一些人认为现在的整个人工智能领域都背离了初衷,比如侯世达。另一些人则认为图灵测试根本是无聊和过时的,和AI没有关系。有些人觉得现在的人工智能思路毫无问题,假以时日就能做出好用的AI。还有一些人认为强AI根本就是不可实现的。作为一个旁观者,我肯定无力判断哪几种观点是对的,但从个人来说,我是真的希望能出现一个程序,以原本的意义通过图灵测试的最初版——不光是为了计算机和人工智能的进展,也是为了理解我们自身的大脑。说到底,要弄懂一台机器的运作方式,还有什么办法比拆开来再装回去更好的呢?

塞尔说,想象他锁在一间屋子里,手动模拟一个巨大的AI程序,和外界进行中文的对话。这个程序据说是“懂中文”的——至少,能以中文通过图灵测试。屋子里除了一堆纸(塞尔的原话是“bits of paper”)上写着运算的规则之外,别无他物。(好吧,为了人道起见也许应当添加基本的维生设施……)

图灵测试

“我希望祝贺每一位曾经参与开发尤金·古斯特曼的人。我们整个团队都对此结果感到非常兴奋。”尤金的创造者维西罗夫在会后表示:“这对我们来说是项了不起的成就,我们希望能借此激发人们对人工智能与聊天机器人的兴趣。”他透露,接下来他们计划让尤金变得更加聪明,并继续致力于提高他的“对话逻辑”。

参考文献和扩展阅读

作为丹尼尔·丹内特的粉丝,我针对这个话题推荐《意识的解释》和《达尔文的危险思想》两本书。前者直接讨论了AI的问题,后者则从演化的角度讨论了我们人脑这个“AI”的诞生为何是可以想象的。但如果只想走马观花看看他的观点,《直觉泵及其他思考工具》很不错。

来自物理学角度针对AI的讨论则有彭罗斯的《皇帝新脑》,虽然我不太赞同他的观点,但他讲了很多有趣的东西。

如果你对侯世达的路线有兴趣,《集异璧》当然是必推的作品,他的后续作品同样值得一看。

www.89677.com 12直觉泵的旋钮

人类A,机器人B,在相互隔开的情况下,通过装置随意提问,当测试者无法分辨谁是机器人超过30%,那么就通过图灵测试,并认为此具备了人工智能。现代社会当中,无论是IBM的深蓝、苹果的Siri、微软的cortana、谷歌的alphago,都没有一台通过“图灵测试”,去年阿尔法狗大战李世石,赢了比赛,那都是建立在大量的数据下,每秒上亿次的运算,并不是拥有了逻辑思考的能力,要真有了人类就要小心了。

沃里克指出,计算机能让我们将他人甚至其他东西当做自己信任的人,这无疑在网络犯罪方面为我们敲响了警钟。图灵测试正是对抗这些威胁的重要工具。“理解这类实时在线交流如何让人们对某些事信以为真并对他们造成影响,是非常重要的事情。”沃里克说。(编辑:Ent)

这种思想实验——用丹内特的话说叫“直觉泵”——有个共同的问题。它的确给出了一个直觉的结论,但是这结论是来自一个完整的详尽的思想实验,而不像普通的逻辑推理那样来自具体而明确的几个前提。如果这个实验的某个细节,某个你觉得无足轻重的细节,欺骗了你的直觉呢?

www.89677.com 13

编者的话:
​关于尤金·古斯特曼“通过”图灵测试这件事情,有几点需要说明。这事很牛,但可能没有你想象的那么牛。
1 它不是一台超级计算机,它只是一个程序,一个软件。
2 30%这个比例是图灵说的,但是无论是这个比例还是图灵测试本身,实际上都不是人工智能的完美金标准——这更接近于一种测量计算机能否思考的操作性定义。
3 该程序冒充的是一个来自乌克兰、英语非母语的13岁小孩,这实际上不完全公平。
4 这个程序实际上是一套人类对话的模拟脚本,从认知角度来说,它真不大能算得上是思考……

最有名的直觉泵大概是有轨电车问题(Trolley Problem),1967年由英国哲学家费丽帕·弗特提出。铁轨上有五个小孩在玩,停用的岔轨上有一个小孩在玩,你要把车转移到岔轨上压死一个孩子救下五个吗?这是一个非常典型的关于道德问题的直觉泵。但是千万不要以为这实验就能完整地代表你的道德立场——如果我换一个条件,那个岔轨没有停用,也在正常运行,只是这趟车正好不往那走呢?如果我再换一个条件,根本就没有岔轨,那个小孩就在你身边玩,你把他推下去就能让车停下救另外五个小孩呢?如果那一个小孩是你的亲人呢?如果根本没有小孩、只有你自己决定是否要自己跳下去呢?

阿兰.图灵

www.89677.com 14计算机在各种游戏上与人类的交锋情况。图片来源:xkcd.com

www.89677.com 15聊天机器人的“图灵测试”

阿兰·图灵

信息来源:reading.ac.uk

如果你刚才几部分的内容没忘光,可能还会记得,我们反复强调了图灵测试的准则是“计算机在智力行为上表现得和人无法区分”。

人工智能之父、英国数学家、逻辑学家,被誉为计算机科学之父。1912年6月23日生于英国帕丁顿,1931年进入剑桥大学国王学院,1938年在美国普林斯顿大学取得博士学位,二战爆发后回到剑桥,协助军方破解德国的著名密码系统Enigma,帮助盟军取得了二战的胜利。他提出了“图灵机”和“图灵测试”等重要概念。人们为纪念其在计算机领域的卓越贡献而专门设立了“图灵奖”。

文章题图:foysavas.com

 

但是现实中真要测的话总得有规章,而英国皇家学会的测试规矩是,在一系列时长为5分钟的键盘对话中,某台计算机被误认为是人类的比例超过30%,那么这台计算机就被认为通过了图灵测试。尤金在2014年的成绩是在总计150场对话里骗过了30个评委里的10个,比两年前提高了4个百分点(所以严格来说,并不是发生了什么大突破,只是在改良的过程中跨越了一个武断的阈值)。

图灵去世60周年,2014年图灵测试活动中,“尤金.古斯特曼”成功伪装成13岁男孩通过了图灵测试,其中33%的测试者无法分辨是人还是机器人,赢得比赛团队称:这个就是一个会聊天的电脑程序,开发这个电脑程序的团队很狡猾,把它伪装成了不以英语为母语的13岁乌克兰男孩儿。“我们的主要想法是,尤金可以号称自己无所不知,但受到年龄的限制,所以他不可能什么都知道。”虽然这从技术上完全讲得通,但从感性角度来看,却一点都不令人佩服。虽然这并不是什么壮举,但他确实通过了图灵测试,让人感觉不到是在和一个电脑对话,这不正是聊天机器人的价值所在吗。

扩展阅读

为什么每个人都该知道阿兰·图灵?

人工智能下一步,通过图灵测试

聊天机器人伪装成真人的10种伎俩

麻烦来了:尤金的设计思路并不是“一台在智力行为上表现得和人无法区分”的机器,而是一台“能够在5分钟长度对话内尽可能骗过人类”的机器。

www.89677.com 16

果壳网相关小组

  • Hello world!

  • 死理性派

 

经济学有个所谓的古德哈特定律:一项指标一旦成为政策制定的依据,便立刻不再有效。政策制定者会牺牲其他方面来强化这个指标,使得这个指标不再具有指示整体情况的作用。类似的道理勉强也可以套用到别的领域里。某种意义上尤金·古斯特曼就是例证——它不但是专门设计的聊天机器人、缺乏任何其他领域的智力能力,而且为了骗过人类,还被特意设定成一个13岁的非英语母语的小孩,以便在很多问题无法回答或者出现错误的时候,让裁判误以为这是因为它年龄小,而非因为它欠缺人性。

人工智能性爱机器人

这恐怕并非图灵当初设想的人工智能形态。当然更不是科幻爱好者恐惧的天网觉醒。

除此之外,刚刚过去的情人节,让大把的单身狗吃了一把狗粮,为了减少单身狗的伤害,美国性爱娃娃制造商realdoll正在开发人工智能性爱机器人,宅男们有福了

www.89677.com 17参考文献和扩展阅读

www.89677.com 18

作为丹尼尔·丹内特的粉丝,我针对这个话题推荐《意识的解释》和《达尔文的危险思想》两本书。前者直接讨论了AI的问题,后者则从演化的角度讨论了我们人脑这个“AI”的诞生为何是可以想象的。但如果只想走马观花看看他的观点,《直觉泵及其他思考工具》很不错。

,为了增加体验感,每个仿真硅胶“RealDoll”性爱机器人都拥有灵活的骨骼,并以一种特殊的软质硅胶为材料,模拟人体肤质,以达到以假乱真,并且旨在帮助用户提升性生活质量,生殖器在内的身体各个部位都可以按照客户的私人喜好进行个性化定制。比如有些客户会要求性爱玩偶必须具备弹性的嘴唇、超柔软的舌头和柔软的硅胶牙齿。设定不同的性格特质,比如和善、性感、害羞、天真、聪明等;这东西好是好,就是有一点,小编不是很满意,太——贵——了,一个头就要1w美刀,定制1.2w美刀起,单身狗们,还要吗?

来自物理学角度针对AI的讨论则有彭罗斯的《皇帝新脑》,虽然我不太赞同他的观点,但他讲了很多有趣的东西。

买的起这个性爱机器人的,还缺女朋友吗?

我们期待人工智能的出现,出现之后又该怎么去面对呢,机器人到底会不会伤害人类呢,机器人的出现会势必会增加失业率,那时又该怎么去解决这个问题。机器人三大定律到底能发挥作用吗?

让我们一起迎接科技改变生活带来变化!

编辑:互联网 本文来源:www.89677.com机器人三大定律,图灵测试

关键词: