
标题: 三大纪律--“I, ROBOT” [打印本页]
作者:
穿越南极 时间: 2004-7-24 14:12
昨晚去看了WILL SMITH的『I, ROBOT』,里面有对机器人的三大纪律。
1:机器人不能做伤害人的事,
2:机器人必须服从人的指令,但在服从“1”的前提下,
3:机器人可以进行自我保护,但在服从“1”和“2”的前提下。
有了这三条,机器人会是人类的好帮手。
电影其实探讨了人与机器人如何共存的问题,感觉还好,可以一看。
里面机器人的动作很漂亮,打斗是还会武术的招式。
不知大家对那三大纪律有何高见?
作者:
穿越南极 时间: 2004-7-24 17:12
Three Laws of Robotics
1. A robot may not injure a human being, or, through inaction, allow a human being to come to harm.
2. A robot must obey the orders given it by human beings except where such orders would conflict with the First Law.
3. A robot must protect its own existence as long as such protection does not conflict with the First or Second laws.
Isaac Asimov 1940
三大纪律的原文,是1940年时Isaac Asimov提出的。
作者:
鲍伯 . 迪伦 时间: 2004-7-24 21:48
黑黑,这个。。。究竟机器人是不是真的不会伤害人类,现时有激烈的辩论
楼主知道现在世界上分为"Cosmist"和"Terran"两种人吗? Cosmist认为人工智能是事在必行。Terran反对制造智能机器人,因为它们的"脑"发展比人类的"大脑"发展要快好多倍,最终会超过人类而带来灾难;发展智能机器人是自取灭亡。
如果机器人的大脑跟人一样,它们还会不会遵守人类定下来给它们的规则?
正如你的智力一但超过你的"主人"(假设),你还会不会完全服从他? 你会不会甘愿受他的奴役? 或是反过来,你会想到由你来奴役他?
当然错不会在机器人身上。一但人类发现机器人快将超过自己,恐怕还是人类先对机器人进行"灭种"。个人认为,人和智能机器人会有一战,反正人类连自己都在互相杀戮;人类连有别于"自己"的人类也看不过眼。
作者:
fandongpai 时间: 2004-7-25 00:31
原帖由鲍伯 . 迪伦于2004-07-24, 9:48:33发表
个人认为,人和智能机器人会有一战
好耳熟的话......
说认真的, 看第一条戒律的原文, 有个矛盾.
要是一个ROBOT看见两个强盗殴打和企图杀害一个无辜者, 那它是否应该上去干涉呢?
作者:
雷神太史慈 时间: 2004-7-26 02:20
那机器人可没办法当警察了~
作者:
鲍伯 . 迪伦 时间: 2004-7-26 22:42
原帖由fandongpai于2004-07-25, 0:31:33发表
要是一个ROBOT看见两个强盗殴打和企图杀害一个无辜者, 那它是否应该上去干涉呢?
那要看当时机械人大脑的发展情度了。如果还是比人类低的话,那将不去干涉。
(BS老反,总要挑偶的话 )
作者:
wndblack 时间: 2004-7-26 22:46
机器人不能做伤害 人 的事
泛指还是特指的人?
作者:
气流 时间: 2004-7-27 01:57
原帖由fandongpai于2004-07-25, 0:31:33发表
好耳熟的话......
说认真的, 看第一条戒律的原文, 有个矛盾.
要是一个ROBOT看见两个强盗殴打和企图杀害一个无辜者, 那它是否应该上去干涉呢?
机器人要以不伤害强盗的方式上前干涉。
作者:
西油记 时间: 2004-7-27 12:13
看看阿西莫夫《 I Robot》的原著,就可以看到他是怎样诠释三定律的了,他的三定律其实定得相当好,所以后世的科幻小说凡是涉及机器人题材的无不遵从。
作者:
fandongpai 时间: 2004-7-27 13:21
原帖由鲍伯 . 迪伦于2004-07-26, 10:42:13发表
(BS老反,总要挑偶的话 )
没有啦, 其实是挑阿西莫夫的话啦......
BOB还记住许冠杰那篇文章...... 小气鬼......
作者:
q42474112 时间: 2004-7-28 10:49
机器人的大脑发展是极快的,至少比人类的进化快得多
最后人类可能会用电子方式改造自己的大脑以跟上机器人的脚步
不过,机器人恐怕早晚会有一天有了自己的意识(好多的科学怪人等着当机器人导师呢)
那时候
哼哼
作者:
穿越南极 时间: 2004-7-29 19:03
静心一想,要真有那么一天,机器人取代了人,也是很正常的,没有规定说人一定是机器人的统治者啊。就象以前的君臣关系。
作者:
wndblack 时间: 2004-8-2 00:05
原帖由穿越南极于2004-07-29, 19:03:34发表
静心一想,要真有那么一天,机器人取代了人,也是很正常的,没有规定说人一定是机器人的统治者啊。就象以前的君臣关系。
你喜欢被自己早出来的东西统治啊,受虐倾向?
作者:
症狀 时间: 2004-8-3 15:44
人类的大脑不是有研究90x%都没用到,如果我们能把人脑充分用到100%,我相信300年後的机器人还是很难敌过人脑,所以我们现在应该好好研究基因工程,改善人脑的运用度。
作者:
罡铁 时间: 2005-8-19 14:56
原帖由穿越南极于2004-07-24, 14:12:38发表
机器人三定律。
1:机器人不能做伤害人的事,
2:机器人必须服从人的指令,但在服从“1”的前提下,
3:机器人可以进行自我保护,但在服从“1”和“2”的前提下。
去百度搜了下~~
机器人学三大定律- -
一个作家,给予了机器人学革命性的答案,他正是科幻大师阿西莫夫,他用以席卷科幻界的武器,是他与他的出版人坎贝尔合创的“机器人学三大定律”———
(一)机器人不得伤害人类,或袖手旁观让人类受到伤害。
(二)在不违反第一定律的情况下,机器人必须服从人类给予的任何命令。
(三)在不违反第一及第二定律的情况下,机器人必须尽力保护自己。
上述三项虽称为定律,但实际上是制造机器人时的三条守则。阿西莫夫是一个十分讲求逻辑和理性的作家,他有感于机器人为祸的题材充斥科幻界,试图做出纠正。在他看来,机器人既然由人类制造,为什么不能一开始便在设计上杜绝机器人伤害人类的可能性?阿西莫夫的三定律能使得所有机器人都设计得对人类绝对服从和忠诚,否则便不能继续操作,一举扫除了机器人为害人类的危险。
机器人学三大定律问世之后,机器人小说踏上了轨道,不少作家在他们的作品中,都在不同的程度上接受或引用了阿氏的三大定律。
在后面的实践中,阿西莫夫发现需要扩充第一定律,以保护个体的人类,以便最终保护整体的人类。1985年阿西莫夫对原有的三定律进行修订,增加了第零定律,同时修改了其他定律———
第零定律:机器人不得伤害人类,或目睹人类将遭受危险而袖手不管。
第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管,除非这违反了机器人学第零定律。
第二定律:机器人必须服从人给予它的命令,当该命令与第零定律或者第一定律冲突时例外。
第三:机器人在不违反第零、第一、第二定律的情况下要尽可能保护自己的生存。
除此,另一个科幻作家罗杰·克拉克在一篇论文中还指出了三条潜在的定律:
元定律:机器人可以什么也不做,除非它的行动符合机器人学定律。此定律置于第零、第一、第二、第三定律之前。
第四定律:机器人必须履行内置程序所赋予的责任,除非这与其他高阶的定律冲突。
繁殖定律:机器人不得参与机器人的设计和制造,除非新的机器人的行动服从机器人学定律。
所有这些关于机器人的定律,都是为了规范机器人和人类的关系。人类已经预见到人工智能将给人类命运带来波折,所以必须把保证自己安全和主导地位的前提植入规则。真实世界和虚拟世界的关系本身就在沉思默想中,沉思默想的结果可能会为二者架起一座沟通的桥梁。关于机器人的伦理,终将不会仅仅停留在书面上。而在人工智能、信息网络化、生命科技这三大新生科技高速发展的今天,我们更应当反复探询这个问题。
作者:
门清 时间: 2005-8-19 20:52
《I,ROBOT》的小说版基本上就是在探讨这三大定律的潜在问题和矛盾= =
作者:
圆点 时间: 2005-8-19 21:59
什么样的人算是机器人根本就没有个完整的概念,这些规定只对极为低等的东西有效。
比如改造生命体,改造人算不算机器人呢?
作者:
Maxwell 时间: 2005-8-21 13:19
这几条规则有可行性吗?如何来判定里面说的“伤害”“将遭受危险”等?
作者:
罡铁 时间: 2005-8-21 13:28
原帖由Maxwell于2005-08-21, 13:19:40发表
这几条规则有可行性吗?如何来判定里面说的“伤害”“将遭受危险”等?
应该是指生命受到死亡的威胁,以及有机个体受到破损
当有这些潜在可能性存在时,机器人就必须去遵守定律救人了吧~~
作者:
Maxwell 时间: 2005-8-21 13:50
死亡啊,比如说我要朝你脑后一击,这个很难说会造成什么后果。或者说我打你一拳,到底是我想揍你还是想跟你开玩笑。这个判断怎么做?
作者:
罡铁 时间: 2005-8-21 14:24
原帖由Maxwell于2005-08-21, 13:50:38发表
死亡啊,比如说我要朝你脑后一击,这个很难说会造成什么后果。或者说我打你一拳,到底是我想揍你还是想跟你开玩笑。这个判断怎么做?
……流了好多汗
我觉得象这样甚至连人都不一定能分出来吧,经常在报纸上看得到有这样互相玩的然后就演变成真打了,我怀疑是不是那些没有人工智能的机器人看到类似行为就会制止啊(有了人工智能也未必分得清,人都分不清啊 )
所以,我觉得是不是只要会造成类似后果的,都会被制止啊~~不太清楚~~如果真是这样,好像有些乱套啊~~~
作者:
Maxwell 时间: 2005-8-21 16:25
所以啊,这三条定律就没用。
作者:
秋月枫舞 时间: 2005-8-21 16:29
人类如果连自己都没有完全了解的话,根本不可能造出所谓的智能型机器人,即使勉强造出来估计也是祸害无穷的
作者:
罡铁 时间: 2005-8-21 17:06
可怜的阿西莫夫,就这么被否定了~~
欢迎光临 轩辕春秋文化论坛 (http://xycq.org.cn/forum/) |
Powered by Discuz! 5.0.0 |