标题: 三大纪律--“I, ROBOT”
性别:未知-离线 鲍伯 . 迪伦

曲阿侯枢密直学士

Rank: 13Rank: 13Rank: 13Rank: 13
组别 翰林学士
级别 平南将军
好贴 3
功绩 462
帖子 2158
编号 6877
注册 2004-4-18
家族 现视研


发表于 2004-7-24 21:48 资料 个人空间 短消息 看全部作者
黑黑,这个。。。究竟机器人是不是真的不会伤害人类,现时有激烈的辩论
楼主知道现在世界上分为"Cosmist"和"Terran"两种人吗? Cosmist认为人工智能是事在必行。Terran反对制造智能机器人,因为它们的"脑"发展比人类的"大脑"发展要快好多倍,最终会超过人类而带来灾难;发展智能机器人是自取灭亡。
如果机器人的大脑跟人一样,它们还会不会遵守人类定下来给它们的规则?
正如你的智力一但超过你的"主人"(假设),你还会不会完全服从他? 你会不会甘愿受他的奴役? 或是反过来,你会想到由你来奴役他?
当然错不会在机器人身上。一但人类发现机器人快将超过自己,恐怕还是人类先对机器人进行"灭种"。个人认为,人和智能机器人会有一战,反正人类连自己都在互相杀戮;人类连有别于"自己"的人类也看不过眼。


顶部
性别:未知-离线 鲍伯 . 迪伦

曲阿侯枢密直学士

Rank: 13Rank: 13Rank: 13Rank: 13
组别 翰林学士
级别 平南将军
好贴 3
功绩 462
帖子 2158
编号 6877
注册 2004-4-18
家族 现视研


发表于 2004-7-26 22:42 资料 个人空间 短消息 看全部作者


QUOTE:
原帖由fandongpai于2004-07-25, 0:31:33发表
要是一个ROBOT看见两个强盗殴打和企图杀害一个无辜者, 那它是否应该上去干涉呢?

      

那要看当时机械人大脑的发展情度了。如果还是比人类低的话,那将不去干涉。


(BS老反,总要挑偶的话       )


顶部

正在浏览此帖的会员 - 共 2 人在线




当前时区 GMT+8, 现在时间是 2025-9-30 10:00
京ICP备2023018092号 轩辕春秋 2003-2023 www.xycq.org.cn

Powered by Discuz! 5.0.0 2001-2006 Comsenz Inc.
Processed in 0.007957 second(s), 9 queries , Gzip enabled

清除 Cookies - 联系我们 - 轩辕春秋 - Archiver - WAP