注册 登录  
 加关注
   显示下一条  |  关闭
温馨提示!由于新浪微博认证机制调整,您的新浪微博帐号绑定已过期,请重新绑定!立即重新绑定新浪微博》  |  关闭

环球科学

《科学美国人》中文版官方博客

 
 
 

日志

 
 
关于我

1845年创刊,151位诺贝尔奖得主撰稿,从爱迪生到比尔·盖茨都喜欢阅读的科普杂志。 购买《环球科学》可前往淘宝店,链接是:http://huanqiukexue.taobao.com/

网易考拉推荐

机器人能做出道德选择吗?  

2009-09-17 15:39:13|  分类: 每日科学新闻 |  标签: |举报 |字号 订阅

  下载LOFTER 我的照片书  |
    机器人和计算机通常被设计为在无人介入下能进行自律的行动。使自动机器像人类一样做出道德选择可能吗?

    机器人的道德和伦理问题被越来越多地关注到。作为一个非常实际的问题,机器人和计算机能被设计为拥有道德地去工作吗?

    艾萨克.艾西莫夫(Isaac Asimov)(美籍犹太人,为本世纪最顶尖的科幻小说家之一)最著名的小说《机器人规则》设计了将道德标准输入机器人的管理系统中。机器人的道德行为问题在1982年的电影《银翼杀手》(Blade Runner)中就提到了。当克隆杀手罗伊·贝迪(Roy Batty )面临选择是否使它的敌人——私人侦探Rick Deckard去死的时候,贝迪选择了去救他。

    最近出版的国际期刊Reasoning-based Intelligent Systems,描述了一种有望使计算机在道德判断上走在前面的方法。

    葡萄牙新里斯本大学(Universidade Nova de Lisboa)的Luís Moniz Pereira与印度尼西亚印尼大学(universitas indonesia)的Ari Saptawijaya写作的论文,模拟道德与未来逻辑(Modelling Morality with Prospective Logic)中宣称:道德观现在不只是人类哲学家的高级领域了。


    Pereira和Saptawijaya认为,他们已经成功地在模仿了被称为“电车问题”的道德困境,并且开发了一种与人类拥有相同道德标准的计算机系统。

    电车问题阐明了一种典型的道德困境:是否可以伤害某个人或者更多的人来救另外的某些人?其中有许多个版本;现在让我们来看看其中的两个:

    环境:有一辆电车正在行驶,它的司机已经昏厥了。电车正朝着五个在轨道上行走的人撞去,站台太高,路人没有足够的时间爬上去避让。

    旁观者版本:叫做Hank的人正站在转换闸旁,他可以转换电车去另一辆平行的轨道,从而使5个路人幸免于难,不过,有一个人正好站在另一条平行的轨道上,Hank转换了闸刀,那个人就死了;不然的话,他可以什么也不做,让那五个人死掉。

    道德上,允许Hank去转换闸刀吗?

   要是你会怎么想?在不同文化背景下的许多次测试已经得出结果,大多数人都同意转换闸刀去救更多数量的人。

    还有另外一种版本,大概的情况是这样的:

    天桥版本:Ian正好站在电车上面的一座天桥上。他旁边有一个重物,他可以将重物挤推到电车所在的轨道上来阻止电车前进,从而使5个人免于罹难。但是这个重物是一个人,他背对着Ian站着,Ian将这个人扔向轨道,他就会死掉;如果不这么做,那五个人就会死。

    在道德上允许Ian去推那个人吗?

   你是怎么想的?这次,夸地域和文化传统的测试又进行了一次,人们大多坚持认为这在道德上是不被允许的。

    所以,现在我们就有两种人类做出的不同的道德判断方式,如果是自动的计算机系统或者机器人,能够和人类做得一样吗?

    论文的作者认为,他们已经在计算机逻辑上成功模拟了此问题。他们分析了人类隐藏的道德判断标准,然后在计算机上模拟逻辑编程进行建模。

   对机器人的道德困境的关注和机器人小说出现的时间一样久远。道德行为(在这个案例中,自我牺牲)在1921年的捷克剧作家Karel Capek的戏剧《罗素姆万能机器人》(Rossum's Universal Robots)就已经可以找到,这是机器人(robot)一词的出处。

    科幻小说作家已经为我们设计了以后的路,自治系统已经不再只是科幻小说的材料。比如,在战场上的机器人系统已经被赋予了越来越多的自主性。他们可能被赋予什么时候销毁自己武器系统的的决定权吗?


    航天产业已经设计了可以高速和完全自动飞行的高级飞行器。飞行器能够在生存与死亡上比人类做出更好的抉择吗?

   上周,日本宇宙航空研究开发机构(Japan's space agency JAXA)推出的H-II旋转飞行器是一架完全自动的太空飞船。人类在空间站中是否可以依赖自动机器提供生命攸关的食物、水和其他需要?

    最后,将来我们肯定完全需要调和机器人系统的行为责任的合理性。我们需要花足够时间在科幻小说家为我们提供的,有关自动机器人和计算机在道德问题上。可是我们确完全没有足够的时间来完善我们自己的思想。(环球科学编译 罗丽聪)


相关阅读:

  评论这张
 
阅读(1198)| 评论(8)
推荐 转载

历史上的今天

在LOFTER的更多文章

评论

<#--最新日志,群博日志--> <#--推荐日志--> <#--引用记录--> <#--博主推荐--> <#--随机阅读--> <#--首页推荐--> <#--历史上的今天--> <#--被推荐日志--> <#--上一篇,下一篇--> <#-- 热度 --> <#-- 网易新闻广告 --> <#--右边模块结构--> <#--评论模块结构--> <#--引用模块结构--> <#--博主发起的投票-->
 
 
 
 
 
 
 
 
 
 
 
 
 
 

页脚

网易公司版权所有 ©1997-2017