世界超市世界超市

机器人总是对你百依百顺?以后它要说“不”了!

不管别人让你做什么,你都会去做吗?所有人都会说:当然不!那未来的机器人应该总是听我们的吗?乍一看,你可能会觉得应该就因为它们是机器,听从我们的指令就是它们存在的意义。但再仔细想想,你在选择执行任务时,也并非不经大脑。所以,机器人也和你一样。试想一下:一位年迈又健忘的用户让他/她专门照顾老年人的机器人把刚刚洗好的衣服再丢到洗衣机里去一个幼儿园的小朋友命令机器人把球扔到窗外一名学生让机器人帮她完成所有的家庭作业一个处于忙乱之中的主人,指示料理家务机器人运行垃圾处理器,即使勺子和小刀还卡在里面像这样,对机器人进行不恰当指令,但并未造成实质性损害的例子还有许多。但并不是所有案例都是良性的,即使机器人的主人在下达命令是出于好意。想象一下,一个机器人汽车根据指令在车道上倒车,但它后面却有一只小狗在香喷喷地睡觉,或者主人让厨房助手机器人拿起刀子往前走,然而它却站在一个人类厨师身后......命令很简单,后果却惨不忍睹。那么,怎么样才能使机器人既听人类的命令,又不会造成不利后果?如果不让机器人在狗狗周围行驶的话,它可能会一点也不动了;如果要它避免拿刀刺到厨师,它可能会站住不动,或一开始就不去拿刀了。使自主运行的机器在行动时探测到潜在威胁,并试图去避免威胁,或拒绝执行指令,任何情况下都很必要。因此,我们到底该如何教机器人在恰当的情形下说不呢?|如何使机器人预知下一步位于波士顿的塔夫茨大学正在研发一种控制技术:机器人可基于人类指令作出简单的推断。这将决定机器人是会按指令行事,还是会因为指令违反了预先设定的道德准则,而拒绝行动。要让机器人知道什么时候、为什么、如何去拒绝执行指令,执行起来比口头说说要难得多。搞清楚一个行动会造成什么危害或问题,光看问题的直接结果是不够的一个从窗口扔出去的球,可能会掉进院子里,这不会造成任何伤害;但若掉到了繁忙的街道,这球可能就再也找不到了,甚至可能会导致司机为了躲避而突然一个急转弯,接着导致车祸。情景不同,结果不同。以现有的机器人技术,在和孩子玩丢球游戏与把球扔出窗外或扔进垃圾桶之间,决定何时可以扔球,何时不可以还很困难。要是小孩子和机器人恶作剧,假装接球却躲过去,让球飞出开着的窗户的话,它就更不知道该怎么办了。| 向机器人解释道德和法律理解为何某些行为具有危险性,涉及到大量背景知识(包括在窗前玩球,球可能会飞出窗户)。这需要机器人不仅能自主考虑到行为后果,还能思考出人类发出指令的真正意图。不管人类指令是出于好意还是恶意,机器人要能通过预知行为结果,弄清楚人类复杂指令的原因是什么,并能把行为结果与社会规定的、希望或合法的社会准则、道德准则相比较。如上所示,现有机器人遵循的一般规则是:如果机器人的行为会造成有害后果,那么他们可拒绝行动。明确义务和权限之间的关系,能让机器人通过可能结果,推理是否要执行指令。总的来说,机器人不该执行违法或不被希望的行为。因此,他们需要了解法律、道德准则,甚至是礼节,以决定行为结果,或行为本身是否违反这些准则。目前,想让机器人处理上述情境,还有很长的道路要走。但有一点早已证实:要让机器人去服从命令,它们得首先先学会拒绝。

上一条:收购标业绩欠佳 康恩贝面临巨额商誉减值风险

相关推荐