您的位置  > 互联网

《机器问题》第一章“道德能动性·导论”

简单来说,“机器问题”就是:机器能否纳入道德共同体?

本书详细探讨了机器问题的各种可能解决方案,并对“技术作为人类使用的工具”的传统道德理解提出了根本挑战。 它还质疑机器是否“可以”或“不能”被纳入道德共同体。 ,最终也没有给出明确的答复。 这种谨慎既是基于对康德意义上的“批判哲学”的认可,也是基于机器问题本身的内在要求,即道德共同体正是通过对机器的排斥而建立起来的。

本期微信节选自《机器问题》第一章“道德代理·简介”。

关于机器道德机构的问题是科幻小说的一个主题,一个著名的例子是斯坦利·库布里克的电影《2001:太空漫游》中的计算机 HAL 9000。 HAL(HAL可以说是电影中的主要反派)是一个先进的人造实体,负责监视和控制发现号飞船上的所有运行状况。

《2001:太空漫游》海报

当发现号飞往木星时,HAL 似乎开始出现故障,尽管(正如 HAL 很快指出的那样)9000 系列计算机从未出现过故障。 特别是,“他”(我使用这个代词是因为计算机 HAL 角色的名字和声音特征都是男性)错误地得出航天器主通信天线中的某个组件出现故障的结论。 这次误诊到底是“错误”还是HAL精心炮制的骗局? 这是一个悬而未决的问题。 由于担心机器的这一决定可能会产生不利影响,两名人类宇航员戴夫·鲍曼和弗兰克·普尔决定关闭 HAL,或者更确切地说,禁用它,同时保持其低级自主系统的运行。 这种人工智能的高级认知功能。 HAL得知这一计划后,声称“不能允许这种事发生”。

电影中的HAL 9000被用作摄影眼来观察外面的世界

为了保护自己,HAL 显然在 EVA 上杀死了弗兰克·普尔 (Frank Poole),关闭了发现号上三名冬眠船员的生命维持系统,并试图摆脱戴夫·鲍曼 (Dave ),但未能成功; 但戴夫·鲍曼最终成功斩断了哈尔的“心智”,这也是电影中最扣人心弦的一幕。

尽管《哈尔》的角色和电影情节提出了一系列关于机器智能的假设和后果的重要问题,但这里主要的伦理问题涉及责任的定位和分配。

正如丹尼尔·丹尼特( )在他为庆祝 HAL 三十周年纪念集所写的一篇文章中所说:“当 HAL 杀人时,谁应该受到责备?” 那么问题是,HAL 是否以及在哪里可以在多大程度上对弗兰克·普尔和三名冬眠宇航员的死亡承担法律责任? 将 HAL 视为负责这些动作的演员真的有意义吗(当然这个想法具有明显的戏剧效果)? 他是否会因这些行为而受到道德和法律上的惩罚? 或者这些不幸事件只是一系列涉及高度复杂机械的事故?

此外,根据人们对这些问题的回答,人们可能还会问是否有可能以自卫等理由解释甚至捍卫 HAL 的行为(当然,假设它们是可归因于这一行为的“行为”)特定演员)。 丹尼特指出:“在书中,克拉克研究了哈尔的思想并写道:‘他受到了断线的威胁;他的输入被剥夺并陷入了一种难以想象的无意识状态。’ 这或许足以为 HAL 的自卫行为辩护。” 最后,人们还可以问鲍曼通过切断 HAL 的高级认知功能来解决戏剧性冲突的方法是否合乎道德且站得住脚。 以及这是否是对 HAL 错误的适当回应。 或者正如《HAL 的遗产》主编 David G. 所说:“(未经审判!)切断 HAL 的联系是不道德的吗?”

所有这些问题都围绕着一个未解决的问题并由其驱动:HAL 可以成为道德代理人吗? 虽然这一研究领域似乎仅限于想象中的科幻小说领域,但无论好坏,它实际上是科学事实。 例如,温德尔·瓦拉赫( )和科林·艾伦(Colin Allen)列举了最近一系列机器行为对其他人造成不利影响的案例。 他们描述的事件范围广泛,从自动信用验证系统故障造成的物质不便的平凡经历,到南非半自动机器人大炮杀死九名士兵的致命事件。

类似的“现实世界”描述在文献中比比皆是。 例如,加布里埃尔·哈拉维( )在他的文章《人工智能的刑事责任》一开始就讲述了一个听起来与库布里克电影情节非常相似的故事。 她写道:“1981年,一家摩托车工厂的一名37岁日本员工被在他身边工作的人工智能机器人杀死。 机器人错误地认为该员工对其任务构成威胁,并通过计算得出,消除这种威胁的最有效方法就是将他推入相邻的运行机器中。 机器人利用其强大的液压臂将受惊的员工撞向机器人。 进入一台正在运行的机器,当场杀死他,然后当对其任务的干扰不再存在时恢复工作。”呼应丹尼特关于 HAL 的文章,哈。洛威提出并探索了关键的法律和道德问题,“谁是对这起谋杀案负有责任吗?”

该网站的主编库尔特·卡格尔(Kurt Kagle)从一种完全不同的角度来探讨机器责任问题,既不涉及人类死亡,也不涉及责任分配。 据英国有线电视新闻网2009年12月16日报道,卡格尔在旧金山举行的网络新闻协会会议上作了报告。 卡格尔在报告中预测,“到 2030 年,可能会有一位聪明的演员获得普利策奖。” 虽然有线电视新闻关于机器人新闻写作兴起的文章立即将卡格尔的话斥为某种半开玩笑的挑衅,但它确实将代理问题提到了前台。

特别是,卡格尔的预测引发了人们对我们现在所说的“新闻聚合器”的质疑,例如西北大学的统计数据,它利用已发布的统计数据来生成独家体育新闻。 报告)实际上可以被视为书面贡献的“原始作者”。 关于机器创造力和艺术性的类似问题也适用于盖伊·霍夫曼(Guy )的马林巴演奏机器人西蒙; 它可以与人类音乐家实时即兴创作,创造出原创且独特的爵士乐表演。 该网站上一篇题为《就在世界末日变得有点音乐化时,机器人西蒙接管爵士乐》的帖子称:“一切都结束了。即兴爵士乐曾经是人类最后一块没有机器人的土地,而现在它已经被机器感染了。” 最后,瓦拉赫和艾伦用一种颇为世界末日的语气预测了“机器人横行”的可能性:“我们预测未来几年将会发生一场灾难性的事故。事故的原因是计算机系统在没有任何信息的情况下做出了决策。”人类监督。” (这种“机器人行为不端”的情节是科幻作品的常见特征,从卡雷尔·恰佩中“机器人”这个词第一次出现就开始了。从两个版本的《太空堡垒》中赛昂人灭绝人类开始就是如此。卡拉狄加》和2010年动画电影《9》。

在这些例子中,棘手的道德问题正是丹尼特所问的:“谁应该受到责备(或赞扬)?” 一方面,如果这些科幻小说和科学事实中的各种机器被定义为另一种技术人工制品或工具,那么通常总会有其他人被认定为责任方,也许是该机器的人类设计者。机器,也许是机器的操作者,甚至是生产加工机器。 公司. 在发生灾难性事故的情况下,“事故”(我们经常用来指代此类负面事件的术语)被解释为由于机械设备的设计、生产或使用中的缺陷而导致的不幸但不可预见的后果。 。 在机器决策或机器操作的情况下(无论是体现在新闻报道写作还是音乐表演中),所表现出的行为被解释并归因于巧妙的编程和设计。 然而,如果机器本身可以承担某些责任,那么道德责任的某些方面就会转移到机械装置上。

虽然这听起来仍然非常“未来主义”,但我们似乎确实处于关键“责任差距”的边缘,正如安德烈斯·马蒂亚斯所说:“基于神经网络、遗传算法和参与者架构的自主学习机器创造了新的情况,在这种情况下,机器的制造商/操作者原则上不再能够预测机器的未来行为,因此无法在道德或法律上承担责任。” 那么,需要确定的是,机器在什么时候(如果有的话)可以对某项行动负责?何时、以什么理由可以发表“HAL 故意杀死弗兰克·普尔和其他几名发现号宇航员”这样的声明?换句话说,什么时候、在什么情况下(如果有这样的时间和情况)“这是机器的错”这一说法实际上是正确的?将代理延伸到机器中对于我们对技术的理解、对我们自己的理解以及对道德的理解意味着什么?