本篇文章2282字,读完约6分钟
《道德机器》如何让机器人辨别是非(美国)王晓红译温德尔·沃勒克·科林·艾伦北京大学出版社2018年11月出版
——读“道德机器:如何让机器人辨别是非”
*刘英团
美国科幻黄金时代的代表人物之一艾萨克·阿西莫夫在短篇小说《环舞》中提出了“机器人的三大法则”(包括“机器人不能伤害人类,否则看到一个人就会受伤而无所作为”;“机器人必须服从人类的命令,除非这些命令与第一定律相抵触”和“机器人必须在不违反第一和第二定律的情况下保护自己的生存”,这两个词从那时起就被借用到各种故事和小说中。但是,这些保护性设计或内置的道德法则能让机器人具备独立思考能力吗?人们对把自己的生命和幸福交给一个无视伦理的系统感到自在吗?著名伦理学家、耶鲁大学生命伦理学跨学科中心主任温德尔·瓦拉克与国际著名认知科学哲学家科林·艾伦、印第安纳大学布鲁明顿分校教务长教授、斯坦福哲学百科全书副总编(sep)进行了讨论。因此,在《道德机器:如何让机器人明辨是非》中,他们提出“我们必须更加坚定地坚持人类的价值观和伦理观”。
我们生活在一个丰富多彩的世界,也生活在一个困惑和焦虑的时代。“人类决策者会做出错误的选择,因为他们没有所有的相关信息,或者没有考虑所有的意外情况,所以也许只有在发生意外灾难之后,人类才会发现他们所依赖的(硬件和软件)机器人。不完美。”正如《道德机器》的两位作者所说,未来可能会有一些无人驾驶汽车需要做出选择的情况——选择哪种方式,谁会受到伤害,或者谁会有受到伤害的风险?我们应该对汽车有什么样的道德观?当然,我们有理由担心我们可能无法完全理解为什么机器人会做出一个特殊的决定。然而,我们需要确保机器人不会吸收和加剧我们的偏见。因为不管我们喜不喜欢,机器人就在我们身边。“到2030年,自动卡车、飞行汽车和个人机器人将无处不在”(斯坦福大学的“人工智能与2030年的生活”报告)。在交通、医疗、教育、金融和就业等各个领域,人工智能正以意想不到的方式融入人类社会。
面对这种趋势,研究人员应该如何设计一个机器人,让它在面对“两难”时做出正确的反应?
“机器需要合乎道德。”这是英国皇家标准协会(bsi)最新标准“机器人和机器系统的伦理设计和应用指南”(bs8611)的严格规定。回顾过去的300年,现代科技的每一次飞跃都会引起人们对社会伦理的担忧。随着机器人越来越智能和普及,自动化机器最终将在不可预测的情况下做出生死抉择,从而拥有——或者至少表面上拥有——道德主体资格。世界目睹了“阿尔法狗”在比赛中击败围棋世界冠军李世石和柯杰。柯杰感叹道:“一个纯粹的自学成才的阿尔法战士才是最强的。”对于阿尔法戈大师的自我提升,人类实在是太多余了。”今天,人类不可能停止人工智能。那么,如果有一天人工智能的能力超过了人类,它会反过来统治人类吗?在这方面,包括霍金和马斯克在内的科技巨头已经发出警告:“人类不应该低估人工智能的发展可能带来的严重后果。”
因此,目前科学界的主流观点是,机器不能是不道德的,否则,这个世界是不可想象的。麻省理工学院情绪计算研究组主任罗莎琳·皮卡德教授说:“机器越自由,就越需要道德标准。”在《道德机器:如何使机器人辨别是非》一书中,两位学者通过强调道德相关事实的两个维度——自主性维度和敏感性维度,提出了一个关于日益复杂的人工道德主体(amas)轨迹的理解框架,从而“评估他们所面临的选择的伦理可接受性”。
机器的智能化正在逐渐深入到生活领域:客机自动着陆,火车无人驾驶,没有方向盘、刹车和驾驶座的无人驾驶汽车正在经受激烈的考验。然而,机器人的“人类”毕竟不是人类的“人类”。“如果人们不确定机器会做什么,他们就会害怕机器人...如果我们能够分析和证明他们的行为原因,就更有可能克服信任问题。”英国利物浦大学的计算机科学家迈克尔·费希尔(Michael Fisher)和英国一所西方大学的艾伦·温菲尔德(Allen winfield)教授共同完成的一项政府资助项目证明,“道德机器程序的结果总是为人所知的。”“在目前的技术水平下,我们不能‘谴责’机器人。机器人还没有达到对自己的决定负责的程度。”苏塞克斯大学的人工智能专家布莱·惠特比认为,即使是最起码的道德机器人也是有用的。国际计算机科学家团队的一项新研究着手开发一种新的游戏算法,这种算法可以依靠合作和妥协来玩游戏,研究人员发现机器可以比人类更好地部署这些功能。因此,《道德机器》的两位作者认为,随着机器变得越来越复杂,一种“功能道德”在技术上成为可能,这可以使机器本身相应地接近和面对道德挑战。
现代科学技术促进了人类社会的进步,但“人类迫切需要确保机器人的设计符合道德标准”,以维护人类的社会价值观和社会伦理。在《道德机器:如何让机器人辨别是非》一书中,两位作者坚信,人工智能机器人获得一些基本的道德意识是必要和可行的。因此,他们不仅自然地引入“人类是否希望计算机做出道德决策”,而且将注意力转向道德决策的具体实施。它们用生动的例子概述了科学家和工程师必须相互提供的东西,并详细描述了自上而下的方法和自下而上设计或开发amas的基本框架。基于人类在设计具有道德判断能力的机器人的漫长旅程中所面临的巨大挑战,他们不仅讨论了基于规则和责任的伦理概念的可计算性和实用性,还展示了不同的人工智能程序方法的优缺点,进而为以复杂而深思熟虑的哲学和认知方式设计人工智能铺平了道路。“未来的机器人是否是‘真正的’道德主体并不重要。因为两位学者坚信:“我们有可能设计和建立一个能够考虑法律和道德因素并实施决策的系统。"
标题:一个人工智能道德体的 构想
地址:http://www.71vw.com/zlxw/10968.html