品德呆板读后感精选

品德呆板读后感精选

2020-10-21热度:作者:hchj5.com来源:好词好句网

话题:道德机器 读后感 

  《道德机器》是一本由[美]W.瓦拉赫 / [美]C.艾伦著作,北京大学出版社出版的平装图书,本书定价:58.00元,页数:280,特精心从网络上整理的一些读者的读后感,希望对大家能有帮助。

  《道德机器》精选点评:

  ●道德机器的本质就是人赋道德机器,不过关于机器人的电影更多的是关于机器人失败的案例,失败在于它所具有的思考能力与人敌对,它有自己的需求,并且这种需求是与人冲突的,那么它就变成了解放自身的机器人,它不再是人的奴隶。

  ●怀念那段一起讨论翻译的周六下午。

  ●自上而下进路,指导性大框架,基于逻辑,遵循程序。其中又分讲求福利的功利论和讲求权责的道义论。 自下而上进路,调整性独立模块,基于案例,学习试错进化。 二者结合成混合式进路。

  ●阿西莫夫关于机器人的三大定律的延伸 思考

  ●看哭了

  ●#听书# 从道德的视角讨论人工智能、科技发展带来的道德层面的问题,现在越来越多AI的科幻电影、电视剧,未来也许有一天真的会面临《西部世界》的情景,曾看过一句话“机器越来越像人类,人类越来越像机器”科科

  ●不知所云

  ●可能太深了,没太读进去,故先不评分 不过里面应用的素材可以作为研究人工智能 科技哲学的素材库。 五月见wallach得时候,争取自己能有在科技伦理方面的个人见解 译者:王小红 西交大人文社会科学学院副教授 北大科学技术哲学博士

  ●九年前的AI道德解决方案,至今仍未过时。

  《道德机器》读后感(一):给新事物定义

  在大数据时代,几位显耀的成功人士无非就是那几个人,马云、马化腾、李彦宏、周鸿祎......这些人运用聪明的头脑,成为全国人民关注的焦点,也正是他们在改变着世界。人工智能一直是很火的研究话题,甚至有关于人工智能的商业电影也层出不穷,未来也许真的就是人工智能的时代,这也无疑会成为下一轮技术革命的焦点。这是一个不错的商机,如果在这方面有了突破,那么带来的将是数万亿级的市场。有关于智能时代的书籍早已出版很多,但是以这种角度来审视人工智能的专业书籍却不多,很多表象的背面都会有被忽略的问题,那么就需要有一群专业的人士去给它定义。

  本书主要介绍AI也就是人工智能,可以说人工智能是人类发展上的一次重要变革, 无论是大到企业家、互联网以及传统企业,还是小到个人,都应该理解这一轮革命的发展。因为这一切已经与我们的生活息息相关,未来更是离不开这项技术,所以本书值得仔细阅读并时刻反思。我买这本书也是因为看中了作者的名字,在大数据时代,数据已经时刻存在于我们的身边,想要与之抽离,只能去原始丛林了吧。对于普通群众来说,数学仿佛是一门神圣的学科,常人是无法触及的,其实不是的,我们平时生活中的小习惯都与数学的计算方式有关。人之所以会进步,就是因为人的求知欲,我们每天都在提出无数个问题,但是真正自己去付诸行动解决问题的人却少之又少。

  之前读到过一个有关于终极算法的文章,华盛顿大学教授Pedro Domingos在书中这样描述:“终极算法”就是通过机器学习的方式,自动发现和创作其他所有的算法的“主算法”。在《黑客帝国》里,“终极算法”就是Matrix—母体,看过黑客帝国的人,都可以感受到母体的变态。

  算法和数据是息息相关的,比如2016年很很火的特斯拉、自动驾驶,里面的判断都离不开算法的判定,还有移动医疗,要是在数据库中输入所有的资料,再以终极算法计算,只要能有足够多的数据,一段代码就能动手术,而且更精确。当然个人认为,人工也很重要,代码始终是代码,而不能创新,创新最终要是要考人类的大脑思维。曾经有个人说过,互联网将改变人类生活的方方面面,那么相信,在未来,终极算法将改变整个社会环境。

  人工智能一直有一个有趣的话题,就是它是否会威胁人类的安全。最经典的系列电影《终结者》就是机器人与人类的战争,这场人机大战比人类历史上的每一次战争都要残忍,所以使观众们在电影中对人工智能产生了惧怕心理。其实在现实生活中,这些事情在近期还是不会发生的,因为如今的人工智能,还是一种计算机模式,它们是没有思维和意识的。现在存在于我们身边的最常见的人工智能,应该就是苹果手机自带的Siri了,人们在和它对话的时候,只能得知一些能在网络上查到的信息,没人会真正把它当作是一个人去交流的。

  总结起来,人工智能给人们带来的只有方便和安全。这是一种不断进步的科技,它不会一下就到达一个层次,这个技术也需要成长。

  《道德机器》读后感(二):AI需要道德吗?——《道德机器》有感

  lue编辑

  人工智能最近几年已经成为了普通大众一轮的热点。最开始进入人们视线的可能就是智能家电以及只能摄像头等零零散散的牵扯到大数据的一些电子产品,但是到了后面智能家庭的概念给踢出之后,越来越系统化的智能系统开始逐渐形成。记得2014年有一部纪录片《互联网时代》中就对人工智能的未来可能发展给出了一些展望。国内外的互联网公司的大佬们对于人工智能AI的发展前景也是持有相当肯定的态度,认为AI的发展对于人类社会的进步发展是持有非常积极的作用的。当然,针对人工智能AI的发展其实也有很多不同意见的,甚至是反面消极的声音,这在很多科幻作品中就能够看出。

  究竟人工智能AI按照之前的艾萨克·阿西莫夫提出的“机器人三大定律”中来思考关于机器人的发展,关于人工智能在道德方面应该如何约束是否足够,是否恰当呢?关于这个话题的探讨,可能有的人觉得为时尚早,有的人会觉得刻不容缓。究竟这个话题又没有讨论的必要性,这对于广大的普通读者而言其实是一个难解的问题。毕竟人工智能究竟能否到达那一步,当人工智能AI发展到了超越人类的那一天的时候,现在的人们估计早已去了天堂。

  但是对于科学家们而言,人工智能AI这个迅猛发展的不算太新的事物已经冒出了一些潜在的问题,应该如何在道德的层面对人工智能未来的发展加以适当的规定,这其实是很多科学家们一直苦苦思考的问题。由北京大学出版社出版,来自两位美国作家温德尔·华莱士和科林·艾伦联合编写的《道德机器》一书对人工智能未来发展可能出现的隐患以及从理论上给出的相应的对策都给出了相信的论证。

  本书两位作者的来历可能与人工智能AI没有非常密切的联系,但是从深层次而言从理论出发的话还是很有发言权的。他们一位是耶鲁大学跨学科中心生物伦理学顾问,一位是美国洛杉矶加州大学逻辑与语言哲学博士。

  相信看到这里的读者,对于本书的题材也有所察觉了。本书确实是一本学术方面的书籍,在书中作者们对于人工智能发展的技术层面上的问题并没有进行详细的探讨,毕竟这些都是计算机相关领域专家的工作。对于作者而言,本书中对于人工智能发展的探讨,更多的师从伦理道德方面处罚。究竟人工智能在未来的表现如何评判,究竟是好是坏。评判的标准是什么,这些读者在本书中都能够找到合理的解释。

  总体来说,本书在探讨人工智能发展过程中加上道德的砝码,加上对于人类发展有利(可能对人工智能不利)的规则条款的时候,究竟是处于那些现实或者未来的考量,这些对于本书的读者而言可能都是不小的阅读挑战。如果您有足够的毅力将本书满满地干货从头至尾看完的话,相信对于眼下的人工智能发展你也会有更进一步的认识和体会。

  《道德机器》读后感(三):人工智能道德何以可能? ——读《道德机器—如何让机器人明辨是非(moral machine- thinking robots right from wrong)》

  当下,人工智能已经成为世人关注的焦点,从科技研究到资本风口,再到国家战略,人们对人工智能有种饥渴性的追求,这就比如一只饿了几天的北极熊看到一只肥美的海豹一样。我们有着美好的梦想:如果人工智能进展顺利,那么将来机器人或许会取代人的劳动,人们将成为彻底休闲的一种高智能生物。在对人工智能的疯狂追求中,对人工智能的反思比较少见,人工智能体或者机器人真的能实现吗,如果具备人类基本技能的机器人出现,那么这种机器人会具有道德意识吗,在人工智能科技发展中,如何才能实现机器人的道德意识呢?美国人工智能领域著名的哲学家温德尔·瓦拉赫和科林·艾伦在2008年出版的《道德机器人》一书试图回答这些问题。

  机器人需不需要道德意识?人工智能是分层级的,在书中,作者引用了计算机伦理学奠基人达特茅斯学院哲学教授的观点,将人工智能体分为四个层级:伦理效果智能体、隐含式伦理智能体、显现式伦理智能体、完备伦理智能体。在很多人看来,与人一样的完备伦理智能体不现实的,但是显现式伦理智能体则可以是人们的短期目标,在这个智能体中,伦理范畴将作为内置程序进行伦理问题的推理,可以通过“道义逻辑”等技术实现。同时,作者通过案例研究的方法证明,如果如果没有道德意识,脱离人们的高度智能化机器人会给人类社会的组织和运行带来巨大的灾难。

  如果人工智能体需要道德意识,那么这种道德意识的实现路径是什么?在简单讨论了人类道德意识的若干前提:动机、选择、行为、理解、意识等若干概念后,作者聚焦于人们的伦理道德领域,专注于三种道德理论:道义论,效果论和美德伦理学,并且对此对应提出了人工智能体道德的三种实现路径:自上而下,自下而上和混合型。这三种路径各有自己的优缺点,而作者更倾向于混合型路径。

  如何为人工智能体设计道德意识,本书作者还介绍了实践领域的一些新进展。已经有一些学者来设计人工智能体进行道德决策。苏珊·安德森和迈克尔·安德森夫妇设计了医疗伦理专家系(MedEthEx),这个伦理智能系统的特点是在有责任冲突时,该系统可以从医学伦理专家的决策案例中学习如何权衡相互冲突的责任。当然,这个系统还是在比较初级的阶段,开发者认为这个只能系统扮演的是顾问的角色,还难以在临床中进行自主决策。与此同时富兰克林的LIDA(学习型智能配给代理),是从总体架构方面来设计具备人的认知决策能力的人工智能体。LIDA是基于全局工作空间理论来发展类人类决策计算模型。

  本书最大的特点是其早在10年前就先导性地提出了人工智能道德问题,并且尽可能地搜集了这个课题大多数资料,对于一个了解人工智能道德的人来说,你可以通过本书了解到人工智能道德从理论到实践涉及到的方方面面的问题。同时,本书的缺陷也是明显的,面面俱到也带来是讨论的不深入,在很多问题的讨论都是点到而止,这并非是作者学术研究功力不到家,这也是人工智能道德问题研究现状的体现。

  不难预见,以人类科技发展的速度,可以代替人类行为的人工智能体早晚会出现,但是像人类一样会思考,有情有爱,具有道德意识的机器人能否出现,我本人还是报以怀疑态度。科技可以定量和标准化,但是人的意识对人们来说还是一个黑箱,我们都明白人类能有意识,但是人类产生意识机制原理我们还知之太少,甚至在某种程度上来说,每一个人的意识都是不一样的,举个不恰当的例子,我们自己不可能拿着手术刀打开自己的头颅研究自己的大脑;同时在意识基础之上的信念、选择、爱更是多元和个体化的,本书提到的各种伦理理论,也仅仅是定性区分出三种理论,具体到每种理论的每个概念,甚至是每个字词,不同的文化、社群和个人都会有不同的理解,实在是难以量化。我们自己对意识了解都在混沌之中,又怎么能教会人工智能体像我们一样产生意识呢?

  看过《黑客帝国》的人可能会震撼将来人工智能统治全世界的场景。其实,就是在那个极端场景下,人工智能的局限也很明显,智能程序它们只会复制和控制,但是还没有完全具备人的意识,因此他们不懂得信念、希望和爱,他们的选择没有伦理道德意蕴,这也为人类幸存预留了空间。黑客帝国场景的时间限定在2199年。人类科技在飞速发展,我们还难以预测200年后人和人工智能能发展到什么阶段,但是毫无疑问,我们应该对我们的行为进行反思,同时也应该思考我们人类前进的限度。通过思考人工智能的道德意识问题或许是一个很好的选择。

  本书是简装书,对装帧和印刷不能要求过高。由于是跨学科的书,里面涉及很多计算机、人工智能的专业术语,因此本书的翻译难度不小,估计作者也下了很多功夫,但是从我的阅读体验来看,译者虽然努力做到了通顺和尊重愿意,但是不少段落和句子读起来比较绕口,个人认为译文还可以更加精细和推敲。

  《道德机器》读后感(四):重构智能机器时代的社会伦理道德

  重构智能机器时代的社会伦理道德

  科幻小说作家艾萨克·阿西莫夫(Isaac Asimov)在短篇小说《环舞》(Runaround)中提出了“机器人三大法则”(包括“机器人不可以伤害人类,或看到一个人将受到伤害而不作为”“机器人必须服从人类的命令,除非这些命令与第一项法则矛盾”以及“在不违反第一、第二项法则的前提下,机器人必须保护自身生存”),被几十篇故事和小说所借用。但是,这些保护性设计或者内置的道德法则能框住拥有独立思考能力的机器人吗?人们对于把自己的生命和福祉交给忽视伦理的系统会感到放心吗?著名伦理学家、耶鲁大学生物伦理学跨学科中心主管温德尔·瓦拉赫(Wendell Wallach)在与国际知名认知科学哲学家,美国印第安纳大学布卢明顿分校教务长讲席教授、斯坦福哲学百科(SEP)副主编科林·艾伦(Colin Allen)认为,机器道德关乎人类的决策行为。他们在《道德机器:如何让机器人明辨是非》中指出,不要把责任推给机器,“我们必须更加坚守人类的价值观和伦理。”

  我们置身于一个丰富多彩的世界,也生活在一个困惑和焦虑的时代。“人类决策者会因为没有掌握全部相关信息或没有考虑到所有偶发事件而做出糟糕的选择,所以也许只有在一场未预料到的灾难发生之后,人类才会发现他们所依赖的(软硬件)机器人的不完善。”正如作者所言,在未来,可能会出现一些无人驾驶汽车需要做出选择的场合——选哪条路,谁会受到伤害,或谁会处于受伤害的风险里?我们应该对汽车进行什么样的道德规范?我们当然有理由担心,我们也许不能完全理解为什么机器人做出了某个特别的决定。但是,我们需要确保机器人不会吸收和加重我们的偏颇之处。因为不管我们喜欢与否,机器人就在我们的身边,“到2030年,自动卡车、飞行汽车和个人机器人将随处可见”(斯坦福大学《2030年的人工智能与生活》报告),包括交通、医疗、教育、金融和就业等各个领域,人工智能正以人们意想不到的方式融入人类社会。那么,研究人员怎样设计一台机器人才能使它在面对“两难之选”之时作出正确的反应呢?

  “机器需要讲道德,”这是英国皇家标准协会(BSI)最新标准《机器人和机器系统的伦理设计和应用指南》(BS8611)的硬性规定。现代科技的每一次跨越,总会引发人们对社会伦理道德的忧虑。随着机器人越来越智能和普遍,自动化机器终将在不可预知的情形下做出生死攸关的决定,从而具备——或至少表面上具备——道德主体资格。“阿尔法狗”在对弈中战胜了李世石和柯洁,“一个纯净、纯粹自我学习的AlphaGo Master是最强的,对于AlphaGo Master的自我进步来讲,人类太多余了”(柯洁语),就像一只蚂蚁永远无法阻止我们一样,人类想阻止人工智能的想法已经不可能了。那么,如果有一天AI的能力超过人类,是否会反过来统治人类呢?包括霍金、马斯克在内的科技巨人都曾警示,“人类不应低估人工智能发展可能带来的严重后果。”麻省理工学院情感计算研究组主任罗萨琳德·皮卡德(Rosatind Picard)教授认为,“机器越自由,就越需要道德准则。”在《道德机器:如何让机器人明辨是非》一书中,作者通过强调两个维度——针对道德相关事实的自主性维度和敏感性维度,给出一个关于日趋复杂的AMAs(人工道德智能体)轨迹的理解框架,以“评估它们面对的选项的伦理可接受性”。

  机器的智能化正在逐步深入到生活领域:客机自动降落,列车无人驾驶,没有方向盘、刹车和驾驶座位的无人驾驶的汽车正在紧张的测试中。但是,机器人之“人”终究不是人类之“人”,“如果人们不确定机器会做什么,他们会害怕机器人的……如果我们能分析并证明它们的行为原因,就更可能克服信任问题。”英国利物浦大学计算机科学家迈克尔·费希尔(Michael Fisher)和英国西部大学艾伦·温菲尔德(Alan Winfield)教授共同做的一项政府资助的项目证明“道德机器程序的结果总是可知”的。“在当前的技术水平下,我们不能‘谴责’机器人。机器人尚未达到为自己的决策负责的水平。”萨塞克斯大学人工智能专家布莱·惠特比(Blay Whitby)认为,即使最低限度的道德机器人也是有用的。来自国际计算机科学家团队的一项新研究着手开发一种新型的博弈算法——其可以依靠协作和妥协等特性来进行博弈,而且研究人员已经发现,机器已经可以比人类更好地部署这些特性。作者认为,随着机器变得更加复杂,一种“功能性道德”在技术上变得可能,它可以使机器自身有能力来接近并相应道德挑战。

  现代科技推动了人类社会进步,希望我们的结局不会像电影《黑客帝国》(The Matrix)里那样——机器彻底推翻了人类的统治,人类的肉体被养殖,精神存活在网络构建的虚拟世界里——“人类迫切需要确保机器人的设计符合道德规范”,以维护人类的社会价值观和社会伦理道德。在《道德机器:如何让机器人明辨是非》中,作者不但很自然地导入“人类是否想要计算机做道德决策”,还将注意力转向道德决策的具体执行上。在作品中,作者以生动的案例勾勒出科学家和工程师必须向彼此所提供的东西,并详细地描述了设计AMAs的自上而下式进路和自下而上式或发展的一个基本框架。其中,不仅讨论了基于规则和基于责任的伦理学概念的可计算性与可实践性,还论证了AMAs的不同程序化进路的优势和劣势,然后以一种哲学和认知的复杂、周密的方式为工程AMAs做铺垫,“至于未来的机器人是不是‘真的’道德主体,这无关紧要。(作者坚信)我们有可能设计、建造出能够考量法律和道德因素而去实施决策的系统……”

  原载2018年4月9日《黄石日报》第5版“读书荟”,4月18日《中国审计报》第8版“读书”,2018年《现代国企研究》6月上P94~962018,2018年《中国石油企业》8月刊P109。欢迎转载,感谢赠书,期待约稿。