首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
人工智能机器具有道德主体地位吗?   总被引:1,自引:0,他引:1  
人工智能机器是否具有道德以及是否构成道德主体引发学者思考,这涉及到对于道德主体的界定、对道德主体标准的思考,更涉及到对于智能机器与人类的区别的反思,我们在对道德主体标准分析的基础上,对道德嵌入的人工道德主体进行伦理建构,在智能机器设计之初把“善”的理念嵌入到人工智能机器中,促进与引导人工智能的发展。  相似文献   

2.
当代西方动物权利研究评述   总被引:1,自引:0,他引:1  
环保运动促使动物权利论的产生。汤姆.雷根是动物权利论的精神领袖,他宣称动物和人一样都是生命主体,都同等地拥有天赋价值,也拥有这一价值所赋予的基本道德权利,即获得尊重的平等权利。詹姆斯.里查尔斯、玛丽.沃伦、加里.L.弗兰西恩分别论证动物享有基本的道德权利,卡尔.科亨等人反对动物拥有权利,他们对权利的主体以及动物权利的论证基础提出了质疑,指出人类应该尊重和保护动物,但并不意味着动物拥有权利。在生态危机全球化的今天,动物权利论思想有待进一步深入研究。  相似文献   

3.
人工智能实体能否成为法律主体存在争议。基于理性是法律主体判断标准这一通说,传统法学倾向于否定人工智能的法律主体地位。其实,自然人和非自然人法律主体遵循着不同的判断标准。理性是自然人法律主体的判断标准,拟制是非自然人法律主体的判断标准。据此,更应重视法律主体制度的法律技术价值,人工智能具有成为法律主体的合理性,以合理分担人工智能带来的风险责任。但从现实性出发,人工智能成为法律主体尚待时日。  相似文献   

4.
目前关于人工智能的道德地位研究,主要分为现象学进路和心灵哲学进路.前者以"意向性"为核心,具体在人工智能道德地位领域主要研究其与人类之间的同构关系,并不认可人工智能的独立道德地位;后者以"心智"概念为核心,研究人工智能能否具备与人类相当的心智水平,认为人工智能的道德地位取决于其是否具备心智.然而,人工智能的道德地位研究...  相似文献   

5.
在动物权利视域,人们对动物是否拥有道德权利持有不同立场,但他们似乎都对达尔文生物进化论存有一定程度的曲解与误读。重新认识达尔文生物进化论,厘清自然选择与"弱肉强食"、物种差异与物种歧视、道德能力与道德权利的逻辑关系,对深入探讨动物权利问题具有鲜明的理论价值。本文不主张动物拥有实质性的道德权利,但认为动物权利论是人类对动物道德本分与道德责任的一种表达,是人类生命自我扬弃与进化的一种表现。  相似文献   

6.
美国匹兹堡大学凯文·阿什利教授是法律人工智能研究领域的先驱之一,其开发的案例推理系统——"海波"系统被称为"过去三十余年最具影响力的法律人工智能系统"。阿什利教授认为,案例推理系统与法律文本分析的结合将引领法律人工智能系统研发的新方向。人工智能时代的到来对法律人提出了巨大的挑战,法律人应主动拥抱人工智能并参与到技术的设计和完善中来。作为研发者,应当坚持法律人工智能是人类的辅助者,而非取代者。人类应当始终参与法律决策。  相似文献   

7.
正为了落实习近平总书记在致世界人工智能大会贺信中"处理好人工智能在法律、安全、就业、道德伦理和政府治理等方面提出的新课题"的精神,2018年9月27日,由上海市科协、中国社会科学院科学技术和社会研究中心主办,上海市自然辩证法研究会承办的国家社科基金重大项目"智能革命与人类深度科技化前  相似文献   

8.
Intrinsic value和inherent value有着重要的语义区分。在雷根的理论中,具有道德重要性的是inherent value,而非intrinsic value。这是因为,内在价值(intrinsic value)与功利主义紧密地结合在一起,会侵害个体的合法权益。内在价值是个体作为生命主体的必要条件,而生命主体标准又是固有价值(inherent value)的充分条件。然则,固有价值实际上不是主张生命主体的道德权利的充要条件。非人存在没有权利,人类拥有权利也不是因为他们是具备固有价值的生命主体,而在于他们是人。  相似文献   

9.
人工智能要成为真正意义上的智能,一个不可回避的问题就是如何使智能机器的行为更符合人类意义上的伦理道德,这也是作为人工智能新兴研究领域——机器伦理的核心内容。功利主义和义务论都将道德推理统一于一个总原则之中,对机器伦理研究有着重要的启发意义。功利主义预设了一种拉普拉斯式的万能神灵理性观,在应用于机器伦理时,需要通过"有限理性"与"捷思法"对之进行改良。义务论对伦理中"应然"维度和规范性的强调,使机器难以有效解决道德规则冲突,因此,义务论进路在整体上并不适用于当前以计算和遵守规则为核心的智能机器。  相似文献   

10.
在雷根的动物权利理论中,作为形式化正义原则基础的固有价值假定的内涵实际上就是生命主体标准。雷根对动物生命主体的证成是成功的。但以此为由,基于跨物种的平等原则而主张动物拥有道德地位和道德权利却是不合理的。人类拥有权利不是因为他们具备固有价值,而在于他们是人。物种主义是适宜的。  相似文献   

11.
人工智能道德增强是从属于"人类道德增强"思潮的一个子话题——希望通过"人工道德建议者(AMA)""客观"的道德表征能力与强大的信息获取能力协助人类提高道德认知水平。但由于AMA毕竟无法达到"理想观察者(IO)"的标准,其必然会陷入专家主义的窠臼。此外,诉诸构建"道德机器"的研究者们在通过学习算法构架自动道德分类与决策机器的时候也预设了某种IO视角。通过瓜里尼的道德案例分类器(MCC)的实验研究,我们发现无预分类的假设函数无法拟合,这意味着与IO契合的普遍主义AMA无法建成。鉴于此,我们建议另外一个不同的"道德增强"方案——一种"作为他者的AMA",并寄希望于通用人工智能成为其实现基础。  相似文献   

12.
目前,人工智能快速发展,在众多领域发挥了重要作用,对人类社会产生了深刻的影响。人工智能虽然为人类带来巨大利益,但也带来不确定的风险。近年来,在欧美国家兴起的"负责任创新"旨在解决科技发展中的责任伦理问题而提出的理念,这为人工智能的创新与发展提供理论思考与现实应对的路径。运用负责任创新的理念和方法进行人工智能伦理责任的规制或者嵌入,使其形成具有道德的决策和行动,从而促进人工智能良性、开放、健康和包容的发展,推进人工智能与人类的和谐共存。  相似文献   

13.
以人工智能为主要代表的新一轮科技革命正在深刻影响着人们的生产方式、生活方式和思维方式,也引发了诸多道德判断困境及其伦理思考。智能化时代的人类社会将走向何方?应坚持以马克思主义科技观为指导,重视科学技术是第一生产力的革命性力量,警惕科学技术异化力量的负向作用,反对目的论和义务论的伦理错误倾向,在主体设计、制度管理、公众环境三个层面探讨伦理重塑策略,以期人类社会与人工智能和谐共处、"向善"发展。  相似文献   

14.
智能机器的自主性带来对责任缺口的担忧,解决办法之一是逐步发展与自主性相适应的、可望负责的人工智能道德体。被普遍认为是未来主要发展方向的显明的伦理人工智能体尽管无法成为个体责任主体,仍有望通过广义道德图灵测试的方式,获得特定社会领域的准入资格,以作为某种准道德主体成员承担特定社会角色,与人类责任主体在集体行动中共担责任。为此,显明的伦理人工智能体的道德建构最好采用结合自上而下的伦理规则与自下而上的伦理学习的混合设计,注重在联合承诺及合作互动中促成共同体成员的善,创造更负责任、更可预期的角色行动。  相似文献   

15.
人工智能引发了诸多反思,但其中少有政治哲学的声音,其缘由在于政治环境与人工智能两者的特点:引发人类生死存亡忧思的超级人工智能会摧毁形成政治的环境;自主人工智能会引发道德主体资格的反思,而准自主人工智能引发当下的道德原则是否根本的追问,但只有当两类人工智能实际参与人类生活后,这两者才能获得具体的实质结论。  相似文献   

16.
法律人工智能是法律信息学的研究对象,关注的是信息技术在法律中的运用,其思想渊源最早通常都追溯到1949年洛文杰提出的"法律计量学"想法。作为一个学科,法律人工智能形成于20世纪80年代末和90年代初,其标志是国际法律人工智能系列学术大会的出现(自1987年起)、国际法律人工智能协会的成立(1991年)和《法律人工智能》杂志的创刊(1992年)。回眸法律人工智能这70年的发展史,她经历了一个从法律计量学到法律信息学的发展历程。  相似文献   

17.
道德的"是"与"应当",是伦理学的基础问题。现代伦理学由传统道德心理学的行为-表现层面深入到道德主体大脑的生理-物理层面来研究人类道德判断、道德行为的实际运行状况,即道德的"是"。这一方法实际是在"外部的"行为-表现和"后台的"生理-物理活动之间建立起对应关系,它除了对道德思维的事实作出生理-物理层面的说明之外,并不能探讨道德应当问题。这一事实也从另一角度印证了休谟关于不能从道德的"是"推出道德的"应当"的观点。与之相对照,传统伦理学中的"整体视角"应该是我们研究道德应当问题的理论出发点。  相似文献   

18.
人类社会正快速步入人工智能时代,人们无时无刻不处于人工智能消费场景中。人工智能不仅是一个技术问题,更是一个道德问题。然而,貌似客观中立的人工智能技术并未带来预想的性别平等,反而造成女性性别歧视现象丛生,招致越来越多的批评与抗议。人工智能与大数据是人类社会的镜像,虚拟世界出现问题,病根在人类世界。因此,构建机器伦理,加强行业自律,推进人工智能立法,增强女性在人工智能行业中的话语权,让男女平等观念深入到虚拟世界与机器世界,方是根治人工智能消费场景中女性性别歧视的善治之道。  相似文献   

19.
在人工智能体的道德设计思路中常被考虑的道德理论主要包括义务论、功利主义和美德伦理,然而义务论的抽象原则和功利主义的伦理计算都忽视了道德情境的复杂性,最终表现出缺乏“情境敏感性”。相反,美德伦理注重经验知识的学习过程,以一种开放、动态的理论特质来适应复杂道德情境,而强化学习同样注重动态学习过程。因此,美德伦理与强化学习具有理论相洽性,二者的结合使人工智能体道德强化学习成为可能,并且这也是立足于现实复杂道德情境之最佳的人工智能体道德设计方案。  相似文献   

20.
人工智能正在越来越多的领域替代人类大脑的某些功能,这种发展趋势引起了人们许多反思和担忧。将来人工智能是否可能完全取代人脑的功能?从中西思维方式比较的角度,可以展现解答这个问题的一种新思路。中国传统文化强调的"用心"思考,指的是以大脑右半球和边缘系统为主导的思维活动,这可能是人工智能无法完全取代的。"用心"思考是人类特有的智能,人工智能应该成为"用心"思考的必要补充,以提高其效率和质量;而"用心"思考应该成为人工智能发展的"调节器",以避免其发展在"无心"状态下可能出现的负面影响。要协调人类智能和人工智能的关系,有必要在人工智能发展中推行"用心的设计"和"用心的评价",在教育中实现"用心"思考与人工智能的有机融合。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号