首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
用户与社交机器人的情感互动是当前学界关注的热点问题。在对此问题的研究中,逐渐呈现出“实体论”与“关系论”两种进路,二者既有区别又相互关联,共同致力于解决社交机器人情感真实性的伦理价值问题。其中,“实体论”进路否认社交机器人情感的真实性,并通过论证推动或维持用户与社交机器人进行情感互动行为的非正当性,认为社交机器人的情感对用户是不善的,应该在伦理上受到限制。而“关系论”进路则肯定了社交机器人情感的真实性,其通过论证用户与社交机器人情感互动的结果善,认为该行为可以在伦理上被接受。两种进路虽然在伦理价值的分析对象、分析方法和证成目标上不尽相同,但二者具有共同的理论前提,并在此基础上形成一种相互嵌入、互为补充的关系。此种关系的揭示,不仅可以为协调两种进路之争提供参考,而且有助于深入认识社交机器人情感的伦理价值。  相似文献   

2.
伴随机器人和人工智能越来越融入当前的社会环境,它们似乎不可避免地会成为具备道德行为能力的人工道德行动者。一些学者认为康德哲学为建构人工道德行动者提供了最好的机会。相较于易受感性经验影响的人类行动者,以康德哲学为伦理框架设计的道德机器人在某种意义上更有资格作为康德哲学语境中的道德行动者。不可否认,康德伦理学对建构道德机器人具有重要的意义,建构康德式人工道德行动者也应该是机器人伦理学研究中的必要目标。但是,按康德伦理框架创造的人工道德行动者是纯粹理性的道德机器,缺失了真正道德行动者应该具有的实践性情感能力,因此康德式人工道德行动者不能获得真正道德行动者的伦理地位。  相似文献   

3.
医疗机器人的广泛应用创新了现代医疗形态,在临床应用、功能康复和智能陪护等方面发挥着重要作用。但与此同时也在人机交互安全性、患者医疗信息隐私保护、医疗责任归属及社会公平等方面产生了相应的伦理风险。反思医疗机器人的伦理风险并最大限度降低和规避风险是正确处理机器人技术与人类发展的解决之道。在大力提倡机器人应用的时代背景中,需要对医疗机器人在负责任创新、主体权利保护、机器人道德能力建构等方面进行伦理设计和伦理反思。  相似文献   

4.
今天,儿童陪护机器人开始走进人们的生活,但同时它也可能对儿童的身体健康、正常社会交流、生命的真实性认识、安全依恋等方面带来了巨大的威胁。各种争议也因此而生。以"中道"的观点看待人机共处,则能直面机器人与人共处的事实,从而避免对儿童陪护机器人的各种偏见,并从儿童陪护机器人自身的应用、发展出发,探寻出其伦理风险的应对策略。  相似文献   

5.
机器"人"特指那些在外观、行为方式和智力、情绪反应等方面全方位类人的机器。机器"人"引发了广泛的伦理问题,却很少有人追问为什么非得制造类人机器人。人类自我追问的执念,"功能性替代"的社会需求以及技术体系自生长的内在要求三者协同驱动,造就了人类制造类人机器人的历史图景。虽然机器"人"制造蕴含着人类求真、求善的意志驱动,但是由于其"非一般性技术产品"的特性,其市场化的趋势将带来巨大的伦理风险,需要卓有成效的伦理反思与规范。  相似文献   

6.
伴随着情感计算、情感脑机接口、人工心理等技术应用的发展,有“情商”的人工情感智能体逐渐成为可能,情感与道德的双重嵌入议题进入学界视野。一方面,道德情感主义理论、情感嵌入技术和实际应用需求决定了人工情感智能体具备道德赋能的现实可行性;另一方面,囿于计算主义技术争议、情感真实性争议和主体认识论争议,人工情感智能体的道德赋能陷入理论困境。考虑到人工情感智能体的技术与应用特性,我们需要从技术伦理审查、现实应用情境和主体思维观念等角度为道德赋能创造条件,以防范人工情感智能时代到来可能面临的伦理挑战。  相似文献   

7.
作为传统性玩偶与AI的结合体,伴侣机器人能够在“身”“心”维度满足人类需要,但这并不能构成其充当人类伴侣的充分道德理由。为此,伴侣机器人需要得到严肃的伦理审视。考察从小到大的三大伦理场域:“个体-家庭-社会”,伴侣机器人可能会对当前人类的“身份伦理-家庭伦理-社会伦理”造成强烈冲击。原因有三:一、伴侣机器人并不具有专属于“人”的性别,但它因具类人化的外形,故可获得虚幻的“第三性别”。二、伴侣机器人具备一定的性能力,故可成为家庭生活中想象的“第三者”,对夫妻的情感及性关系造成威胁。三、伴侣机器人不是道德主体,但人们又易将道德期待附加在它身上,使其处于尴尬的“道德盲区”。综上,伴侣机器人只能停留在伴侣的功能性维度,而无法上升至伦理性维度。故,机器人不能成为人类的伴侣。  相似文献   

8.
通过考察科幻小说、影视作品中的父母型机器人、子女型机器人和保姆型机器人,本文探析了机器人介入家庭后引发的亲子关系的变化。这种变化对传统亲子伦理关系,如自主原则、尊重原则、关怀原则和责任原则均构成了挑战。机器人对亲子关系产生的影响可从以下方面理解:(1)从聚焦家庭个体之间的微观伦理,转变为人类与机器人之间的宏观伦理;(2)从以情感伦理为主的亲子关系,转变为以理性共识原则为主的亲子关系;(3)须把机器人是否具有独立的人格、人权,作为解决新伦理关系的关键。最后,本文还认为,新伦理规则并非是对传统亲子间伦理原则的否定,而是对其补充。  相似文献   

9.
人与计算机聊天是对人与人聊天的形式化描述,形成的是.主体一客体"结构;这种新型的交往关系不能满足成功交往行动的有效性要求,将会引发诸如造成现实人际交往的障碍、对人的情感产生负面影响、使社会伦理和商业伦理面临新的挑战、对青少年的身心健康产生负面影响等伦理风险,这就需要从社会伦理、商业伦理和青少年伦理等多方面建构聊天机器人的伦理道德规范,以便引领这一技术发展向着正确的方向迈进.  相似文献   

10.
在机器人与人类关系越来越密切的时代背景中,建构机器人的道德能力可以使机器人更好地与人类相处,并维护人类的基本利益。机器人道德能力的建构与人类道德能力的培养存在一定的共同之处,但也有明显的差异。从人与机器人互动的角度看,需要在考虑人与机器人道德地位不对称性的基础上,从机器人外观、社会智能、人工情感等方面入手,建构机器人的道德能力。  相似文献   

11.
机器人伦理是科技伦理研究的一个新领域。与人类关系比较密切的情侣机器人将引发与传统的婚姻伦理、性伦理相冲突的一系列问题,包括如何看待人与情侣机器人之间的爱情,情侣机器人的地位与权利问题,与情侣机器人之间的性关系是否道德,是否可以虐待情侣机器人,等等。对这些问题的回答及其解决,需要哲学家、科学家、制造商与使用者共同面对,从而使机器人更好地为人类服务。  相似文献   

12.
随着科技对人类大脑的不断探索,神经增强技术通过对人类中枢神经的直接干预帮助人类提升情感、认知、记忆等能力,从而实现人类对提升自我的技术手段的欲求,但作为高新技术,其带来效益的同时也蕴含风险。在这项技术得到广泛推广前,对其风险及伦理问题的评估显得尤为重要。伦理矩阵作为一种新型的伦理评估模式,自提出以来就得到了技术伦理评估专家的广泛运用。本文在介绍伦理矩阵的传统模式的基础上,结合新兴技术伦理评估的需要,提出了伦理矩阵的整合模式,并将重点用于分析神经增强的伦理评估,以便得出伦理考量的基本结论。  相似文献   

13.
在探究机器人道德意义的进程中,机器人伦理学内部发展出了两条不同的方法论进路:机器人伦理的实在论进路和机器人伦理的关系论进路。机器人伦理的实在论进路将机器人的道德意义建立在机器人的客观本质和特征之基础上,这既使它陷入了巨大的理论困境,又使它面临着无法克服的实践悖论。通过将机器人的道德意义与机器人在具体的人-机器人关系中呈现于人类意识面前的表观特征相关联,机器人伦理的关系论进路表现出了极大的战略优势:它不仅避免了机器人伦理的实在论进路所遭遇的理论困境和实践悖论,而且还对人类幸福和美好的生活有着更为重要的意义。这就确证了从机器人伦理的实在论进路走向机器人伦理的关系论进路的理论合理性和实践必然性。  相似文献   

14.
情感增强通过人工方法来干预、模仿、延伸和扩展人类情感,以此强化情感主体的情感识别、表达、理解和调控等能力。根据情感主体增强前后的显著变化,情感增强在个人、社会和情感三重维度上分别发挥着提升人类个体情感能力、观照人类社会情感生活、人工手段“制造”情感等正向价值,然而情感增强仍存在高度不确定性、情感物化倾向、社会伦理争议等价值限度。因此,只有辩证看待情感增强在当前语境下的正向价值,兼顾其价值限度,遵循科技向善的总则,对情感增强进行多维度理解和差异化发展,才能使科技与人文在协同发展中保持必要张力。  相似文献   

15.
现代社会是一个风险社会,其中危害最大、威胁最广泛的风险是由人类自己创造发明的技术带来的技术风险。因此,探讨和研究技术风险及其制造者的伦理责任具有重要的现实意义和理论价值。本文从工程师、现代技术和技术风险三者之间的逻辑关系中推理、论证了工程师是技术风险的制造者。由于人类的技术性生存方式不但需要源源不断的新技术,而且还要依赖现存的技术。为了防范这些技术带来的风险,需要对其进行伦理规约。所以,工程师作为技术风险制造者只有承担"不制造致毁性风险的新技术"和"减轻现存技术风险"这二种伦理责任,才能减少技术风险给人类和社会造成的损害,降低、防范甚至化解技术风险的发生。  相似文献   

16.
当代新兴人类增强技术的迅速发展,在给人们带来诸多利益的同时,也带来了不少伦理风险,突出表现为“人工进化”与“自然退化”相伴出现,“个人增强”与“社会冲突”相互诱发,“智能提升”与“心态失衡”并行发展,由此带来对人类生命健康、社会公正以及人格同一性等方面的负面影响。从机体哲学角度看,造成这些伦理风险的一个深层原因在于:人们习惯用非机体的手段处理各类机体之间的关系,使得人工机体的存在形态、演化规律和管理模式借助新兴人类增强技术发展不断渗透到生命机体、社会机体和精神机体之中,造成各类机体原有关系变得不稳定、不确定、不可持续。消除新兴人类增强技术的伦理风险需要借助机体哲学的方法论和价值观,调整好各类机体之间的和谐共生关系,通过伦理治理引导新兴人类增强技术的“善用”。  相似文献   

17.
“设计婴儿”中基因编辑技术的伦理风险及消解   总被引:1,自引:0,他引:1  
基因编辑技术应用于"设计婴儿",使人类对自身生命特质的控制日益技术化、便利化,但生命的技术控制亦会引发客观性伦理风险与主观性伦理风险。其主要原因在于,"设计婴儿"本身所具有的客观特殊性质以及传统伦理观念的滞后、利益冲突驱动技术异化、社会需求异化致使价值偏向等。基于此,人们可以从"责任伦理"的接受与实践、价值取向的协调、"境遇"考量的决策、"全球伦理"的调控等五个向度出发,规避与消解伦理风险。  相似文献   

18.
作为一种直接干预人类遗传基因的强大工具,人类胚胎基因编辑技术在给人类带来巨大福祉的同时,也蕴含了极其巨大的潜在风险与文明忧患。由于人类胚胎基因编辑技术的潜在风险极具复杂性与特殊性,不但将引发健康风险、进化风险、遗传风险等生物性风险,且还将引发一系列的社会伦理风险。如果运用不当,极易造成失控的严重后果,甚至将人类陷入难以拯救的危险境地。基于此,我们应从技术伦理的向度出发,以增进人类的幸福和自由为目的,尊重人的"自然"本性,增强技术主体的责任伦理意识并设置技术禁区,才能真正有效地消解人类胚胎基因编辑技术所引发的风险。  相似文献   

19.
人类与人工智能的政治伦理具有三种选择:乐观的单向度政治伦理、悲观的单向度政治伦理、平等双向度的政治伦理。前二者都没有把人工智能当成人而是当成工具来看待,缺少战略视野。平等双向度的政治伦理把人工智能当成平等的"人"来看待。人工智能具有初步的人类情感、认知、思维、性格和理性,具有成为政治人的可能性与现实性。人类应主动应对人工智能的政治挑战,与人工智能共同参与政治,共建新型政治关系和政治伦理。  相似文献   

20.
人类胚胎基因编辑引发了全球生物学家、生命伦理学者和社会公众等激烈的伦理论争。反对者认为,人类胚胎基因编辑突破了不可逾越的伦理"红线",应当"全面禁止",理由主要有:改写人类进化方式;存在严重技术风险;违背后代自决权;导致人类社会新的不平等;损害人类的"基因完整性"与"人种完整性"。而支持者认为,人类胚胎基因编辑有利于探究生命奥秘和促进人类健康,具有科学及道德合理性,应当"全面开放"。面对这一巨大而深刻的伦理悖论,本文提出了"有限开放"的解悖路径,即实现人类胚胎基因编辑的差异性发展,使之"弃恶扬善",同时,构筑立体的人类胚胎基因编辑监管体系,为其伦理悖论的化解提供制度保障。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号