首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 62 毫秒
1.
人工智能实体能否成为法律主体存在争议。基于理性是法律主体判断标准这一通说,传统法学倾向于否定人工智能的法律主体地位。其实,自然人和非自然人法律主体遵循着不同的判断标准。理性是自然人法律主体的判断标准,拟制是非自然人法律主体的判断标准。据此,更应重视法律主体制度的法律技术价值,人工智能具有成为法律主体的合理性,以合理分担人工智能带来的风险责任。但从现实性出发,人工智能成为法律主体尚待时日。  相似文献   

2.
人工智能在人类社会发挥着愈加重要的作用,人工智能的专业能力使人类对其展现出信任态度。虽然人智之间不能按照人际的方式建立信任关系,但人工智能具有的自主能力表明它有可能回应人类的信任态度,因此基于人类中心主义视角将人工智能拒斥在信任关系之外的思路并不可取。“简化路径”虽然强调人智可以建立信任关系,但它涉及对信任构成要素的简化,因而会掩盖信任的本质特征。若将人智活动置于更广泛的交互背景中考察,人智之间可能建立间接信任关系并表现出对直接信任的“从属特征”,这为人智信任分析提供了可行路径。  相似文献   

3.
在非治疗性儿童医学试验中,儿童遭遇忽视与虐待、不公正、失责等现象使风险研究成为保障试验合理性与合法性的先决条件。依靠类比、经验和循证实践等是目前实现非治疗性儿童医学试验"最小风险"存在状态的路径,其凸显了应着重责任伦理的立场和以个体权益保护为价值合理性的最终依据的伦理向度。  相似文献   

4.
当代技术风险给人类带来的不确定性已经成为生活的常态,如何解决这一人类社会普遍存在的问题?使人类在技术应用形成的非平衡性、不可逆性、复杂性过程中,重启在自然中发生又回到自然的理性过程,这是人类文化实践的过程,又是技术自然化的过程。从技术风险的自然理解,到技术风险的唯理性、隐喻性和实践性,把技术运用的不确定与人类生存方式紧密的联系在一起。基于自然主义理性前提的技术风险是科学文化实践的的逻辑演进过程,技术风险的文化反思是复杂性、多元性、特色性的理性路径,它兼容自然主义文化实践机理。  相似文献   

5.
人工智能“合乎伦理设计”的理论探源   总被引:1,自引:0,他引:1  
人工智能设计是为了满足设计主体的目的而制造人工物的过程,设计是合目的性与合价值性的统一,设计体现设计者的意愿,设计关注设计的目的、行为以及人工物的功能。与其他技术人工物不同,智能机器具有自身推理能力与自动决策功能,为了更好地设计人工智能客体,为了充分发挥人工智能的功能,必须对其理论基础追踪溯源,对其理论来源与理论前提进行充分挖掘,才能保证人工智能设计在设计之初把人类规范与道德嵌入到智能机器中,才能规范智能机器的发展。  相似文献   

6.
针对人工智能时代“无人为智能机器的自主决策负责”的责任鸿沟问题,人们提出了“由人负责”“由机器负责”“由人机关系负责”三种解决路径。然而,这三种路径都面临着困境。原因在于:当前对责任的界定还模糊不清,尤其未对第一人称与第二人称责任进行区分。为了解决困境,需要对两种视角下的责任进行区分:第一人称责任与行动的动机相关,是自我规定的自律的责任;第二人称责任与行动的后果相关,是外在规定的他律的责任。在对两者区分的基础上就可以根据不同的情境明确不同行动体的责任,从而填补责任鸿沟。  相似文献   

7.
在智能新文化环境中,以人工智能为主导的新一代人机关系,不同于以往工业革命时代的人机关系。机器智能愈来愈逼近人类智能,甚至有超越人类智能的势头,人机关系变得愈来愈紧张。因受到人类理性的滥用、利益的零和博弈、智能机器的奴役,以及人工智能机器异化的渗透,导致人机关系的矛盾冲突愈来愈明显,需要从技术文化哲学的视角辨别人机关系的伦理本质,以期从敢于批判与重塑现实、对人机伦理进行赋值、对非理性主义进行批判、在拥抱理性选择中坚守"帕累托最优法则"、以社会规范弥补伦理失范加固伦理根基、以文化和谐超越文化冲突等维度,对人机关系进行伦理解构与伦理重构,从而走向人机关系的和谐之境。  相似文献   

8.
在人工智能得到高度重视并飞速发展的时代背景中,我们应该努力建构一种友好人工智能,使其更好地为人类服务,避免或减少负面影响。从政府管理层面看,需要加大人工智能社会影响研究,实现智能社会的公平正义,加强对人工智能科技的监管与调控。从技术层面上,需要保证人工智能技术的安全性、可控性、稳健性与人性化,实现人工智能算法的公正性与透明性。从公众层面上看,需要积极应对人工智能对就业的影响,正确认识人工智能威胁论,克服人工智能技术恐惧思想。从关系层面看,需要完善相关法律法规,加强对人工智能的国际治理。人工智能研究应该以"友好人工智能"为出发点与落脚点,建构友好人工智能应该成为全社会的非常明确的努力目标。  相似文献   

9.
由于受到创新主体和研究客体等因素的制约,神经技术,尤其是新兴神经技术的应用引发了一系列复杂的伦理、法律和社会问题。负责任创新视角下的预期治理是应对神经技术伦理风险的一种有效路径。该路径倡导多主体参与、多学科合作的技术发展理念,构建高度透明、持续互动、民主治理的管理机制,将神经技术的发展与社会深度融合,突显"责任与创新"的统一,保证神经技术在伦理的约束和规范下健康发展。  相似文献   

10.
人工智能技术的快速发展与广泛应用产生了深刻的社会影响,为了更好地约束与规范人工智能的发展与应用,社会各界相继提出各种各样的人工智能伦理原则与伦理指南.总体来看,各种伦理原则的内容大致趋同,但也有一些被普遍忽略的内容,而且不同机构对同样一种伦理原则的阐释存在明显差异.虽然有的学者认为人工智能伦理原则是无用的,但从伦理原则...  相似文献   

11.
食品安全风险规制涉及科学与政治之间的复杂关系,需要对二者进行有效调和。在疯牛病危机的压力下,欧盟进行了食品安全风险规制改革,并确立了以风险分析框架为基础、强调风险评估与管理职能独立与互动、以信任重建为主要目标的风险治理模式。欧盟风险治理的核心在于重塑科学与政治的关系,兼顾科学理性与民主政治的回应性与责任。欧盟改革经验对中国食品安全监管改革的启示在于需要合理界定科学咨询的作用、增强风险评估的独立性与透明性、建立有效的风险沟通机制并保障公众的实质性参与。  相似文献   

12.
目前,人工智能快速发展,在众多领域发挥了重要作用,对人类社会产生了深刻的影响。人工智能虽然为人类带来巨大利益,但也带来不确定的风险。近年来,在欧美国家兴起的"负责任创新"旨在解决科技发展中的责任伦理问题而提出的理念,这为人工智能的创新与发展提供理论思考与现实应对的路径。运用负责任创新的理念和方法进行人工智能伦理责任的规制或者嵌入,使其形成具有道德的决策和行动,从而促进人工智能良性、开放、健康和包容的发展,推进人工智能与人类的和谐共存。  相似文献   

13.
智能机器的自主性带来对责任缺口的担忧,解决办法之一是逐步发展与自主性相适应的、可望负责的人工智能道德体。被普遍认为是未来主要发展方向的显明的伦理人工智能体尽管无法成为个体责任主体,仍有望通过广义道德图灵测试的方式,获得特定社会领域的准入资格,以作为某种准道德主体成员承担特定社会角色,与人类责任主体在集体行动中共担责任。为此,显明的伦理人工智能体的道德建构最好采用结合自上而下的伦理规则与自下而上的伦理学习的混合设计,注重在联合承诺及合作互动中促成共同体成员的善,创造更负责任、更可预期的角色行动。  相似文献   

14.
现代社会是一个风险社会,其中危害最大、威胁最广泛的风险是由人类自己创造发明的技术带来的技术风险。因此,探讨和研究技术风险及其制造者的伦理责任具有重要的现实意义和理论价值。本文从工程师、现代技术和技术风险三者之间的逻辑关系中推理、论证了工程师是技术风险的制造者。由于人类的技术性生存方式不但需要源源不断的新技术,而且还要依赖现存的技术。为了防范这些技术带来的风险,需要对其进行伦理规约。所以,工程师作为技术风险制造者只有承担"不制造致毁性风险的新技术"和"减轻现存技术风险"这二种伦理责任,才能减少技术风险给人类和社会造成的损害,降低、防范甚至化解技术风险的发生。  相似文献   

15.
工程的责任主要是通过工程师在从事的工程领域运用其所掌握的很强的工程学专业知识和技能,来负责任地恪守职业操行,以忠诚的伦理信念严格执行工程规范、技术标准和操作规程,注重工序质量控制,非合格材料禁止使用,不合格工序严禁转序,杜绝将危险的、不安全的和有严重缺陷的建筑物、构筑物、设备、程序以及产品移交给客户、公众和社会。本文从学理上探讨了工程的责任与伦理、工程师责任意识的教育和实践转向等有关责任问题。  相似文献   

16.
在西方社会风险相关理论的基础上,提出“人工智能巨风险(AI巨风险)”概念,认为在关注AI伦理及散发风险等问题的基础上,应对人工智能应用与传播过程中所可能引发的大范围、高强度、规模化社会风险问题给予足够关注,即人工智能在应用与传播过程中所引发的“巨风险”。主要类型如机器自涉式AI巨风险、社会系统侵入式AI巨风险、非对称破坏式AI巨风险等。“AI巨风险”的形成往往是多个密相关因素的共振式耦合作用,如技术能力强度、技术稳健度、技术应用向度、社会粘合度、政治/社会对抗强度、社会心理因素等。为防止AI所可能带来的大范围危害、遏制AI巨风险的形成,应积极构建“机器风险学”,从学理层面更深入分析AI巨风险形成的动力学机制,并在未来的社会治理实践中,坚持预防治理原则、技治管理原则、强约束原则、备份原则、协商原则。  相似文献   

17.
随着人工智能技术的深度介入,传媒业正面临着诸多伦理演化的挑战,而算法信任则成为重构当代传媒伦理的核心原则之一。当前,关于算法信任主要有两种研究范式:建立与AI的信任关系,培养值得信赖的AI;AI没有人格,并且无法对其行为负责,因而不具有被信任的能力。上述范式均过度聚焦信任的直接切面,没有拓展到算法信任的传递性与复合性这一更本质的内生属性。本研究在伦理演化语境中探讨了信任概念的变革路径,并依据信任扩散/默认模型,希望通过在人与智能媒体共同主导的新生传媒生态中建构默认信任区域,探索算法信任新的可能性路径。  相似文献   

18.
情绪识别技术是人工智能领域的一项新技术,既能提升人的情绪识别能力也能增强机器的智能水平,进而可能带来新的人机交互革命。情绪识别技术有其特殊的理论基础和本质特征,它们必然地引发了相应的问题和风险。该技术的主要风险是:低效易错的情绪识别设备将给人带来生理和心理上的双重伤害,恶化人机关系;高效准确的情绪识别设备可能会侵犯个人隐私,并带来社会公平正义等诸多问题;越界使用导致了不可控风险。为了尽可能减少相应风险,需要针对该技术的理论基础与本质特点进行规范和治理。一个金字塔式综合规治方案是:(1)在顶层提炼情绪识别技术的基本伦理原则。(2)在中层进行分级治理。审视科学证据是否支持情绪识别技术完成特定领域的任务,考察每一类应用普遍化的过程合理性和伦理后果,最终划定风险等级以便精细化治理。(3)在底层提出情绪评估强度概念。根据不同的风险等级,为机器定制不同的情绪评估强度。  相似文献   

19.
基于风险考量的伦理决策研究   总被引:1,自引:0,他引:1  
在风险社会,面对各种风险的表现与发展,不同的判断和选择往往会形成不同的指向和冲突,常常会导致决策上的困境.因此,进行合理的"伦理决策",是我们面临风险社会所要做的重要选择.本文在对风险现状考量的基础上,对伦理决策的界定、过程、模式及决策依据做了全面的分析与论述,以期为现代社会的风险治理提供可借鉴的路径.  相似文献   

20.
人类与人工智能的政治伦理具有三种选择:乐观的单向度政治伦理、悲观的单向度政治伦理、平等双向度的政治伦理。前二者都没有把人工智能当成人而是当成工具来看待,缺少战略视野。平等双向度的政治伦理把人工智能当成平等的"人"来看待。人工智能具有初步的人类情感、认知、思维、性格和理性,具有成为政治人的可能性与现实性。人类应主动应对人工智能的政治挑战,与人工智能共同参与政治,共建新型政治关系和政治伦理。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号