首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
《科学大观园》2023,(20):36-37
<正>公开信提到的“人工智能可能带来的人类灭绝风险”,该怎样看待?人工智能领域为何屡屡发出警告?人工智能与人类的边界应如何划定?一封“警惕AI”的公开信引发全球高度关注——国际AI领域非营利组织“人工智能安全中心”(Center for AI Safety)日前在其官网发布一封联名公开信,表达了对一些高级人工智能所带来严重风险的担忧。  相似文献   

2.
情绪识别技术是人工智能领域的一项新技术,既能提升人的情绪识别能力也能增强机器的智能水平,进而可能带来新的人机交互革命。情绪识别技术有其特殊的理论基础和本质特征,它们必然地引发了相应的问题和风险。该技术的主要风险是:低效易错的情绪识别设备将给人带来生理和心理上的双重伤害,恶化人机关系;高效准确的情绪识别设备可能会侵犯个人隐私,并带来社会公平正义等诸多问题;越界使用导致了不可控风险。为了尽可能减少相应风险,需要针对该技术的理论基础与本质特点进行规范和治理。一个金字塔式综合规治方案是:(1)在顶层提炼情绪识别技术的基本伦理原则。(2)在中层进行分级治理。审视科学证据是否支持情绪识别技术完成特定领域的任务,考察每一类应用普遍化的过程合理性和伦理后果,最终划定风险等级以便精细化治理。(3)在底层提出情绪评估强度概念。根据不同的风险等级,为机器定制不同的情绪评估强度。  相似文献   

3.
智能时代的决策机制显现出人机系统“共享控制”的协作关系,但要谨防智能机器被赋予自主权的同时可能引发的责任扩散效应,这就要求人类对自主系统的控制与道德责任之间有新的伦理规约机制。由此,人工智能全球治理领域新近提出了“有意义的人类控制”(MHC)这一人机交互伦理原则。当前,MHC在具体应用中存在系统设计的哲学基础与工程实践之间的显著鸿沟,除了对MHC做出概念界定,还要揭示其理论局限并做出拓展,进而提出一种“全方位人类监督框架”来规范应用MHC。  相似文献   

4.
人工智能哲学研究主要从哲学维度审视人工智能技术的最新发展及其现实应用,具有推进哲学研究领域拓展和内容深化的理论意义、引导人工智能相关科技伦理规范及人文约束的实践意义以及支持人工智能未来发展战略制定与实施的历史意义。人工智能哲学研究需要重视本体论、认识论、价值论、伦理学等维度的问题,未来应当关注正确处理人工智能与人的发展之间的关系、评判人工智能引发的科技和社会变革的意义、人工智能的奇点突破及其评价、人工智能在社会认识论中的应用建构、人工智能引发的技术运用与社会问题等方面。  相似文献   

5.
基因增强技术给人类社会带来发展机遇的同时,也引发了巨大的人文争议。主要体现在超人类主义和生物保守主义的针锋相对。二者虽有可取之处,却最终会陷入形而上学的虚无主义结局。要化解“技术—社会”之间的矛盾,必须扬弃基因增强导致的人文关怀上的虚无主义,对基因增强技术的人文风险及伦理语境展开多维度透视,界定基因增强应坚守的伦理原则。基因增强的人文问题归根到底是人与自然的关系问题,因此,可以在马克思关于人与自然生态和谐理念的指导下,在实践上寻求一条马克思式的“技术—社会”和谐发展之路,使基因增强技术更好地维护人的尊严、促进人类发展。  相似文献   

6.
现代技术在服务社会的同时也孕育着重大风险,通过对计算机漏洞的分析能够深刻揭示技术风险的分类、成因及治理等问题.技术风险客观存在于技术应用过程之中,包括有无法避免的本体性风险,由于不当操作产生的主体性风险,转化为军事应用后形成的政治性风险.技术风险的成因包括人的认知能力的局限性,受资本支配的应用逻辑,以及政治社会因素的影...  相似文献   

7.
基于经济史视角的机器换人“常识”深藏着技术哲学新的分裂风险。人工智能时代的技术哲学需要继承现代技术哲学经验转向纲领的精神,在机器换人“常识”的经济史理解基础上打开“技术黑箱”,引入《资本论》的技术史视角批判和反思机器换人“常识”,进而找到新的认识论和推理逻辑问题,即“机器如何接受并重现人类能力的知识”——技术知识论。借鉴科学哲学家拉卡托斯的思路,技术史与经济史如同技术哲学的“内史和外史”,没有技术史的技术哲学是分裂的,没有经济史的技术哲学是瘦弱的。  相似文献   

8.
不同社会阶层和群体对人工智能的态度和价值判断大相径庭,而这种价值判断以及价值判断的来源缺少有效的分析。基于符号互动论,人工智能存在“社会符号”与“互动个体”两种形态、“利益”与“伤害”两种价值。以两种形态与两种价值对人工智能的价值形成进行分析,可得出不同个体或群体对人工智能的价值判断以及价值判断的来源。该分析方法聚焦于个体或群体对人工智能的态度和感知的形成机制,能够帮助理解人工智能伦理问题的成因,从而为人工智能设计、决策及治理提供一种微观新思路。  相似文献   

9.
随着人工智能技术的高速发展,机器深度学习功能逐渐成熟,人们开始担心机器自主意识的发展可能导致人被机器所奴役,并对人类造成威胁。通过对麦克卢汉"媒介是人的延伸"理论进行分析,结合人工智能技术发展趋势,提出"人机融合"理念。从人与机器的感知融合、行为融合和思维融合,探讨了人机融合的本体性、渐进性和辩证性及其对人类行为和社会发展的影响,指出一个合理的人机融合机制,将有助于促进人工智能技术的理性发展和正确应用,实现人与智能机器的和谐共存,加速社会文明的不断进步。  相似文献   

10.
预警原则克服了传统预防原则的缺陷,代表了一种新的看待和处理风险的思维理念和实践方式,强调科学不确定性下依旧要有所作为,其蕴含的“事先防范而不是事后补救”、“风险优先于收益被考量”、“安全比遗憾更重要”等价值观对于应对新兴技术的不确定性风险具有积极意义。而在具体实践中,遵循“弱”预警原则和走向“适度”预警原则,不仅能够彰显预警原则的价值,而且符合新兴技术规制的需要。因此,预警原则应该成为新兴技术治理所需要遵循的一个基本原则。  相似文献   

11.
当代新兴人类增强技术的迅速发展,在给人们带来诸多利益的同时,也带来了不少伦理风险,突出表现为“人工进化”与“自然退化”相伴出现,“个人增强”与“社会冲突”相互诱发,“智能提升”与“心态失衡”并行发展,由此带来对人类生命健康、社会公正以及人格同一性等方面的负面影响。从机体哲学角度看,造成这些伦理风险的一个深层原因在于:人们习惯用非机体的手段处理各类机体之间的关系,使得人工机体的存在形态、演化规律和管理模式借助新兴人类增强技术发展不断渗透到生命机体、社会机体和精神机体之中,造成各类机体原有关系变得不稳定、不确定、不可持续。消除新兴人类增强技术的伦理风险需要借助机体哲学的方法论和价值观,调整好各类机体之间的和谐共生关系,通过伦理治理引导新兴人类增强技术的“善用”。  相似文献   

12.
人工智能机器具有道德主体地位吗?   总被引:1,自引:0,他引:1  
人工智能机器是否具有道德以及是否构成道德主体引发学者思考,这涉及到对于道德主体的界定、对道德主体标准的思考,更涉及到对于智能机器与人类的区别的反思,我们在对道德主体标准分析的基础上,对道德嵌入的人工道德主体进行伦理建构,在智能机器设计之初把“善”的理念嵌入到人工智能机器中,促进与引导人工智能的发展。  相似文献   

13.
大数据作为新的科学技术,从最终意义上决定经济基础和上层建筑,推动经济基础和上层建筑发生量和质的改变。大数据在深刻地影响和改变人们的政治生活、经济生活、社会生活和文化生活的同时,也带来相应的政治风险、经济风险、社会风险和文化风险,使风险社会增加了新的变数和变量。政治制度风险、社会治理风险和社会极权化风险是大数据带来的三个主要风险。警惕和预警大数据给社会带来的风险,寻找防范其风险的基本路径显得尤其重要。确立并坚持良好制度最高权威原则、个人尊严神圣不可侵犯原则、大数据利用公开并告知同意原则、利用大数据承担责任原则。构建大数据制度、个人隐私及其个人尊严立法体系、对个人隐私进行脱敏处理是应对大数据挑战的基本举措。  相似文献   

14.
当前,人们对待人工智能的态度呈现出某种要么支持,要么反对的倾向,这种截然二分的态度实质上是认为人工智能作为一种外在于人的技术,其结果是唯一确定的。然而人工智能的发展是不确定的,因为人工智能与人之间的关系并不是外在的,而是相互构建和相互规定的,这种互动性是人工智能不确定性的根源,并且由于社会因素的融入和具体技术的语境性强化了人工智能的不确定性。对人工智能不确定的治理需要遵循预防原则;对具体人工智能技术要进行评估,从技术层面、社会层面和全球层面进行治理,引导人工智能与人类协调发展。  相似文献   

15.
新时代,AI在实践中正深刻地"模仿"自然人类世界,并以虚拟数据建造成了一个类似自然人类的"机器人类世界",为满足自然人类物质、精神等方面的美好生活需求带来了诸多福音。但是AI在全面解放自然人类自由的道路上一定程度引起了人与社会劳动、人与现代科技、人与现实社会等的技术、伦理、法律和安全隐忧,也暴露了一些问题,诸如AI模仿自然人类的机器世界一定程度存在缺失如"人"一样理性价值智能。为此,一方面我们需要赋予AI灵活、能动的应变能力,以及对自身行为进行预测、控制,甚至审美的能力;另一方面我们还需要重构人类及AI的伦理道德系统,让所有智能终端必备伦理道德系统,让真善美数据训练机器形成更高层次的理性化系统,使AI在实际应用中执行最严格的备案制度,建立AI数据国家级监控中心,从而促进仿自然人类世界的"机器人类世界"智能级向更高层次理性价值智能发展,且能从中反观自然人类伦理及伦理建设,助推自然人类文明进步。  相似文献   

16.
技术在社会治理领域的广泛应用,增进了社会福祉,同时也潜藏着巨大的治理风险。本文从技术的双重互生的社会属性出发,认为技术的以生产和赋权特征为代表的仁慈面孔有助于增进社会福祉,同时,技术的以侵入和约束为特征的阴暗面孔使技术治理潜藏着系统的社会风险和政治风险,技术的短期跃进效应将长期固化体制的韧性,导致新的马太效应;为此,未来的技术治理首先应该是人本主义的、开放包容的,政府应该同时扮演好工程师和园丁的角色,构建由社会心理、社会信用、社会组织和社区构成的社会支撑体系,建立动态的多元合作的技术治理框架,从社会内部自发预防和消除技术治理的外部性。  相似文献   

17.
参差赋权作为人工智能时代技术赋权的基本形态,揭示了人工智能对党政部门、社会媒体与公众、技术生产部门三大主体赋权过程及其结果的不均衡性特征。这种非均衡性的扩张和深化可能会导致社会遭受"技术利维坦"、"信息茧房"与"公民离散"、"技术鸿沟"相互叠加的社会风险。基于此,从技术发展的阶段性以及参差赋权的特征来看,防止参差赋权风险有赖于技术生产部门的自觉调整、社会价值的道德规范与国家权力的强制性规制共同作用。  相似文献   

18.
现代社会中风险寓意的改变为我们当下风险社会治理带来了严峻挑战。作为不同于严格国家法的法律视角观,软法以其对公共理性的弘扬、对个体感受的注重、对成文规范的强调分别因应了风险社会下风险的不确定性、主观建构性和显著人为性而在风险治理中形成理论张力。因此,面对风险社会,我们应该注重对软法治理的路径依赖,并通过强调治理规则的开放性、治理过程的透明性和治理程序的协商性来加强风险社会的治理完善。  相似文献   

19.
毋庸置疑,有两项技术将会主导21世纪的发展,决定人类未来的走向。一项是人工智能,另一项当属新兴的NBIC增强技术。如基因编辑技术和神经增强技术越来越多地应用到实践之中,很多学者已经注意到了这个趋势,他们深入探讨了各类增强技术及其伦理风险。但他们忽略了一个基础性议题,即如何区分增强和治疗的界限。目前各种划界尝试均有缺陷,主要源于"正常"标准的流变性和文化相对性的影响。人类增强技术可能会引发不可控的风险,破坏个人同一性,甚至会成为通向超人类主义和后人类主义的门户,消解生而为人之意义。  相似文献   

20.
随着数字技术与人工智能的迅速发展,元宇宙作为Web3.0演进的重要方向将对人类社会秩序带来深刻影响。基于身体理论的研究视角,通过比较网络社会不同演进阶段的身体-技术关系特征,认为“身体在场”是贯穿网络技术和身体关系的轴线。前元宇宙的网络社会使得人类实践的经验事实分化为在场与缺场两层空间,缺场交往的兴起使得身体能超越地理空间的限制而形成“缺场共在”;元宇宙社会将进一步把人类实践的经验事实分化为现实、镜像与原生的三层空间,并通过现实肉身、机器假身和数字化身建构起以“三身交互”为特征的全新身体实践结构,由此生产出“虚实共生”的新社会图景。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号