共查询到20条相似文献,搜索用时 15 毫秒
1.
2.
3.
<正>人工智能(artificial intelligence,AI)是解释和模拟人类智能、智能行为及其规律的学科,主要任务是建立智能信息处理理论,进而设计可展现近似于人类智能行为的计算机系统。人工智能被认为是21世纪三大尖端技术(基因工程、纳米科技、人工智能)之一。人工智能一词最初是在1956年达特茅斯会议上,由约翰·麦卡锡提出的。在之后的60多年里,人工智能取得了一连串里程碑式的突破:1997年"深蓝计算机"(Deep Blue)击败了当时的世界象棋冠军卡斯帕罗夫(Garry Kasparov); 2011年超级电脑"沃森"(Watson) 相似文献
4.
《自然辩证法通讯》2020,(6)
人工智能正在越来越多的领域替代人类大脑的某些功能,这种发展趋势引起了人们许多反思和担忧。将来人工智能是否可能完全取代人脑的功能?从中西思维方式比较的角度,可以展现解答这个问题的一种新思路。中国传统文化强调的"用心"思考,指的是以大脑右半球和边缘系统为主导的思维活动,这可能是人工智能无法完全取代的。"用心"思考是人类特有的智能,人工智能应该成为"用心"思考的必要补充,以提高其效率和质量;而"用心"思考应该成为人工智能发展的"调节器",以避免其发展在"无心"状态下可能出现的负面影响。要协调人类智能和人工智能的关系,有必要在人工智能发展中推行"用心的设计"和"用心的评价",在教育中实现"用心"思考与人工智能的有机融合。 相似文献
5.
6.
人工智能引发了诸多反思,但其中少有政治哲学的声音,其缘由在于政治环境与人工智能两者的特点:引发人类生死存亡忧思的超级人工智能会摧毁形成政治的环境;自主人工智能会引发道德主体资格的反思,而准自主人工智能引发当下的道德原则是否根本的追问,但只有当两类人工智能实际参与人类生活后,这两者才能获得具体的实质结论。 相似文献
7.
《自然辩证法通讯》2020,(11)
人工智能道德增强是从属于"人类道德增强"思潮的一个子话题——希望通过"人工道德建议者(AMA)""客观"的道德表征能力与强大的信息获取能力协助人类提高道德认知水平。但由于AMA毕竟无法达到"理想观察者(IO)"的标准,其必然会陷入专家主义的窠臼。此外,诉诸构建"道德机器"的研究者们在通过学习算法构架自动道德分类与决策机器的时候也预设了某种IO视角。通过瓜里尼的道德案例分类器(MCC)的实验研究,我们发现无预分类的假设函数无法拟合,这意味着与IO契合的普遍主义AMA无法建成。鉴于此,我们建议另外一个不同的"道德增强"方案——一种"作为他者的AMA",并寄希望于通用人工智能成为其实现基础。 相似文献
8.
日常化认识与人工智能研究 总被引:2,自引:0,他引:2
认识论是人工智能研究的基础,从自然化的认识论到日常化认识的研究,给人工智能提出了新的问题,认识论对于日常化认识的研究将对人工智能的进一步发展奠定哲学的基础. 相似文献
9.
10.
11.
外行人/两派专家问题指的是当专家之间有分歧时,外行人能否在不同专家意见之间做出选择。这种选择的认识论依据是什么。其中最大的困难在于专家知识中包含有大量默会知识,外行人很难习得和评判。默会知识的确证和评判完全不能适用于传统认识论。本文首先明晰了两种常见的混淆,认为专能的评判不能依赖明述规则,也指出元专能和下行评判的相关问题。 相似文献
12.
《自然辩证法通讯》2019,(11)
认知是人类对信息加工的过程。延展认知理论认为,认知不一定局限于大脑和身体之内,可以延展到身体之外。当前,借助互联网和大数据技术,人工智能体对人类感觉、知觉、思维、语言等多种认知能力模拟水平飞速提高,智能化程度也大大提升。在智能体与人、环境等要素共同构成的人机系统中,人机交互呈现出新的特点,智能体表现出越来越强的"自主性",而人却主动地放弃选择的自由,这引发学界关于人机系统中智能体能否承担事故责任以及怎样承担等问题的新讨论。本文认为,人类的认知可以被人工智能体延展,但责任却不能延展,由此设计出人机系统的责任分配原则;最后分别从人工智能体的"输入-输出"能否控制,尝试在四种语境下给出了人机系统的责任承担方案。 相似文献
13.
14.
《自然辩证法研究》2019,(11):106-112
科学的自然观是坚持和发展马克思主义哲学的前提。马克思主义自然观包含三层含义:(1)外在于人的自然,它是观察人类历史、人类历史活动和实践活动的前提;(2)作为"自然的历史"的自然,它决定了人类历史本质上是"自然的历史",具有不以人的意志为转移的客观规律;(3)"历史的自然",它表明了"自然的历史"和"历史的自然"的内在一致。承认"自然界的优先地位",对于马克思主义的实践观、认识论、历史观和价值观具有基础性、第一位的根基作用和意义。不坚持马克思"新唯物主义"自然观的前提和基础地位,就会导致对马克思主义哲学的颠覆性误导。不能把马克思创立的"新唯物主义"概括为"实践唯物主义"。 相似文献
15.
人工智能哲学研究主要从哲学维度审视人工智能技术的最新发展及其现实应用,具有推进哲学研究领域拓展和内容深化的理论意义、引导人工智能相关科技伦理规范及人文约束的实践意义以及支持人工智能未来发展战略制定与实施的历史意义。人工智能哲学研究需要重视本体论、认识论、价值论、伦理学等维度的问题,未来应当关注正确处理人工智能与人的发展之间的关系、评判人工智能引发的科技和社会变革的意义、人工智能的奇点突破及其评价、人工智能在社会认识论中的应用建构、人工智能引发的技术运用与社会问题等方面。 相似文献
16.
关于“人类认知在根本上是明晰的还是隐默的”这一问题,认识论隐含着“隐默主义”和“明晰主义”两种路径。波兰尼认为,明晰知识是一种幻象,精确知识必然包含着不能被清晰阐明的个人化的隐默认知因素;而布兰顿认为,隐默认知可以被表达和阐明,我们的知识最终是明晰的。两位哲学家关于认知的划界、明晰认知与隐默认知的关系、认知的社会维度、认知的对象等共同议题提出了异中有同的观点,这两种哲学立场的会通将构建更为圆融的认识论体系。 相似文献
17.
普特南探究了人工智能的发展历程,认为图灵是在哥德尔扣杰克斯赫伯德工作的基础上重新构造了计算概念并且发明了计算机模型.计算机科学和人工智能不是等同的,我们应从原则和经验两个层次来看待将大脑思维模拟为数字计算机的思想.归纳推理面临的问题给人工智能研究带来很多的启示.人类本质活动不必然是人工智能的本质活动.即使大脑的计算机模型是正确的,我们也不能断言人工智能就会成功.因为,计算机模型不能够模拟人类总体的知识能力,对于人类认知的研究并不必然要求我们将认知要么还原为计算要么还原为大脑程序,我们可以很成功地发现大脑的理论模型,这有助于我们更好地理解大脑的工作机制,但是这并不要求我们必须借助于心理学. 相似文献
18.
《自然辩证法研究》2019,(11):113-117
人工智能的发展对人类传统的身份认知形成了挑战。应对这种挑战有两种策略:一是辩护性策略,二是建构性策略。辩护性策略从传统的人类身份认知角度,对人类的身份进行辩护,它虽然在一定程度上深化了人类对自身本质特征和特殊属性的认知,但是无法从根本上解决人工智能对人类身份认知的挑战。建构性策略是在人工智能发展的基础上打破传统的人类身份认知,对人类身份重新进行建构,它有三个维度:历史的、发展的和整体的。然而,无论是历史的维度还是纯粹发展的维度都不能从根本上解决人类自身发展与人工智能发展之间的矛盾,唯有整体的维度兼顾了历史、现在与未来,不仅能推动人类自身的发展也能推动人工智能的发展。 相似文献