共查询到20条相似文献,搜索用时 15 毫秒
1.
2.
<正>Sora的世界模型,已经能帮助它还原一辆越野车在山区小路上的行驶情况,在视频中添加逼近真实的倾斜和颠簸感。2月16日凌晨,在没有任何预兆和消息透露的情况下,OpenAI突然发布了自己的首个文生视频模型:Sora,大幅刷新行业多个指标,重新定义了AI文生视频在现阶段的技术极限,颠覆了生成式AI在视频领域的全球市场格局。 相似文献
3.
4.
生成主义已然取代计算主义成为认知科学研究的主导范式,但是它的历史根源,特别是其控制论根源,往往在认知科学的历史分析中被忽略。然而,正是这一外在于认知科学的控制论根源最终导致了生成主义的诞生。生成主义统一了认知研究的两大科学传统,一个是外在于认知科学的控制论传统,一个是内在于认知科学的人工智能传统。认知科学的发展先后经历了认知主义、联结主义、具身动力主义和生成主义。相应地,控制论的发展也经历了一阶控制论、阿什比控制论、二阶控制论和认知生物学,人工智能领域的发展也同样经历了老式的AI(即Good Old-Fashioned AI,GOFAI)、联结主义AI、具身-嵌入AI(embodied-embedded AI,EEAI)和生成AI(enactive AI)。梳理控制论传统和AI传统的发展脉络,挖掘生成主义的控制论根源,以便更好地理解生成主义的理论基础和方法论基础。 相似文献
5.
<正>8月23日,华为在深圳坂田基地正式商用发布了最新款AI芯片"昇腾910",与之配套的全场景AI计算框架Mind Spore也同时亮相。在预告了10个月之后,"昇腾910"终于正式亮相。8月23日,华为在深圳坂田基地正式商用发布了最新款AI芯片"昇腾910",与之配套的全场景AI计算框架Mind Spore也同时亮相。 相似文献
6.
7.
8.
具身AI(embodiedAI)(又称行为主义AI)的很多灵感源自现象学对经典AI的批判。现象学关于人类智能的洞见——非表征性、具身性、在世界中的存在,都转化为了具身AI的设计原则。具身AI的发展和成熟,不仅是对现象学哲学的实证,也是对现象学实践的重大发展。蒙在现象学脸上的神秘面纱,通过具身AI的工作得到了一定的揭示。因此,具身AI是一种不寻常的现象学实践。尽管当前的具身AI,还不能完全体现现象学对人的理解并克服经典AI的难题,但不容质疑的是:具身AI进路使人类向着真正理解和模拟自然智能的目标更进了一步。 相似文献
9.
<正>AI语音技术是AI的一个分支,随着AI技术的发展,AI语音技术也在突飞猛进换代升级。现在,科大讯飞、搜狗等科技公司相继发布了语音合成技术的应用。通过AI手段,用户可以一秒变声为社会名人或者其他想要模仿的声音。AI的这种音色迁移技术可称为变声技术,可以将任何人的声音转换成特定人的声音(Any-to-One)。与国内的IT公司比较起来,搜狗公司的AI变声功能已经达到实用的阶 相似文献
10.
《自然辩证法研究》2020,(4)
算法是已阐明的涉及数学的唯一基本认识论概念,其本质是"确定性递归",迄今已经历了一个从有限性、递归性、统计性到实践性算法的拓展过程,而人工智能(AI)的核心是算法,其功能是依循算法通过计算解决复杂性问题,则AI可相应地分类为有限性AI、递归性AI、统计性AI和实践性AI,现今所设想的通用AI是此四类AI的混合体。同时,以算法为桥梁可沟通AI和哲学,开辟对AI进行哲学思考的算法进路:AI依算法展开的计算过程可指向、趋近实无限的彼岸世界,AI的工具价值实际上就是一个"确定性递归有限展开"的价值,算法及其展开是语言、是认知,算法本身也是方法,循此进路可对AI的绝对边界、工具价值问题、还原论的彻底性、智慧的本质等问题进行深入研究。 相似文献
11.
<正>AI创业火热,但技术型创业,产品要研发、落地要试错,诸多不确定性里,人才成了定价和交易的砝码,也是现阶段的大模型之争里最重要的因素。时间来到ChatGPT引发中国AI热潮的第十个月。每位熟知国内AI格局的投资人和猎头,脑海中已经有了一幅人才版图,如果你有机会和他们喝上一杯,畅快地聊聊天,大概会有这样的对话:“头条的张前川去哪里了?” 相似文献
12.
在西方社会风险相关理论的基础上,提出“人工智能巨风险(AI巨风险)”概念,认为在关注AI伦理及散发风险等问题的基础上,应对人工智能应用与传播过程中所可能引发的大范围、高强度、规模化社会风险问题给予足够关注,即人工智能在应用与传播过程中所引发的“巨风险”。主要类型如机器自涉式AI巨风险、社会系统侵入式AI巨风险、非对称破坏式AI巨风险等。“AI巨风险”的形成往往是多个密相关因素的共振式耦合作用,如技术能力强度、技术稳健度、技术应用向度、社会粘合度、政治/社会对抗强度、社会心理因素等。为防止AI所可能带来的大范围危害、遏制AI巨风险的形成,应积极构建“机器风险学”,从学理层面更深入分析AI巨风险形成的动力学机制,并在未来的社会治理实践中,坚持预防治理原则、技治管理原则、强约束原则、备份原则、协商原则。 相似文献
13.
正"百度将All in AI,我们在AI时代的核心战略就是开放赋能,我们的将来必须建立在与每个开发者共赢的基础上。"陆奇说。提起人工智能,大多数人都会想到非常热门的领域——无人驾驶汽车,而提到无人驾驶,就不得不提到百度。在2017年7月5日的百度AI开发者大会上,百度创始人、董事长兼CEO李彦宏乘坐无 相似文献
14.
15.
16.
17.
18.
<正>上传一张图片,或者输入一些简单的关键词,系统就能自动生成一张卡通图像……最近一段时间,AI绘画开始在互联网社交平台走红。有了AI,人人都可以是艺术家。AI绘画的出现,恰如瑞士艺术家保罗·克利所言:“艺术不是再现可见,而是使不可见成为可见。”经过20年左右的发展,目前基于不同类型或者模态元素的AI绘画发展情况不尽相同,发展最久的是“以图生图”,再到近期火爆的“文+图”生图。当然,也有团队已经研发出由语音生成图像的技术。 相似文献
19.
新时代,AI在实践中正深刻地"模仿"自然人类世界,并以虚拟数据建造成了一个类似自然人类的"机器人类世界",为满足自然人类物质、精神等方面的美好生活需求带来了诸多福音。但是AI在全面解放自然人类自由的道路上一定程度引起了人与社会劳动、人与现代科技、人与现实社会等的技术、伦理、法律和安全隐忧,也暴露了一些问题,诸如AI模仿自然人类的机器世界一定程度存在缺失如"人"一样理性价值智能。为此,一方面我们需要赋予AI灵活、能动的应变能力,以及对自身行为进行预测、控制,甚至审美的能力;另一方面我们还需要重构人类及AI的伦理道德系统,让所有智能终端必备伦理道德系统,让真善美数据训练机器形成更高层次的理性化系统,使AI在实际应用中执行最严格的备案制度,建立AI数据国家级监控中心,从而促进仿自然人类世界的"机器人类世界"智能级向更高层次理性价值智能发展,且能从中反观自然人类伦理及伦理建设,助推自然人类文明进步。 相似文献