AI资讯新闻榜单内容搜索-深度学习

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 深度学习
北大&火山引擎夺冠!CLIC视频压缩挑战赛结果公布,中国团队表现亮眼

北大&火山引擎夺冠!CLIC视频压缩挑战赛结果公布,中国团队表现亮眼

北大&火山引擎夺冠!CLIC视频压缩挑战赛结果公布,中国团队表现亮眼

随着以深度学习为代表的新一代人工智能技术不断取得突破,学术界与工业界逐渐意识到人工智能技术在图像、视频压缩领域的巨大应用潜力。

来自主题: AI资讯
5897 点击    2024-04-08 15:16
英伟达AI新课爆火!免费学习,干货满满

英伟达AI新课爆火!免费学习,干货满满

英伟达AI新课爆火!免费学习,干货满满

不用199,也不用9.9,英伟达黄院士免费给大伙儿送AI课了!从数据科学到深度学习,再到生成式AI,全都有免费课程上新,且不少课入门小白也能看懂。

来自主题: AI技术研报
4163 点击    2024-04-04 14:48
Hinton痛悔毕生工作,AGI十年内降临或导致「奥本海默」灾难!图灵巨头联手中国专家为AI划红线

Hinton痛悔毕生工作,AGI十年内降临或导致「奥本海默」灾难!图灵巨头联手中国专家为AI划红线

Hinton痛悔毕生工作,AGI十年内降临或导致「奥本海默」灾难!图灵巨头联手中国专家为AI划红线

奥本海默曾引用《薄伽梵歌》:「现在我变成了死亡」。深度学习之父Hinton,也同样痛悔毕生工作。最近,Hinton、Bengio、Stuart Russell、张宏江、黄铁军、王仲远、姚期智、张亚勤等大佬齐聚中国版「布莱切利」峰会上,签署了《北京AI安全国际共识》。

来自主题: AI资讯
4869 点击    2024-03-22 16:38
ICLR 2024 | 连续学习不怕丢西瓜捡芝麻,神经形态方法保护旧知识

ICLR 2024 | 连续学习不怕丢西瓜捡芝麻,神经形态方法保护旧知识

ICLR 2024 | 连续学习不怕丢西瓜捡芝麻,神经形态方法保护旧知识

以脉冲神经网络(SNN)为代表的脑启发神经形态计算(neuromorphic computing)由于计算上的节能性质在最近几年受到了越来越多的关注 [1]。受启发于人脑中的生物神经元,神经形态计算通过模拟并行的存内计算、基于脉冲信号的事件驱动计算等生物特性,能够在不同于冯诺依曼架构的神经形态芯片上以低功耗实现神经网络计算。

来自主题: AI技术研报
3049 点击    2024-03-19 10:27
如何把大量物理知识塞给AI?EIT和北大团队提出「规则重要性」概念

如何把大量物理知识塞给AI?EIT和北大团队提出「规则重要性」概念

如何把大量物理知识塞给AI?EIT和北大团队提出「规则重要性」概念

深度学习模型因其能够从大量数据中学习潜在关系的能力而「彻底改变了科学研究领域」。然而,纯粹依赖数据驱动的模型逐渐暴露出其局限性,如过度依赖数据、泛化能力受限以及与物理现实的一致性问题。

来自主题: AI技术研报
7636 点击    2024-03-18 20:24
总结374篇相关工作,陶大程团队联合港大、UMD发布LLM知识蒸馏最新综述

总结374篇相关工作,陶大程团队联合港大、UMD发布LLM知识蒸馏最新综述

总结374篇相关工作,陶大程团队联合港大、UMD发布LLM知识蒸馏最新综述

早在 2020 年,陶大程团队就发布了《Knowledge Distillation: A Survey》,详细介绍了知识蒸馏在深度学习中的应用,主要用于模型压缩和加速。随着大语言模型的出现,知识蒸馏的作用范围不断扩大,逐渐扩展到了用于提升小模型的性能以及模型的自我提升。

来自主题: AI技术研报
4493 点击    2024-03-16 15:28
LLM将成历史?开源bGPT或颠覆深度学习范式:直接模拟二进制,开启模拟数字世界新纪元!

LLM将成历史?开源bGPT或颠覆深度学习范式:直接模拟二进制,开启模拟数字世界新纪元!

LLM将成历史?开源bGPT或颠覆深度学习范式:直接模拟二进制,开启模拟数字世界新纪元!

新模型bGPT是一个基于字节的Transformer模型,能够将不同类型的数据纳入同一框架之下,可以生成文本、图像和音频,还能模拟计算机行为,数字世界将迎来真正的大一统?

来自主题: AI技术研报
10490 点击    2024-03-13 14:53
我们还需要Transformer中的注意力吗?

我们还需要Transformer中的注意力吗?

我们还需要Transformer中的注意力吗?

状态空间模型正在兴起,注意力是否已到尽头?

来自主题: AI技术研报
9118 点击    2024-02-17 12:03
语音生成的「智能涌现」:10万小时数据训练,亚马逊祭出10亿参数BASE TTS

语音生成的「智能涌现」:10万小时数据训练,亚马逊祭出10亿参数BASE TTS

语音生成的「智能涌现」:10万小时数据训练,亚马逊祭出10亿参数BASE TTS

伴随着生成式深度学习模型的飞速发展,自然语言处理(NLP)和计算机视觉(CV)已经经历了根本性的转变,从有监督训练的专门模型,转变为只需有限的明确指令就能完成各种任务的通用模型

来自主题: AI技术研报
4150 点击    2024-02-15 21:45