AI资讯新闻榜单内容搜索-Transforme

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Transforme
GPT在模仿人类?Nature发现:大脑才是最早的Transformer!

GPT在模仿人类?Nature发现:大脑才是最早的Transformer!

GPT在模仿人类?Nature发现:大脑才是最早的Transformer!

我们以为语言是语法、规则、结构。但最新的Nature研究却撕开了这层幻觉。GPT的层级结构与竟与人大脑里的「时间印记」一模一样。当浅层、中层、深层在脑中依次点亮,我们第一次看见:理解语言,也许从来不是解析,而是预测。

来自主题: AI技术研报
8744 点击    2025-12-12 09:39
谷歌祭出Transformer杀手,8年首次大突破!掌门人划出AGI死线

谷歌祭出Transformer杀手,8年首次大突破!掌门人划出AGI死线

谷歌祭出Transformer杀手,8年首次大突破!掌门人划出AGI死线

谷歌DeepMind掌门人断言,2030年AGI必至!不过,在此之前,还差1-2个「Transformer级」核爆突破。恰在NeurIPS大会上,谷歌甩出下一代Transformer最强继任者——Titans架构。

来自主题: AI技术研报
10082 点击    2025-12-08 08:59
谷歌新架构突破Transformer超长上下文瓶颈!Hinton灵魂拷问:后悔Open吗?

谷歌新架构突破Transformer超长上下文瓶颈!Hinton灵魂拷问:后悔Open吗?

谷歌新架构突破Transformer超长上下文瓶颈!Hinton灵魂拷问:后悔Open吗?

两项关于大模型新架构的研究一口气在NeurIPS 2025上发布,通过“测试时训练”机制,能在推理阶段将上下文窗口扩展至200万token。两项新成果分别是:Titans:兼具RNN速度和Transformer性能的全新架构;MIRAS:Titans背后的核心理论框架。

来自主题: AI技术研报
6871 点击    2025-12-06 11:10
AGI新路径!谷歌神作!NIPS大会现场谷歌新模型架构被疯狂围观:模型本身就是记忆系统!网友:Transformer到头了

AGI新路径!谷歌神作!NIPS大会现场谷歌新模型架构被疯狂围观:模型本身就是记忆系统!网友:Transformer到头了

AGI新路径!谷歌神作!NIPS大会现场谷歌新模型架构被疯狂围观:模型本身就是记忆系统!网友:Transformer到头了

当地时间12月4日下午,谷歌研究员的一篇论文在现场引来了超多AI爱好者的围观。甚至,被业界专家视为“为AGI发展提供了新框架”,一位人士评价为:这篇论文将成为逐步推动实现AGI的5~10篇论文中的一篇。

来自主题: AI资讯
7639 点击    2025-12-05 14:45
英伟达拿出推理版VLA:Alpamayo-R1让自动驾驶AI更会动脑子

英伟达拿出推理版VLA:Alpamayo-R1让自动驾驶AI更会动脑子

英伟达拿出推理版VLA:Alpamayo-R1让自动驾驶AI更会动脑子

当今自动驾驶模型越来越强大,摄像头、雷达、Transformer 网络一齐上阵,似乎什么都「看得见」。但真正的挑战在于:模型能否像人一样「想明白」为什么要这么开?

来自主题: AI技术研报
7488 点击    2025-12-02 09:19
中兴发了一篇论文,洞察AI更前沿的探索方向

中兴发了一篇论文,洞察AI更前沿的探索方向

中兴发了一篇论文,洞察AI更前沿的探索方向

当大模型参数量冲向万亿级,GPT-4o、Llama4 等模型不断刷新性能上限时,AI 行业也正面临前所未有的瓶颈。Transformer 架构效率低、算力消耗惊人、与物理世界脱节等问题日益凸显,通用人工智能(AGI)的实现路径亟待突破。

来自主题: AI技术研报
7025 点击    2025-11-26 13:47
NeurIPS 2025 Spotlight | 中国联通以全局优化重塑扩散模型加速

NeurIPS 2025 Spotlight | 中国联通以全局优化重塑扩散模型加速

NeurIPS 2025 Spotlight | 中国联通以全局优化重塑扩散模型加速

当前,视频生成模型性能正在快速提升,尤其是基于Transformer架构的DiT模型,在视频生成领域的表现已经逐渐接近真实拍摄效果。然而,这些扩散模型也面临一个共同的瓶颈:推理时间长、算力成本高、生成速度难以提升。随着视频生成长度持续增加、分辨率不断提高,这个瓶颈正在成为影响视频创作体验的主要障碍之一。

来自主题: AI技术研报
7526 点击    2025-11-26 13:46
NeurIPS 2025 Spotlight | 香港大学提出无需数据标记的ViT密集表征增强方法

NeurIPS 2025 Spotlight | 香港大学提出无需数据标记的ViT密集表征增强方法

NeurIPS 2025 Spotlight | 香港大学提出无需数据标记的ViT密集表征增强方法

在视觉处理任务中,Vision Transformers(ViTs)已发展成为主流架构。然而,近期研究表明,ViT 模型的密集特征中会出现部分与局部语义不一致的伪影(artifact),进而削弱模型在精细定位类任务中的性能表现。因此,如何在不耗费大量计算资源的前提下,保留 ViT 模型预训练核心信息并消除密集特征中的伪影?

来自主题: AI技术研报
7523 点击    2025-11-20 09:33