AI资讯新闻榜单内容搜索-Transforme

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Transforme
Transformer作者初创公司最新成果:开源新框架突破进化计算瓶颈,样本效率暴涨数十倍

Transformer作者初创公司最新成果:开源新框架突破进化计算瓶颈,样本效率暴涨数十倍

Transformer作者初创公司最新成果:开源新框架突破进化计算瓶颈,样本效率暴涨数十倍

Transformer作者Llion Jones带着自己的初创公司Sakana AI,又来搞事情了。(doge)最新推出的开源框架——ShinkaEvolve,可以让LLM在自己写代码优化自己的同时,还能同时兼顾效率,be like为进化计算装上一个“加速引擎”。

来自主题: AI技术研报
7015 点击    2025-09-29 11:01
“iFold”,苹果AI新成果

“iFold”,苹果AI新成果

“iFold”,苹果AI新成果

起猛了,苹果怎么搞起跨界AI模型了??发布了一个基于流匹配的蛋白质折叠模型SimpleFold,被网友戏称为“iFold”。SimpleFold没有花里胡哨的专属模块设计,就靠通用的Transformer模块,搭配流匹配生成范式,3B参数版本追平了该领域顶流模型谷歌AlphaFold2的性能。

来自主题: AI资讯
7726 点击    2025-09-26 23:59
27亿美元天价回归!谷歌最贵「叛徒」、Transformer作者揭秘AGI下一步

27亿美元天价回归!谷歌最贵「叛徒」、Transformer作者揭秘AGI下一步

27亿美元天价回归!谷歌最贵「叛徒」、Transformer作者揭秘AGI下一步

在AI热潮中,大模型最「渴求」的究竟是什么?是算力、是存储,还是复杂的网络互联?在Hot Chips 2025 上,Transformer发明者之一、谷歌Gemini联合负责人Noam Shazeer给出了答案。

来自主题: AI资讯
6223 点击    2025-09-22 16:01
对Transformer说不!清华刘嘉:2045数字永生降临|新智元十年峰会

对Transformer说不!清华刘嘉:2045数字永生降临|新智元十年峰会

对Transformer说不!清华刘嘉:2045数字永生降临|新智元十年峰会

AGI真正降临那天,人类意识上传终获「数字永生」!它将模拟大脑每一次脉冲,预测世界每一种变迁,甚至重构灵魂本质。新智元十周年峰会上,清华刘嘉教授带来了一场思想盛宴。他从脑科学角度,深入解析AGI如何突破生物桎梏,开启无限的可能。

来自主题: AI资讯
8022 点击    2025-09-15 08:30
空间智能新高度:港科大谭平团队SAIL-Recon突破万帧级图像大规模3D场景重建Transformer

空间智能新高度:港科大谭平团队SAIL-Recon突破万帧级图像大规模3D场景重建Transformer

空间智能新高度:港科大谭平团队SAIL-Recon突破万帧级图像大规模3D场景重建Transformer

香港科技大学谭平教授团队与地平线(Horizon Robotics)团队最新发布了一项 3D 场景表征与大规模重建新方法 SAIL-Recon,通过锚点图建立构建场景全局隐式表征,突破现有 VGGT 基础模型对于大规模视觉定位与 3D 重建的处理能力瓶颈,实现万帧级的场景表征抽取与定位重建,将空间智能「3D 表征与建模」前沿推向一个新的高度。

来自主题: AI技术研报
6509 点击    2025-09-08 10:19
英伟达再出手!新型混合架构模型问世,两大创新实现53.6倍吞吐提速

英伟达再出手!新型混合架构模型问世,两大创新实现53.6倍吞吐提速

英伟达再出手!新型混合架构模型问世,两大创新实现53.6倍吞吐提速

Transformer 架构对计算和内存的巨大需求使得大模型效率的提升成为一大难题。为应对这一挑战,研究者们投入了大量精力来设计更高效的 LM 架构。

来自主题: AI技术研报
6365 点击    2025-08-27 11:46
刚刚,英伟达新模型上线!4B推理狂飙53倍,全新注意力架构超越Mamba 2

刚刚,英伟达新模型上线!4B推理狂飙53倍,全新注意力架构超越Mamba 2

刚刚,英伟达新模型上线!4B推理狂飙53倍,全新注意力架构超越Mamba 2

Jet-Nemotron是英伟达最新推出的小模型系列(2B/4B),由全华人团队打造。其核心创新在于提出后神经架构搜索(PostNAS)与新型线性注意力模块JetBlock,实现了从预训练Transformer出发的高效架构优化。

来自主题: AI技术研报
6643 点击    2025-08-26 19:34
Meta没做的,英伟达做了!全新架构吞吐量狂飙6倍,20万亿Token训练

Meta没做的,英伟达做了!全新架构吞吐量狂飙6倍,20万亿Token训练

Meta没做的,英伟达做了!全新架构吞吐量狂飙6倍,20万亿Token训练

英伟达发布全新架构9B模型,以Mamba-Transformer混合架构实现推理吞吐量最高提升6倍,对标Qwen3-8B并在数学、代码、推理与长上下文任务中表现持平或更优。

来自主题: AI资讯
6872 点击    2025-08-19 11:35