AI资讯新闻榜单内容搜索-Ai框架

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Ai框架
Sebastian Raschka 2026预测:Transformer统治依旧,但扩散模型正悄然崛起

Sebastian Raschka 2026预测:Transformer统治依旧,但扩散模型正悄然崛起

Sebastian Raschka 2026预测:Transformer统治依旧,但扩散模型正悄然崛起

站在 2026 年的开端回望,LLM 的架构之争似乎进入了一个新的微妙阶段。过去几年,Transformer 架构以绝对的统治力横扫了人工智能领域,但随着算力成本的博弈和对推理效率的极致追求,挑战者们从未停止过脚步。

来自主题: AI技术研报
8953 点击    2026-01-14 15:25
国产Nano Banana开源!用华为AI芯片训练,1张图只要1毛钱

国产Nano Banana开源!用华为AI芯片训练,1张图只要1毛钱

国产Nano Banana开源!用华为AI芯片训练,1张图只要1毛钱

今天,首个在国产芯片上完成全程训练的SOTA(最佳水平)多模态模型开源。这是智谱联合华为开源的图像生成模型GLM-Image。从数据到训练的全流程,该模型完全基于昇腾Atlas 800T A2设备和昇思MindSpore AI框架完成构建。

来自主题: AI资讯
9157 点击    2026-01-14 14:09
AI4S回归白盒符号主义,清华等联合发布SR-LLM:自主发现科学知识

AI4S回归白盒符号主义,清华等联合发布SR-LLM:自主发现科学知识

AI4S回归白盒符号主义,清华等联合发布SR-LLM:自主发现科学知识

清华大学等多所高校联合发布SR-LLM,这是一种融合大语言模型与深度强化学习的符号回归框架。它通过检索增强和语义推理,从数据中生成简洁、可解释的数学模型,显著优于现有方法。在跟车行为建模等任务中,SR-LLM不仅复现经典模型,还发现更优新模型,为机器自主科学发现开辟新路径。

来自主题: AI技术研报
9737 点击    2025-12-29 14:37
比Transformer更强的架构来了?浙大新作Translution,一统卷积和自注意力

比Transformer更强的架构来了?浙大新作Translution,一统卷积和自注意力

比Transformer更强的架构来了?浙大新作Translution,一统卷积和自注意力

近日,范鹤鹤(浙江大学)、杨易(浙江大学)、Mohan Kankanhalli(新加坡国立大学)和吴飞(浙江大学)四位老师提出了一种具有划时代意义的神经网络基础操作——Translution。 该研究认为,神经网络对某种类型数据建模的本质是:

来自主题: AI技术研报
8811 点击    2025-10-23 10:59
Mamba-3惊现AI顶会ICLR 2026!CMU知名华人教授一作首代工作AI圈爆红

Mamba-3惊现AI顶会ICLR 2026!CMU知名华人教授一作首代工作AI圈爆红

Mamba-3惊现AI顶会ICLR 2026!CMU知名华人教授一作首代工作AI圈爆红

曼巴回来了!Transformer框架最有力挑战者之一Mamba的最新进化版本Mamba-3来了,已进入ICLR 2026盲审环节,超长文本处理和低延时是其相对Transformer的显著优势。另一个挑战者是FBAM,从不同的角度探索Transformer的下一代框架。

来自主题: AI资讯
9291 点击    2025-10-13 14:34
具身智能能力狂飙,安全却严重滞后?首个安全可信EAI框架与路线图出炉!

具身智能能力狂飙,安全却严重滞后?首个安全可信EAI框架与路线图出炉!

具身智能能力狂飙,安全却严重滞后?首个安全可信EAI框架与路线图出炉!

近年来,以人形机器人、自动驾驶为代表的具身人工智能(Embodied Artificial Intelligence, EAI)正以前所未有的速度发展,从数字世界大步迈向物理现实。然而,当一次错误的风险不再是屏幕上的一行乱码,而是可能导致真实世界中的物理伤害时,一个紧迫的问题摆在了我们面前: 如何确保这些日益强大的具身智能体是安全且值得信赖的?

来自主题: AI技术研报
7127 点击    2025-09-17 14:33
KDD 2025 Best Paper Runner-Up | EI-BERT:超紧凑语言模型压缩框架

KDD 2025 Best Paper Runner-Up | EI-BERT:超紧凑语言模型压缩框架

KDD 2025 Best Paper Runner-Up | EI-BERT:超紧凑语言模型压缩框架

在移动计算时代,将高效的自然语言处理模型部署到资源受限的边缘设备上面临巨大挑战。这些场景通常要求严格的隐私合规、实时响应能力和多任务处理功能。

来自主题: AI技术研报
7694 点击    2025-08-23 11:47
硬核拆解大模型,从 DeepSeek-V3 到 Kimi K2 ,一文看懂 LLM 主流架构

硬核拆解大模型,从 DeepSeek-V3 到 Kimi K2 ,一文看懂 LLM 主流架构

硬核拆解大模型,从 DeepSeek-V3 到 Kimi K2 ,一文看懂 LLM 主流架构

自首次提出 GPT 架构以来,转眼已经过去了七年。 如果从 2019 年的 GPT-2 出发,回顾至 2024–2025 年的 DeepSeek-V3 和 LLaMA 4,不难发现一个有趣的现象:尽管模型能力不断提升,但其整体架构在这七年中保持了高度一致。

来自主题: AI技术研报
8527 点击    2025-08-08 11:52