AI资讯新闻榜单内容搜索-模型

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 模型
GPT-5编程专用版发布!独立连续编程7小时,简单任务提速10倍,VS Code就能用

GPT-5编程专用版发布!独立连续编程7小时,简单任务提速10倍,VS Code就能用

GPT-5编程专用版发布!独立连续编程7小时,简单任务提速10倍,VS Code就能用

OpenAI Codex编程智能体大升级: 推出GPT-5-Codex特化版模型,支持独立连续编程7个小时。还有IDE插件版,在VS Code、Cursor中都可以使用Codex了。新模型最牛的地方在于“真·动态思考”能力。

来自主题: AI资讯
11101 点击    2025-09-16 09:31
马斯克的最快AI模型来了

马斯克的最快AI模型来了

马斯克的最快AI模型来了

最强不敢说,但最快实锤了! 刚刚,xAI发布Grok 4 Fast,生成速度高达每秒75个 token,比标准版快10倍! 从下面的动图中,我们可以直观地看出差距——当左边的Grok 4还在说“让我想一下的时候”,Grok 4 Fast已经在说:“下一个问题是什么了。”

来自主题: AI资讯
9395 点击    2025-09-15 23:15
为什么说现在所有的 AI Agent,都像 3D 打印机?|AI 上新

为什么说现在所有的 AI Agent,都像 3D 打印机?|AI 上新

为什么说现在所有的 AI Agent,都像 3D 打印机?|AI 上新

GPT-5 的发布,可以看作是一个分水岭。练习时长两年半的 GPT-5,并没有展现出和 GPT-4 本质上的差别,甚至因为模型的预设人格引发了用户的反感情绪。

来自主题: AI资讯
9193 点击    2025-09-15 16:12
腾讯混元升级AI绘画微调范式,在整个扩散轨迹上优化,人工评估分数提升300%

腾讯混元升级AI绘画微调范式,在整个扩散轨迹上优化,人工评估分数提升300%

腾讯混元升级AI绘画微调范式,在整个扩散轨迹上优化,人工评估分数提升300%

让AI生成的图像更符合人类精细偏好,在32块H20上训练10分钟就能收敛。腾讯混元新方法让微调的FLUX1.dev模型人工评估的真实感和美学评分提高3倍以上。

来自主题: AI技术研报
8523 点击    2025-09-15 15:51
用光学生成图像,几乎0耗电,浙大校友一作研究登Nature

用光学生成图像,几乎0耗电,浙大校友一作研究登Nature

用光学生成图像,几乎0耗电,浙大校友一作研究登Nature

见过省电的模型,但这么省电的,还是第一次见。 在 《自然》 杂志发表的一篇论文中,加州大学洛杉矶分校 Shiqi Chen 等人描述了一种几乎不消耗电量的 AI 图像生成器的开发。

来自主题: AI技术研报
8765 点击    2025-09-15 15:47
LLaSO 横空出世:逻辑智能推出全球首个完全开源语音大模型框架,定义 LSLM 研究新基准

LLaSO 横空出世:逻辑智能推出全球首个完全开源语音大模型框架,定义 LSLM 研究新基准

LLaSO 横空出世:逻辑智能推出全球首个完全开源语音大模型框架,定义 LSLM 研究新基准

北京深度逻辑智能科技有限公司推出了 LLaSO—— 首个完全开放、端到端的语音语言模型研究框架。LLaSO 旨在为整个社区提供一个统一、透明且可复现的基础设施,其贡献是 “全家桶” 式的,包含了一整套开源的数据、基准和模型,希望以此加速 LSLM 领域的社区驱动式创新。

来自主题: AI技术研报
8084 点击    2025-09-15 08:39
谢菲尔德大学:模型幻觉的数学必然性

谢菲尔德大学:模型幻觉的数学必然性

谢菲尔德大学:模型幻觉的数学必然性

幻觉不是 bug,是数学上的宿命。 谢菲尔德大学的最新研究证明,大语言模型的幻觉问题在数学上不可避免—— 即使用完美的训练数据也无法根除。 而更为扎心的是,OpenAI 提出的置信度阈值方案虽能减少幻

来自主题: AI技术研报
9992 点击    2025-09-15 08:34
将KV Cache预算降至1.5%!他们用进化算法把大模型内存占用砍下来了

将KV Cache预算降至1.5%!他们用进化算法把大模型内存占用砍下来了

将KV Cache预算降至1.5%!他们用进化算法把大模型内存占用砍下来了

只用 1.5% 的内存预算,性能就能超越使用完整 KV cache 的模型,这意味着大语言模型的推理成本可以大幅降低。EvolKV 的这一突破为实际部署中的内存优化提供了全新思路。

来自主题: AI技术研报
7863 点击    2025-09-15 08:33
扩散语言模型有MoE版了!蚂蚁&人大从头训练LLaDA-MoE,将完全开源

扩散语言模型有MoE版了!蚂蚁&人大从头训练LLaDA-MoE,将完全开源

扩散语言模型有MoE版了!蚂蚁&人大从头训练LLaDA-MoE,将完全开源

挑战自回归的扩散语言模型刚刚迎来了一个新里程碑:蚂蚁集团和人大联合团队用 20T 数据,从零训练出了业界首个原生 MoE 架构扩散语言模型 LLaDA-MoE。该模型虽然激活参数仅 1.4B,但性能可以比肩参数更多的自回归稠密模型 Qwen2.5-3B,而且推理速度更快。这为扩散语言模型的技术可行性提供了关键验证。

来自主题: AI技术研报
9353 点击    2025-09-15 08:30
Meta开源MobileLLM-R1模型,不到1B参数,用1/10的训练就超越了Qwen3

Meta开源MobileLLM-R1模型,不到1B参数,用1/10的训练就超越了Qwen3

Meta开源MobileLLM-R1模型,不到1B参数,用1/10的训练就超越了Qwen3

本周五,Meta AI 团队正式发布了 MobileLLM-R1。 这是 MobileLLM 的全新高效推理模型系列,包含两类模型:基础模型 MobileLLM-R1-140M-base、MobileLLM-R1-360M-base、MobileLLM-R1-950M-base 和它们相应的最终模型版。

来自主题: AI技术研报
9315 点击    2025-09-14 11:16