AI资讯新闻榜单内容搜索-Ash

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Ash
训练时间减半,性能不降反升!腾讯混元开源图像生成高效强化方案MixGRPO

训练时间减半,性能不降反升!腾讯混元开源图像生成高效强化方案MixGRPO

训练时间减半,性能不降反升!腾讯混元开源图像生成高效强化方案MixGRPO

图像生成不光要好看,更要高效。 混元基础模型团队提出全新框架MixGRPO,该框架通过结合随机微分方程(SDE)和常微分方程(ODE),利用混合采样策略的灵活性,简化了MDP中的优化流程,从而提升了效率的同时还增强了性能。

来自主题: AI技术研报
7831 点击    2025-08-03 13:37
无需CUDA代码给H100加速33%-50%,Flash Attention作者新作火了

无需CUDA代码给H100加速33%-50%,Flash Attention作者新作火了

无需CUDA代码给H100加速33%-50%,Flash Attention作者新作火了

无需CUDA代码,给H100加速33%-50%! Flash Attention、Mamba作者之一Tri Dao的新作火了。

来自主题: AI技术研报
10073 点击    2025-07-11 16:06
Claude高阶玩法泄露!Reddit高赞帖:别只会对AI说“帮我修这个 bug”,老手都在配置现成指令库!网友:指挥AI是关键

Claude高阶玩法泄露!Reddit高赞帖:别只会对AI说“帮我修这个 bug”,老手都在配置现成指令库!网友:指挥AI是关键

Claude高阶玩法泄露!Reddit高赞帖:别只会对AI说“帮我修这个 bug”,老手都在配置现成指令库!网友:指挥AI是关键

大多数人还在输入一句“帮我修这个 bug”,然后疑惑为什么 Claude 回答得四不像、效率低得离谱。 而另一些“老手”已经用上了 slash command,把一个原本要手动操作 45 分钟的流程,缩短到 2 分钟内自动完成。

来自主题: AI资讯
7461 点击    2025-07-09 12:23
清华第三代Sage注意力发布!提速5倍,精度不降,训推都能用

清华第三代Sage注意力发布!提速5倍,精度不降,训推都能用

清华第三代Sage注意力发布!提速5倍,精度不降,训推都能用

清华大学朱军教授团队提出SageAttention3,利用FP4量化实现推理加速,比FlashAttention快5倍,同时探索了8比特注意力用于训练任务的可行性,在微调中实现了无损性能。

来自主题: AI技术研报
7963 点击    2025-07-08 12:08
这个扩散LLM太快了!没有「请稍后」,实测倍速于Gemini 2.5 Flash

这个扩散LLM太快了!没有「请稍后」,实测倍速于Gemini 2.5 Flash

这个扩散LLM太快了!没有「请稍后」,实测倍速于Gemini 2.5 Flash

只需一眨眼的功夫,Mercury 就把任务完成了。「我们非常高兴地推出 Mercury,这是首款专为聊天应用量身定制的商业级扩散 LLM!Mercury 速度超快,效率超高,能够为对话带来实时响应,就像 Mercury Coder 为代码带来的体验一样。」

来自主题: AI技术研报
6883 点击    2025-06-28 13:01
刚刚,Gemini 2.5系列模型更新,最新轻量版Flash-Lite竟能实时编写操作系统

刚刚,Gemini 2.5系列模型更新,最新轻量版Flash-Lite竟能实时编写操作系统

刚刚,Gemini 2.5系列模型更新,最新轻量版Flash-Lite竟能实时编写操作系统

刚刚,Gemini 系列模型迎来了一波更新:Gemini 2.5 Pro 稳定版发布且已全面可用,其与 6 月 5 日的预览版相比无变化。新推出了 Gemini 2.5 Flash-Lite 并已开启预览。

来自主题: AI资讯
9065 点击    2025-06-18 09:50
让整个X玩疯了的Veo3,到底怎么样?【附测试提示词】

让整个X玩疯了的Veo3,到底怎么样?【附测试提示词】

让整个X玩疯了的Veo3,到底怎么样?【附测试提示词】

大家好,我是袋鼠帝 还记得前两天Google IO大会上他们发布的最新视频模型Veo3吗 它可以根据提示自动添加环境音效、背景噪声、音乐和对话,并与画面完美同步 而且生成的视频相当炸裂,已经让我有点分不清虚幻与现实了 比如这位推特大神(Hashem Al-Ghaili)用Veo3制作的视频,相当🐂🍺

来自主题: AI资讯
6220 点击    2025-05-26 10:52
帮大模型提速80%,华为拿出昇腾推理杀手锏FlashComm,三招搞定通算瓶颈

帮大模型提速80%,华为拿出昇腾推理杀手锏FlashComm,三招搞定通算瓶颈

帮大模型提速80%,华为拿出昇腾推理杀手锏FlashComm,三招搞定通算瓶颈

在今年 2 月的 DeepSeek 开源周中,大模型推理过程中并行策略和通信效率的深度优化成为重点之一。在今年 2 月的 DeepSeek 开源周中,大模型推理过程中并行策略和通信效率的深度优化成为重点之一。

来自主题: AI技术研报
7648 点击    2025-05-23 10:18