AI资讯新闻榜单内容搜索-Ash

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Ash
谷歌掀语音Agent新纪元!开口就是生产力,Siri的最强外挂来了?

谷歌掀语音Agent新纪元!开口就是生产力,Siri的最强外挂来了?

谷歌掀语音Agent新纪元!开口就是生产力,Siri的最强外挂来了?

昨日凌晨,谷歌正式推出其最高质量的音频和语音模型——实时语音模型Gemini 3.1 Flash Live,并在Gemini App、Search Live以及Google AI Studio中同步开放,其中后者以预览版本向开发者提供。

来自主题: AI资讯
10131 点击    2026-03-27 14:41
速递|可观测性赛道诞生新黑马,Dash0融资1.1亿美元,估值达10亿美元,用OpenTelemetry挑战Datadog

速递|可观测性赛道诞生新黑马,Dash0融资1.1亿美元,估值达10亿美元,用OpenTelemetry挑战Datadog

速递|可观测性赛道诞生新黑马,Dash0融资1.1亿美元,估值达10亿美元,用OpenTelemetry挑战Datadog

Dash0 已在一轮由Balderton Capital 领投的融资中筹集了 1.1 亿美元,估值达到 10 亿美元,以将其用于检测软件系统问题的监控平台拓展至美国全境。

来自主题: AI资讯
9585 点击    2026-03-24 17:22
ICLR 2026|原生多模态推理新范式ThinkMorph ,让文字与图像在统一架构中共同演化

ICLR 2026|原生多模态推理新范式ThinkMorph ,让文字与图像在统一架构中共同演化

ICLR 2026|原生多模态推理新范式ThinkMorph ,让文字与图像在统一架构中共同演化

NUS、ZJU、UW、Stanford、CUHK 联合提出 「ThinkMorph」,主张让文字与图像在统一架构里「原生协作」、「共同演化」,而不是像当下大多数多模态模型那样,看完图像就闭上眼睛,后续完全靠文字链条推进。仅用 2.4 万条数据微调 7B 统一模型,视觉推理平均提升 34.74%,多项任务比肩甚至超越 GPT-4o 和 Gemini 2.5 Flash。

来自主题: AI技术研报
6579 点击    2026-03-11 09:22
基础模型又一关键拼图,腾讯混元发布训练新范式「无相」:引入功能性记忆,打破静态权重枷锁

基础模型又一关键拼图,腾讯混元发布训练新范式「无相」:引入功能性记忆,打破静态权重枷锁

基础模型又一关键拼图,腾讯混元发布训练新范式「无相」:引入功能性记忆,打破静态权重枷锁

3月6日,腾讯混元发布了一篇名为“HY-WU (Part I): An Extensible Functional Neural Memory Framework and An Instantiation in Text-Guided Image Editing”的技术报告。提出了一种崭新的功能性记忆(functional neural memory)范式(weight unleashing),

来自主题: AI技术研报
8617 点击    2026-03-07 11:08
FlashAttention-4正式发布:算法流水线大改,矩阵乘法级速度

FlashAttention-4正式发布:算法流水线大改,矩阵乘法级速度

FlashAttention-4正式发布:算法流水线大改,矩阵乘法级速度

近日,深度学习领域重要底层优化技术 FlashAttention 迎来大版本更新。FlashAttention 核心作者、普林斯顿大学助理教授 Tri Dao 表示,在 Blackwell GPU 上,即使瓶颈截然不同,注意力机制的执行速度现在也几乎与矩阵乘法一样快了!

来自主题: AI技术研报
9714 点击    2026-03-06 15:30
谷歌、OpenAI同日发布模型,一个最快最具性价比,一个主打「人情味」

谷歌、OpenAI同日发布模型,一个最快最具性价比,一个主打「人情味」

谷歌、OpenAI同日发布模型,一个最快最具性价比,一个主打「人情味」

深夜,两大科技巨头谷歌和 OpenAI 硬刚起来,相继推出了新版本大模型,分别是 Gemini 3.1 Flash-Lite、GPT‑5.3 Instant。

来自主题: AI资讯
6128 点击    2026-03-04 14:37
为什么BF16的FlashAttention会把训练「炸掉」?清华首次给出机制解释,用极简改动稳住训练

为什么BF16的FlashAttention会把训练「炸掉」?清华首次给出机制解释,用极简改动稳住训练

为什么BF16的FlashAttention会把训练「炸掉」?清华首次给出机制解释,用极简改动稳住训练

一句话总结:社区里困扰了多年的一个 “玄学” 现象终于被拆解清楚了:在 BF16 等低精度训练里,FlashAttention 不是随机出 bug,而是会在特定条件下触发有方向的数值偏置,借助注意力中涌现的相似低秩更新方向被持续放大,最终把权重谱范数和激活推到失控,导致 loss 突然爆炸。论文还给出一个几乎不改模型、只在 safe softmax 里做的极小修改,实测能显著稳定训练。

来自主题: AI技术研报
6317 点击    2026-03-04 13:49