AI资讯新闻榜单内容搜索-数据

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 数据
ICCV 2025 | 基于时序增强关系敏感知识迁移的弱监督动态场景图生成

ICCV 2025 | 基于时序增强关系敏感知识迁移的弱监督动态场景图生成

ICCV 2025 | 基于时序增强关系敏感知识迁移的弱监督动态场景图生成

本文主要介绍来自该团队的最新论文:TRKT,该任务针对弱监督动态场景图任务展开研究,发现目前的性能瓶颈在场景中目标检测的质量,因为外部预训练的目标检测器在需要考虑关系信息和时序上下文的场景图视频数据上检测结果欠佳。

来自主题: AI技术研报
6516 点击    2025-09-05 11:18
通用LLM压缩算法,居然藏视频编码里!2.5bit实现4bit性能,硬件无缝支持

通用LLM压缩算法,居然藏视频编码里!2.5bit实现4bit性能,硬件无缝支持

通用LLM压缩算法,居然藏视频编码里!2.5bit实现4bit性能,硬件无缝支持

LLM.265研究发现,视频编码器本身就是一种高效的大模型张量编码器。原本用于播放8K视频的现成视频编解码硬件,其实压缩AI模型数据的效率也非常高,甚至超过了许多专门为AI开发的方案。该工作已被世界微架构大会MICRO-2025正式接收,相关成果将于今年10月在首尔进行展示与讨论。

来自主题: AI技术研报
6011 点击    2025-09-05 10:14
大模型“记性差一点”反而更聪明!金鱼损失随机剔除token,让AI不再死记硬背

大模型“记性差一点”反而更聪明!金鱼损失随机剔除token,让AI不再死记硬背

大模型“记性差一点”反而更聪明!金鱼损失随机剔除token,让AI不再死记硬背

训练大模型时,有时让它“记性差一点”,反而更聪明! 大语言模型如果不加约束,很容易把训练数据原封不动地复刻出来。为解决这个问题,来自马里兰大学、图宾根大学和马普所的研究团队提出了一个新方法——金鱼损失(Goldfish Loss)。

来自主题: AI资讯
5733 点击    2025-09-04 11:33
你的RAG系统有个数学BUG,DeepMind首次证明嵌入向量检索召回能力有限

你的RAG系统有个数学BUG,DeepMind首次证明嵌入向量检索召回能力有限

你的RAG系统有个数学BUG,DeepMind首次证明嵌入向量检索召回能力有限

最近,工业界“RAG已死”甚嚣尘上。过去几年,AI领域的主旋律是“规模定律”(Scaling Law),即更大的模型、更多的数据会带来更好的性能。即便偶然有瑕疵,也认为只是工程上的不足,并非数学上的不可能。

来自主题: AI技术研报
7780 点击    2025-09-03 11:54
苹果最新模型,5年前的iPhone能跑

苹果最新模型,5年前的iPhone能跑

苹果最新模型,5年前的iPhone能跑

智东西9月1日消息,苹果又公布了大模型研发新进展! 8月28日,苹果在arXiv发布新论文,介绍新一代多模态基础模型MobileCLIP2及其背后的多模态强化训练机制,同天在GitHub、Hugging Face上开源了模型的预训练权重和数据生成代码。

来自主题: AI技术研报
5816 点击    2025-09-02 11:04
刚刚,OpenAI把1GW超算中心直接给了印度!奥特曼即将亲赴三哥办事处

刚刚,OpenAI把1GW超算中心直接给了印度!奥特曼即将亲赴三哥办事处

刚刚,OpenAI把1GW超算中心直接给了印度!奥特曼即将亲赴三哥办事处

OpenAI计划在印度建设至少1GW规模的数据中心,这是「星际之门」计划首次大规模进入亚洲。印度之所以重要,不仅因其庞大的用户增长潜力与低价特供服务,还因多语言应用场景。奥特曼虽淡出CEO角色,却亲自推动全球算力布局,印度成为其展现野心的关键起点。

来自主题: AI资讯
7991 点击    2025-09-02 10:33
深度|成立一年再获数千万融资,坚持结果交付,坚持端对端多智能体

深度|成立一年再获数千万融资,坚持结果交付,坚持端对端多智能体

深度|成立一年再获数千万融资,坚持结果交付,坚持端对端多智能体

近期,AI营销公司橙果视界(PhotoG母公司)宣布完成数千万元新一轮融资,由云天使基金领投,力合创投和金沙江联合资本跟投。本轮融资将用于进一步扩大行业数据规模,推进垂直行业后训练模型迭代,进一步加快全链路营销智能体在多行业的业务落地,持续探索能感知、决策、创造并执行的商业大脑。

来自主题: AI资讯
6704 点击    2025-09-01 15:06
独家|美团刚刚开源的龙猫大模型,其训练时未使用英伟达GPU。

独家|美团刚刚开源的龙猫大模型,其训练时未使用英伟达GPU。

独家|美团刚刚开源的龙猫大模型,其训练时未使用英伟达GPU。

昨天,美团低调地开源了其560B参数的混合专家(MoE)模型——LongCat-Flash。 一时间,大家的目光都被吸引了过去,行业内的讨论大多围绕着它在公开基准测试中媲美顶尖模型的性能数据,以及其精巧的MoE架构设计。

来自主题: AI资讯
6896 点击    2025-09-01 11:59
最后通牒!Claude聊天/代码「默认」全喂AI训练,你的隐私能被用5年

最后通牒!Claude聊天/代码「默认」全喂AI训练,你的隐私能被用5年

最后通牒!Claude聊天/代码「默认」全喂AI训练,你的隐私能被用5年

近日,Anthropic更新了它的消费者条款,没想竟把网友惹怒了,有的还把以往的「旧账」都翻了出来。这次网友的反应为啥这么激烈?大家可能还记得在Claude上线之初,Anthropic就坚决表示不会拿用户数据来训练模型。这次变化不仅自己打脸,还把以往一些「背刺」用户的往事都抖搂出来了。

来自主题: AI资讯
7317 点击    2025-08-31 13:31
你的怀疑是对的!LLM作为Judge,既无效又不可靠,终于有论文向LLJ开炮了

你的怀疑是对的!LLM作为Judge,既无效又不可靠,终于有论文向LLJ开炮了

你的怀疑是对的!LLM作为Judge,既无效又不可靠,终于有论文向LLJ开炮了

让LMM作为Judge,从对模型的性能评估到数据标注再到模型的训练和对齐流程,让AI来评判AI,这种模式几乎已经是当前学术界和工业界的常态。

来自主题: AI资讯
6199 点击    2025-08-31 12:20