AI资讯新闻榜单内容搜索-CLIP

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: CLIP
苹果端侧AI两连发!模型体积减半、首字延迟降85倍,iPhone离线秒用

苹果端侧AI两连发!模型体积减半、首字延迟降85倍,iPhone离线秒用

苹果端侧AI两连发!模型体积减半、首字延迟降85倍,iPhone离线秒用

苹果在 Hugging Face上放大招了!这次直接甩出两条多模态主线:FastVLM主打「快」,字幕能做到秒回;MobileCLIP2主打「轻」,在 iPhone 上也能起飞。更妙的是,模型和Demo已经全开放,Safari网页就能体验。大模型,真·跑上手机了。

来自主题: AI资讯
6609 点击    2025-09-08 11:34
苹果最新模型,5年前的iPhone能跑

苹果最新模型,5年前的iPhone能跑

苹果最新模型,5年前的iPhone能跑

智东西9月1日消息,苹果又公布了大模型研发新进展! 8月28日,苹果在arXiv发布新论文,介绍新一代多模态基础模型MobileCLIP2及其背后的多模态强化训练机制,同天在GitHub、Hugging Face上开源了模型的预训练权重和数据生成代码。

来自主题: AI技术研报
5816 点击    2025-09-02 11:04
让强化学习快如闪电:FlashRL一条命令实现极速Rollout,已全部开源

让强化学习快如闪电:FlashRL一条命令实现极速Rollout,已全部开源

让强化学习快如闪电:FlashRL一条命令实现极速Rollout,已全部开源

在今年三月份,清华 AIR 和字节联合 SIA Lab 发布了 DAPO,即 Decoupled Clip and Dynamic sAmpling Policy Optimization(解耦剪辑和动态采样策略优化)。

来自主题: AI技术研报
6314 点击    2025-08-13 11:27
超CLIP准确率11%!伯克利港大阐明「LLM文本-视觉」对齐深层机制

超CLIP准确率11%!伯克利港大阐明「LLM文本-视觉」对齐深层机制

超CLIP准确率11%!伯克利港大阐明「LLM文本-视觉」对齐深层机制

多模态对齐模型借助对比学习在检索与生成任务中大放异彩。最新趋势是用冻结的大语言模型替换自训文本编码器,从而在长文本与大数据场景中降低算力成本。LIFT首次系统性地剖析了此范式的优势来源、数据适配性、以及关键设计选择,在组合语义理解与长文本任务上观察到大幅提升。

来自主题: AI技术研报
6195 点击    2025-07-03 11:00
一亿美金种子轮,Genesis AI刷新硅谷具身智能融资记录!周衔、许臻佳、李旻辰等华人合伙创业

一亿美金种子轮,Genesis AI刷新硅谷具身智能融资记录!周衔、许臻佳、李旻辰等华人合伙创业

一亿美金种子轮,Genesis AI刷新硅谷具身智能融资记录!周衔、许臻佳、李旻辰等华人合伙创业

最近,硅谷的一家新成立的名叫「Genesis AI」的公司吸引了我们的注意,他们在最近的种子轮融资中拿到了 1.05 亿美元。据外媒 TechCrunch 报道,这轮融资由美国顶级风投机构 Khosla Ventures、Eclipse 联合领投。前者是 OpenAI 的最早的机构投资者,后者是特斯拉产业背景团队机器人赛道的专业机构。

来自主题: AI资讯
9265 点击    2025-07-02 09:30
AI一眼认出95万物种,还能分辨雄雌老幼,2亿生物图像炼成“生命视觉”大模型

AI一眼认出95万物种,还能分辨雄雌老幼,2亿生物图像炼成“生命视觉”大模型

AI一眼认出95万物种,还能分辨雄雌老幼,2亿生物图像炼成“生命视觉”大模型

让AI看懂95万物种,并自己悟出生态关系与个体差异!俄亥俄州立大学研究团队在2亿生物图像数据上训练了BioCLIP 2模型。大规模的训练让BioCLIP 2取得了目前最优的物种识别性能。

来自主题: AI技术研报
5783 点击    2025-06-29 16:59
10行代码,AIME24/25提高15%!揭秘大模型强化学习熵机制

10行代码,AIME24/25提高15%!揭秘大模型强化学习熵机制

10行代码,AIME24/25提高15%!揭秘大模型强化学习熵机制

Nature never undertakes any change unless her interests are served by an increase in entropy. 自然界的任何变化,唯有在熵增符合其利益时方会发生——Max Planck

来自主题: AI技术研报
4701 点击    2025-06-06 12:08
360开源高质量图文对齐数据集!收纳1200万张图像+1000万组细粒度负样本,让模型告别“图文不符”

360开源高质量图文对齐数据集!收纳1200万张图像+1000万组细粒度负样本,让模型告别“图文不符”

360开源高质量图文对齐数据集!收纳1200万张图像+1000万组细粒度负样本,让模型告别“图文不符”

如何让CLIP模型更关注细粒度特征学习,避免“近视”?360人工智能研究团队提出了FG-CLIP,可以明显缓解CLIP的“视觉近视”问题。让模型能更关注于正确的细节描述,而不是更全局但是错误的描述。

来自主题: AI技术研报
8103 点击    2025-06-02 15:17
想去哪就去哪!FindAnything:基于CLIP的开放词汇三维建图,实现真正的“按需探索”

想去哪就去哪!FindAnything:基于CLIP的开放词汇三维建图,实现真正的“按需探索”

想去哪就去哪!FindAnything:基于CLIP的开放词汇三维建图,实现真正的“按需探索”

在复杂、未知的现实环境中,传统导航方法往往依赖闭集语义或事先构建的地图,难以实现真正的“按需探索”。为打破这一瓶颈,本文提出了 FindAnything ——一套融合视觉语言模型的对象为中心、开放词汇三维建图与探索系统。

来自主题: AI技术研报
5223 点击    2025-05-06 10:23