AI资讯新闻榜单内容搜索-模型训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 模型训练
文本-图像全局对比对齐与 Token-Patch 级别的局部对齐

文本-图像全局对比对齐与 Token-Patch 级别的局部对齐

文本-图像全局对比对齐与 Token-Patch 级别的局部对齐

最近,我们团队的一位工程师在研究类 ColPali 模型时,受到启发,用新近发布的 jina-clip-v2 模型做了个颇具洞察力的可视化实验。

来自主题: AI资讯
8816 点击    2025-01-10 10:48
引领人机交互革命?微软研究团队发布80页的大模型GUI智能体综述

引领人机交互革命?微软研究团队发布80页的大模型GUI智能体综述

引领人机交互革命?微软研究团队发布80页的大模型GUI智能体综述

图形用户界面(Graphical User Interface, GUI)作为数字时代最具代表性的创新之一,大幅简化了人机交互的复杂度。

来自主题: AI技术研报
7686 点击    2025-01-09 14:39
验证码卷到噩梦难度,Next.js作者用AI打造DOOM挑战,三杀通关才算人类

验证码卷到噩梦难度,Next.js作者用AI打造DOOM挑战,三杀通关才算人类

验证码卷到噩梦难度,Next.js作者用AI打造DOOM挑战,三杀通关才算人类

不知这是极大地提高了网站的安全性,还是成功地把人类拒绝于网站“门外”? 在使用 App、网页应用时,你有没有遇到过这样的情况:一个验证窗口突然跳出来,要求你完成某个任务,证明“你是人类,而不是机器人”?

来自主题: AI资讯
7351 点击    2025-01-09 11:27
企业Multi-Agent协作通用框架设计揭秘,突破90%成功率,AWS最新

企业Multi-Agent协作通用框架设计揭秘,突破90%成功率,AWS最新

企业Multi-Agent协作通用框架设计揭秘,突破90%成功率,AWS最新

随着大语言模型(LLM)技术的快速发展,单一AI智能体已经展现出强大的问题解决能力。然而,在面对复杂的企业级应用场景时,单一智能体的能力往往显得捉襟见肘。

来自主题: AI技术研报
4636 点击    2025-01-09 10:28
老婆饼里没有老婆,RLHF里也没有真正的RL

老婆饼里没有老婆,RLHF里也没有真正的RL

老婆饼里没有老婆,RLHF里也没有真正的RL

老婆饼里没有老婆,夫妻肺片里没有夫妻,RLHF 里也没有真正的 RL。在最近的一篇博客中,德克萨斯大学奥斯汀分校助理教授 Atlas Wang 分享了这样一个观点。

来自主题: AI资讯
7378 点击    2025-01-09 09:41
「小模型」有更多机会点

「小模型」有更多机会点

「小模型」有更多机会点

大厂为什么追求大模型? 昨天有提到,为什么要研究语言模型。

来自主题: AI资讯
6232 点击    2025-01-08 14:50
AAAI 2025 | 大模型推理加速新范式:加速比高达3.51倍、成本降至1/3

AAAI 2025 | 大模型推理加速新范式:加速比高达3.51倍、成本降至1/3

AAAI 2025 | 大模型推理加速新范式:加速比高达3.51倍、成本降至1/3

Falcon 方法是一种增强半自回归投机解码框架,旨在增强 draft model 的并行性和输出质量,以有效提升大模型的推理速度。Falcon 可以实现约 2.91-3.51 倍的加速比,在多种数据集上获得了很好的结果,并已应用到翼支付多个实际业务中。

来自主题: AI技术研报
6175 点击    2025-01-08 14:38
1/10训练数据超越GPT-4o!清华等提出隐式过程奖励模型PRIME,在线刷SOTA

1/10训练数据超越GPT-4o!清华等提出隐式过程奖励模型PRIME,在线刷SOTA

1/10训练数据超越GPT-4o!清华等提出隐式过程奖励模型PRIME,在线刷SOTA

1/10训练数据激发高级推理能力!近日,来自清华的研究者提出了PRIME,通过隐式奖励来进行过程强化,提高了语言模型的推理能力,超越了SFT以及蒸馏等方法。

来自主题: AI技术研报
2801 点击    2025-01-08 11:12
陈丹琦团队降本大法又来了:数据砍掉三分之一,性能却完全不减

陈丹琦团队降本大法又来了:数据砍掉三分之一,性能却完全不减

陈丹琦团队降本大法又来了:数据砍掉三分之一,性能却完全不减

陈丹琦团队又带着他们的降本大法来了—— 数据砍掉三分之一,大模型性能却完全不减。 他们引入了元数据,加速了大模型预训练的同时,也不增加单独的计算开销。

来自主题: AI资讯
6736 点击    2025-01-08 09:56