AI资讯新闻榜单内容搜索-模型训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 模型训练
Meta为他豪掷2亿美元,上交校友庞若鸣,晒出在苹果的最新论文

Meta为他豪掷2亿美元,上交校友庞若鸣,晒出在苹果的最新论文

Meta为他豪掷2亿美元,上交校友庞若鸣,晒出在苹果的最新论文

庞若鸣,苹果基础模型团队负责人、杰出工程师,即将成为 Meta 新成立的超级智能团队的最新成员。他本科毕业于上海交通大学,在谷歌工作了 15 年,此后加入苹果。另据彭博社最新消息,Meta 更是开出了 2 亿美金的天价来邀请庞若鸣加入。

来自主题: AI技术研报
6168 点击    2025-07-11 16:15
LLM「拒绝回答」难题有救了!最新研究让AI学会人情世故 | COLM'25

LLM「拒绝回答」难题有救了!最新研究让AI学会人情世故 | COLM'25

LLM「拒绝回答」难题有救了!最新研究让AI学会人情世故 | COLM'25

最新研究发现,模型的规模和通用语言能力与其处理敏感内容的判断能力并无直接关联,甚至开源模型表现的更好。

来自主题: AI技术研报
8240 点击    2025-07-11 16:10
无需CUDA代码给H100加速33%-50%,Flash Attention作者新作火了

无需CUDA代码给H100加速33%-50%,Flash Attention作者新作火了

无需CUDA代码给H100加速33%-50%,Flash Attention作者新作火了

无需CUDA代码,给H100加速33%-50%! Flash Attention、Mamba作者之一Tri Dao的新作火了。

来自主题: AI技术研报
8207 点击    2025-07-11 16:06
真实科研水平集体不及格!全新基准SFE给主流多模态LLM来了波暴击

真实科研水平集体不及格!全新基准SFE给主流多模态LLM来了波暴击

真实科研水平集体不及格!全新基准SFE给主流多模态LLM来了波暴击

当前,驱动科学研究的人工智能(AI for Science,AI4S)在单点取得了可观的进展,实现了工具层面的革新,然而要成为「革命的工具」,需要采用「通专融合 AGI」方式。

来自主题: AI技术研报
8220 点击    2025-07-11 10:51
推理与操控能力双提升!具身机器人双系统VLA模型新突破

推理与操控能力双提升!具身机器人双系统VLA模型新突破

推理与操控能力双提升!具身机器人双系统VLA模型新突破

让机器人学会聪明且快速精准执行,一直是机器人操控领域的难题。为了解决这个问题,香港中文大学、北京大学、智平方和北京智源研究院联合创新性地提出了Fast-in-Slow(FiS-VLA),即一个统一的双系统VLA模型。

来自主题: AI技术研报
6516 点击    2025-07-11 10:46
复杂Agent怎么设计?IBM用一个YAML,性能提升4倍| ICML 2025

复杂Agent怎么设计?IBM用一个YAML,性能提升4倍| ICML 2025

复杂Agent怎么设计?IBM用一个YAML,性能提升4倍| ICML 2025

您有没有遇到过这样的场景:为了调试一个LLM应用的效果,您需要在一大堆Python代码中翻找那些零散的提示词字符串?每次想要A/B测试不同的提示时,就像在做开颅手术一样小心翼翼。

来自主题: AI技术研报
7867 点击    2025-07-11 10:31
单向VLM变双向!人大斯坦福等提出MoCa框架:双向多模态编码器

单向VLM变双向!人大斯坦福等提出MoCa框架:双向多模态编码器

单向VLM变双向!人大斯坦福等提出MoCa框架:双向多模态编码器

MoCa框架把单向视觉语言模型转化为双向多模态嵌入模型,通过持续预训练和异构对比微调,提升模型性能和泛化能力,在多模态基准测试中表现优异,尤其小规模模型性能突出。

来自主题: AI技术研报
8257 点击    2025-07-11 10:09
揭秘Cursor、Perplexity、Lovable的技术内幕:为什么它们都选择"反框架"路线

揭秘Cursor、Perplexity、Lovable的技术内幕:为什么它们都选择"反框架"路线

揭秘Cursor、Perplexity、Lovable的技术内幕:为什么它们都选择"反框架"路线

你有没有想过,为什么 Cursor、v0、Perplexity、Lovable、Bold 这些服务数百万用户的顶级 AI agent 产品,竟然都有一个惊人的共同点?它们全部都不是基于任何 AI 框架构建的。

来自主题: AI资讯
8137 点击    2025-07-10 13:20
大模型「越用越快」!SpeedupLLM首次验证,大降56%推理预算

大模型「越用越快」!SpeedupLLM首次验证,大降56%推理预算

大模型「越用越快」!SpeedupLLM首次验证,大降56%推理预算

LLM用得越久,速度越快!Emory大学提出SpeedupLLM框架,利用动态计算资源分配和记忆机制,使LLM在处理相似任务时推理成本降低56%,准确率提升,为AI模型发展提供新思路。

来自主题: AI技术研报
4740 点击    2025-07-10 12:30