AI资讯新闻榜单内容搜索-模型

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
搜索: 模型
用 AI 做了一次真正的深度研究,才明白什么叫降维打击

用 AI 做了一次真正的深度研究,才明白什么叫降维打击

用 AI 做了一次真正的深度研究,才明白什么叫降维打击

1、深度研究实际场景 2、深度研究是什么,它用了什么能力? 3、在深度研究上,AI 为啥比人强这么多? 4、哪些问题,值得用深度研究方式来做? 5、怎样用好深度研究,保持结果的稳定性? 6、各类深度研究产品的特点以及使用技巧?

来自主题: AI技术研报
5875 点击    2025-06-05 16:06
大模型公司挖墙脚哪家强?报告:Anthropic人才吸引力是OpenAI的8倍,留存率达80%

大模型公司挖墙脚哪家强?报告:Anthropic人才吸引力是OpenAI的8倍,留存率达80%

大模型公司挖墙脚哪家强?报告:Anthropic人才吸引力是OpenAI的8倍,留存率达80%

大模型公司挖墙脚哪家强,Anthropic才是最大赢家?不仅顶尖AI人才的留存率达到80%,而且工程师从OpenAI跳槽到Anthropic的可能性是从Anthropic转投OpenAI的8倍。

来自主题: AI资讯
6693 点击    2025-06-05 15:11
ICML 2025|趣丸研发新型人脸动画技术,声音+指令精准控制表情

ICML 2025|趣丸研发新型人脸动画技术,声音+指令精准控制表情

ICML 2025|趣丸研发新型人脸动画技术,声音+指令精准控制表情

本研究由广州趣丸科技团队完成,团队长期致力于 AI 驱动的虚拟人生成与交互技术,相关成果已应用于游戏、影视及社交场景

来自主题: AI技术研报
6873 点击    2025-06-05 14:55
OpenAI久违发了篇「正经」论文:线性布局实现高效张量计算

OpenAI久违发了篇「正经」论文:线性布局实现高效张量计算

OpenAI久违发了篇「正经」论文:线性布局实现高效张量计算

OpenAI 发论文的频率是越来越低了,如果你看到了一份来自 OpenAI 的新 PDF 文件,那多半也是新模型的系统卡或相关增补文件或基准测试,很少有新的研究论文。

来自主题: AI资讯
6616 点击    2025-06-05 14:33
开启 AI 自主进化时代,普林斯顿Alita颠覆传统通用智能体,GAIA榜单引来终章

开启 AI 自主进化时代,普林斯顿Alita颠覆传统通用智能体,GAIA榜单引来终章

开启 AI 自主进化时代,普林斯顿Alita颠覆传统通用智能体,GAIA榜单引来终章

智能体技术日益发展,但现有的许多通用智能体仍然高度依赖于人工预定义好的工具库和工作流,这极大限制了其创造力、可扩展性与泛化能力。

来自主题: AI技术研报
5916 点击    2025-06-05 11:50
10步优化超越强化学习,仅需1条未标注数据!后训练强势破局

10步优化超越强化学习,仅需1条未标注数据!后训练强势破局

10步优化超越强化学习,仅需1条未标注数据!后训练强势破局

无监督的熵最小化(EM)方法仅需一条未标注数据和约10步优化,就能显著提升大模型在推理任务上的表现,甚至超越依赖大量数据和复杂奖励机制的强化学习(RL)。EM通过优化模型的预测分布,增强其对正确答案的置信度,为大模型后训练提供了一种更高效简洁的新思路。

来自主题: AI技术研报
6356 点击    2025-06-05 11:43
RMoA残差提取Mixture-of-Agents,让Agent发现新东西,并自适应停止「ACL2025」

RMoA残差提取Mixture-of-Agents,让Agent发现新东西,并自适应停止「ACL2025」

RMoA残差提取Mixture-of-Agents,让Agent发现新东西,并自适应停止「ACL2025」

如果你正在开发Agent产品,一定听过或用过Mixture-of-Agents(MoA)架构。这个让多个AI模型协作解决复杂问题的框架,理论上能够集众家之长,实际使用中却让人又爱又恨:

来自主题: AI技术研报
4662 点击    2025-06-05 10:47
GPT-4o连验证码都解不了??SOTA模型成功率仅40%

GPT-4o连验证码都解不了??SOTA模型成功率仅40%

GPT-4o连验证码都解不了??SOTA模型成功率仅40%

当前最强多模态Agent连验证码都解不了?

来自主题: AI技术研报
6757 点击    2025-06-05 10:39
英伟达揭示RL Scaling魔力!训练步数翻倍=推理能力质变,小模型突破推理极限

英伟达揭示RL Scaling魔力!训练步数翻倍=推理能力质变,小模型突破推理极限

英伟达揭示RL Scaling魔力!训练步数翻倍=推理能力质变,小模型突破推理极限

强化学习(RL)到底是语言模型能力进化的「发动机」,还是只是更努力地背题、换个方式答题?这个问题,学界争论已久:RL 真能让模型学会新的推理技能吗,还是只是提高了已有知识的调用效率?

来自主题: AI技术研报
6208 点击    2025-06-05 10:27