AI资讯新闻榜单内容搜索-AWS

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: AWS
自动提示词优化系统综述,APO被AWS定义为5个部分 | 最新

自动提示词优化系统综述,APO被AWS定义为5个部分 | 最新

自动提示词优化系统综述,APO被AWS定义为5个部分 | 最新

本文是对亚马逊AWS研究团队最新发表的APO(自动提示词优化)技术综述的深度解读。该研究由Kiran Ramnath、Kang Zhou等21位来自AWS的资深研究者共同完成,团队成员来自不同技术背景,涵盖了机器学习、自然语言处理、系统优化等多个专业领域。

来自主题: AI技术研报
5285 点击    2025-02-28 10:11
70年AI研究得出了《苦涩的教训》:为什么说AI创业也在重复其中的错误?

70年AI研究得出了《苦涩的教训》:为什么说AI创业也在重复其中的错误?

70年AI研究得出了《苦涩的教训》:为什么说AI创业也在重复其中的错误?

Ilya Sutskever 在 NeurIPS 会上直言:大模型预训练这条路可能已经走到头了。上周的 CES 2025,黄仁勋有提到,在英伟达看来,Scaling Laws 仍在继续,所有新 RTX 显卡都在遵循三个新的扩展维度:预训练、后训练和测试时间(推理),提供了更佳的实时视觉效果。

来自主题: AI技术研报
4228 点击    2025-02-05 13:38
原生融合多模态上的突破,让商汤大模型打破Scaling Laws撞墙「魔咒」

原生融合多模态上的突破,让商汤大模型打破Scaling Laws撞墙「魔咒」

原生融合多模态上的突破,让商汤大模型打破Scaling Laws撞墙「魔咒」

下一代 AI 的发展,似乎遇到了难以逾越的瓶颈。去年 12 月,OpenAI 在 ChatGPT 两周年期间连续发布了 12 天,我们期待的新一代大模型 GPT-5 却从头到尾没有踪影。

来自主题: AI资讯
6077 点击    2025-01-22 10:45
大模型量化训练极限在哪?腾讯混元提出低比特浮点数训练Scaling Laws

大模型量化训练极限在哪?腾讯混元提出低比特浮点数训练Scaling Laws

大模型量化训练极限在哪?腾讯混元提出低比特浮点数训练Scaling Laws

大模型低精度训练和推理是大模型领域中的重要研究方向,旨在通过降低模型精度来减少计算和存储成本,同时保持模型的性能。因为在大模型研发成本降低上的巨大价值而受到行业广泛关注 。

来自主题: AI技术研报
3946 点击    2025-01-17 11:07
从清华休学到百万融资, 他用AI打开Kpop粉丝经济新世界

从清华休学到百万融资, 他用AI打开Kpop粉丝经济新世界

从清华休学到百万融资, 他用AI打开Kpop粉丝经济新世界

本期专访我们有幸邀请到了Poppaws.AI的CEO何东阳,跟我们分享他如何从清华休学到成为AI创业者,最终拿到数百万投资的成长故事

来自主题: AI资讯
7885 点击    2025-01-14 10:04
企业Multi-Agent协作通用框架设计揭秘,突破90%成功率,AWS最新

企业Multi-Agent协作通用框架设计揭秘,突破90%成功率,AWS最新

企业Multi-Agent协作通用框架设计揭秘,突破90%成功率,AWS最新

随着大语言模型(LLM)技术的快速发展,单一AI智能体已经展现出强大的问题解决能力。然而,在面对复杂的企业级应用场景时,单一智能体的能力往往显得捉襟见肘。

来自主题: AI技术研报
4507 点击    2025-01-09 10:28
清华、智谱团队:探索 RLHF 的 scaling laws

清华、智谱团队:探索 RLHF 的 scaling laws

清华、智谱团队:探索 RLHF 的 scaling laws

目前关于 RLHF 的 scaling(扩展)潜力研究仍然相对缺乏,尤其是在模型大小、数据组成和推理预算等关键因素上的影响尚未被系统性探索。 针对这一问题,来自清华大学与智谱的研究团队对 RLHF 在 LLM 中的 scaling 性能进行了全面研究,并提出了优化策略。

来自主题: AI技术研报
8730 点击    2024-12-24 14:56