AI资讯新闻榜单内容搜索-Scaling

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Scaling
硅谷深思:GPT应用迟未爆发,大模型泡沫根源初探

硅谷深思:GPT应用迟未爆发,大模型泡沫根源初探

硅谷深思:GPT应用迟未爆发,大模型泡沫根源初探

2022年诞生的ChatGPT,已经在相当程度上实现了大模型的Scaling law(尺度定律)和通用能力涌现。

来自主题: AI资讯
3420 点击    2024-10-20 17:28
大模型步入「推理Scaling」时代,SambaNova如何挑战英伟达的霸主地位?

大模型步入「推理Scaling」时代,SambaNova如何挑战英伟达的霸主地位?

大模型步入「推理Scaling」时代,SambaNova如何挑战英伟达的霸主地位?

OpenAI o1 的发布,再次给 AI 领域带来了一场地震。 o1 能像人类一样「思考」复杂问题,拥有优秀的通用推理能力。在未经专门训练的情况下,o1 能够直接拿下数学奥赛金牌,甚至能在博士级别的科学问答环节上超越人类专家。

来自主题: AI资讯
3429 点击    2024-10-18 13:43
首个o1复现开源RL框架OpenR来了,UCL、上交等高校联合团队发布

首个o1复现开源RL框架OpenR来了,UCL、上交等高校联合团队发布

首个o1复现开源RL框架OpenR来了,UCL、上交等高校联合团队发布

o1 作为 OpenAI 在推理领域的最新模型,大幅度提升了 GPT-4o 在推理任务上的表现,甚至超过了平均人类水平。o1 背后的技术到底是什么?OpenAI 技术报告中所强调的强化学习和推断阶段的 Scaling Law 如何实现?

来自主题: AI技术研报
4412 点击    2024-10-14 15:37
NeurIPS 2024 | 大模型的词表大小,同样适用于Scaling Law

NeurIPS 2024 | 大模型的词表大小,同样适用于Scaling Law

NeurIPS 2024 | 大模型的词表大小,同样适用于Scaling Law

本文是一篇发表在 NeurIPS 2024 上的论文,单位是香港大学、Sea AI Lab、Contextual AI 和俄亥俄州立大学。论文主要探讨了大型语言模型(LLMs)的词表大小对模型性能的影响。

来自主题: AI技术研报
6226 点击    2024-10-11 13:55
单靠推理Scaling Law无法成就o1!无限推理token,GPT-4o依然完败

单靠推理Scaling Law无法成就o1!无限推理token,GPT-4o依然完败

单靠推理Scaling Law无法成就o1!无限推理token,GPT-4o依然完败

CoT铸就了o1推理王者。 它开创了一种推理scaling新范式——随着算力增加、更长响应时间,o1性能也随之增长。

来自主题: AI资讯
2483 点击    2024-09-29 16:56
当大模型Scaling Law继续,万卡集群算力释放在「百舸」这里找到一条通途

当大模型Scaling Law继续,万卡集群算力释放在「百舸」这里找到一条通途

当大模型Scaling Law继续,万卡集群算力释放在「百舸」这里找到一条通途

在电影《天下无贼》中,葛优扮演的黎叔有这样一句经典的台词,「二十一世纪什么最贵?人才!」而随着人工智能行业进入到大模型时代,这一问题的答案已然变成了「算力」。

来自主题: AI资讯
7493 点击    2024-09-25 20:12