AI资讯新闻榜单内容搜索-scaling

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
搜索: scaling
Is Scaling All You Need? LLM收益递减,AI小厂难活命

Is Scaling All You Need? LLM收益递减,AI小厂难活命

Is Scaling All You Need? LLM收益递减,AI小厂难活命

在GPT-4发布后14.5个月里,LLM领域似乎已经没什么进步了?近日,马库斯的一句话引发了全网论战。大模型烧钱却不赚钱,搞AI的公司表示:难办!

来自主题: AI资讯
6603 点击    2024-06-21 14:14
四位大模型创业者聊 AGI、Scaling Law 和价格战

四位大模型创业者聊 AGI、Scaling Law 和价格战

四位大模型创业者聊 AGI、Scaling Law 和价格战

什么是 AGI?大模型和 Scaling Law 是其实现基座吗?怎么看价格战?四家大模型公司给出了自己的答案。

来自主题: AI资讯
7177 点击    2024-06-16 11:19
Scaling Law触礁「数据墙」?Epoch AI发文预测LLM到2028年耗尽所有文本数据

Scaling Law触礁「数据墙」?Epoch AI发文预测LLM到2028年耗尽所有文本数据

Scaling Law触礁「数据墙」?Epoch AI发文预测LLM到2028年耗尽所有文本数据

训练数据的数量和质量,对LLM性能的重要性已经是不言自明的事实。然而,Epoch AI近期的一篇论文却给正在疯狂扩展的AI模型们泼了冷水,他们预测,互联网上可用的人类文本数据将在四年后,即2028年耗尽。

来自主题: AI技术研报
9355 点击    2024-06-15 16:20
腾讯混元、北大发现Scaling law「浪涌现象」,解决学习率调参难题

腾讯混元、北大发现Scaling law「浪涌现象」,解决学习率调参难题

腾讯混元、北大发现Scaling law「浪涌现象」,解决学习率调参难题

过去十年间,基于随机梯度下降(SGD)的深度学习模型在许多领域都取得了极大的成功。与此同时各式各样的 SGD 替代品也如雨后春笋般涌现。在这些众多替代品中,Adam 及其变种最受追捧。无论是 SGD,还是 Adam,亦或是其他优化器,最核心的超参数非 Learning rate 莫属。因此如何调整好 Leanring rate 是炼丹师们从一开始就必学的技能。

来自主题: AI技术研报
7096 点击    2024-06-05 22:57
不同数据集有不同的Scaling law?而你可用一个压缩算法来预测它

不同数据集有不同的Scaling law?而你可用一个压缩算法来预测它

不同数据集有不同的Scaling law?而你可用一个压缩算法来预测它

一般而言,训练神经网络耗费的计算量越大,其性能就越好。在扩大计算规模时,必须要做个决定:是增多模型参数量还是提升数据集大小 —— 必须在固定的计算预算下权衡此两项因素。

来自主题: AI技术研报
6241 点击    2024-06-03 17:55
对话田渊栋:Scaling law代表一个非常悲观的未来

对话田渊栋:Scaling law代表一个非常悲观的未来

对话田渊栋:Scaling law代表一个非常悲观的未来

Scaling law发展到最后,可能每个人都站在一个数据孤岛上。

来自主题: AI资讯
7086 点击    2024-06-03 17:23