谷歌大模型研究陷重大争议:训练数据之外完全无法泛化?网友:AGI奇点推迟了
谷歌大模型研究陷重大争议:训练数据之外完全无法泛化?网友:AGI奇点推迟了针对Transformer,谷歌DeepMind一项新的发现引起了不小争议: 它的泛化能力,无法扩展到训练数据以外的内容。
来自主题: AI技术研报
6842 点击 2023-11-11 17:50
针对Transformer,谷歌DeepMind一项新的发现引起了不小争议: 它的泛化能力,无法扩展到训练数据以外的内容。
DeepMind最新研究发现,只要模型设计上没有缺陷,决定模型性能的核心可能是训练计算量和数据。在相同计算量下,卷积神经网络模型和视觉Transformers模型的性能居然能旗鼓相当!
最近多模态大模型是真热闹啊。 这不,Transformer一作携团队也带来了新作,一个规模为80亿参数的多模态大模型Fuyu-8B
Cohere近期获得了2.7亿美元的C轮融资,累计融资额超过4.3亿美元,估值超过21亿美元。它的投资者名单中包括Salesforce、NVIDIA、Oracle这样的企业巨头,Tiger Global和Index Ventures等顶级投资机构,以及Geoffrey Hinton(深度学习三巨头,图灵奖获得者)、李飞飞等知名AI大牛。它的合作者还包括Amazon、麦肯锡等。