# 热门搜索 #
搜索
搜索: Transforme
用上这个工具包,大模型推理性能加速达40倍

只需不到9行代码,就能在CPU上实现出色的LLM推理性能。英特尔® Extension for Transformer创新工具包中的LLM Runtime为诸多模型显著降低时延,且首个token和下一个token的推理速度分别提升多达40倍和2.68倍,还能满足更多场景应用需求。

来自主题: AI技术研报
3368 点击    2023-11-30 19:10
简化版Transformer来了,网友:年度论文

Transformer 架构可以说是近期深度学习领域许多成功案例背后的主力军。构建深度 Transformer 架构的一种简单方法是将多个相同的 Transformer 「块」(block)依次堆叠起来,但每个「块」都比较复杂,由许多不同的组件组成,需要以特定的排列组合才能实现良好的性能。

来自主题: AI技术研报
6632 点击    2023-11-28 14:44
Hinton和LeCun再交锋,激辩LLM能否引发智能奇点!LeCun:人类理解能力碾压GPT-4

大模型能否理解自己所说,Hinton和LeCun再次吵起来了。LeCun新论文证明,GPT-4回答问题准确率仅为15%,自回归模型不及人类。AI大佬的激战再次掀起。Hinton在线直接点名LeCun,说他对AI接管风险的看法对人类的影响微乎其微。 这意味着,他把自己的意见看得很重,而把许多其他同样有资格的专家的意见看得很轻

来自主题: AI技术研报
6628 点击    2023-11-26 19:30
卷积网络又行了?DeepMind推翻Transformer最强传说,LeCun怒赞

DeepMind最新研究发现,只要模型设计上没有缺陷,决定模型性能的核心可能是训练计算量和数据。在相同计算量下,卷积神经网络模型和视觉Transformers模型的性能居然能旗鼓相当!

来自主题: AI技术研报
5705 点击    2023-10-29 10:24
Transformer论文作者如何与非典型华人创业者联合打造20亿美元的AI独角兽?

Cohere近期获得了2.7亿美元的C轮融资,累计融资额超过4.3亿美元,估值超过21亿美元。它的投资者名单中包括Salesforce、NVIDIA、Oracle这样的企业巨头,Tiger Global和Index Ventures等顶级投资机构,以及Geoffrey Hinton(深度学习三巨头,图灵奖获得者)、李飞飞等知名AI大牛。它的合作者还包括Amazon、麦肯锡等。

来自主题: AI资讯
4627 点击    2023-09-22 09:41