AI资讯新闻榜单内容搜索-LLM

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: LLM
谁说大象不能起舞! 重编程大语言模型实现跨模态交互的时序预测 | ICLR 2024

谁说大象不能起舞! 重编程大语言模型实现跨模态交互的时序预测 | ICLR 2024

谁说大象不能起舞! 重编程大语言模型实现跨模态交互的时序预测 | ICLR 2024

近,来自澳大利亚蒙纳士大学、蚂蚁集团、IBM 研究院等机构的研究人员探索了模型重编程 (model reprogramming) 在大语言模型 (LLMs) 上应用,并提出了一个全新的视角

来自主题: AI技术研报
7899 点击    2024-04-14 13:07
谷歌:假如AI大模型支持无限长上下文,会如何?

谷歌:假如AI大模型支持无限长上下文,会如何?

谷歌:假如AI大模型支持无限长上下文,会如何?

为解决大模型(LLMs)在处理超长输入序列时遇到的内存限制问题,本文作者提出了一种新型架构:Infini-Transformer,它可以在有限内存条件下,让基于Transformer的大语言模型(LLMs)高效处理无限长的输入序列。实验结果表明:Infini-Transformer在长上下文语言建模任务上超越了基线模型,内存最高可节约114倍。

来自主题: AI资讯
8955 点击    2024-04-14 11:32
MIT等首次深度研究「集成LLM」预测能力:可媲美人类群体准确率

MIT等首次深度研究「集成LLM」预测能力:可媲美人类群体准确率

MIT等首次深度研究「集成LLM」预测能力:可媲美人类群体准确率

在实践中,人类预测的准确性依赖于「群体智慧」(wisdom of the crowd)效应,即通过聚集一群个体预测者,对未来事件的预测准确率会显著提高

来自主题: AI资讯
6453 点击    2024-04-13 14:53
XAI有什么用?探索LLM时代利用可解释性的10种策略

XAI有什么用?探索LLM时代利用可解释性的10种策略

XAI有什么用?探索LLM时代利用可解释性的10种策略

近日,来自佐治亚大学、新泽西理工学院、弗吉尼亚大学、维克森林大学、和腾讯 AI Lab 的研究者联合发布了解释性技术在大语言模型(LLM)上的可用性综述,提出了 「Usable XAI」 的概念,并探讨了 10 种在大模型时代提高 XAI 实际应用价值的策略。

来自主题: AI资讯
6674 点击    2024-04-11 21:19
为什么要纯C语言手搓GPT-2,Karpathy回应网友质疑

为什么要纯C语言手搓GPT-2,Karpathy回应网友质疑

为什么要纯C语言手搓GPT-2,Karpathy回应网友质疑

一个仅用 1000 行代码即可在 CPU/fp32 上实现 GPT-2 训练的项目「llm.c」

来自主题: AI资讯
6468 点击    2024-04-11 20:53
腾讯大模型落地实操:模型推理引擎 TACO-LLM 的实践、腾讯乐享的 AI 功能探索

腾讯大模型落地实操:模型推理引擎 TACO-LLM 的实践、腾讯乐享的 AI 功能探索

腾讯大模型落地实操:模型推理引擎 TACO-LLM 的实践、腾讯乐享的 AI 功能探索

大模型在今年的落地,除了对用 AI 对已有业务进行改造和提效外,算力和推理的优化,可能是另外一项重要的实践了。这在腾讯的两个完全不同的业务上有着明显的体现。

来自主题: AI资讯
11225 点击    2024-04-10 21:12
Llama架构比不上GPT2?神奇token提升10倍记忆?

Llama架构比不上GPT2?神奇token提升10倍记忆?

Llama架构比不上GPT2?神奇token提升10倍记忆?

近日,朱泽园 (Meta AI) 和李远志 (MBZUAI) 的最新研究《语言模型物理学 Part 3.3:知识的 Scaling Laws》用海量实验(50,000 条任务,总计 4,200,000 GPU 小时)总结了 12 条定律,为 LLM 在不同条件下的知识容量提供了较为精确的计量方法。

来自主题: AI资讯
5465 点击    2024-04-10 19:11