AI资讯新闻榜单内容搜索-上下文

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
搜索: 上下文
开源11天,马斯克再发Grok-1.5!128K代码击败GPT-4

开源11天,马斯克再发Grok-1.5!128K代码击败GPT-4

开源11天,马斯克再发Grok-1.5!128K代码击败GPT-4

【新智元导读】马斯克「搞笑」模型刚刚升级到Grok-1.5,推理性能暴涨,支持128k长上下文。最重要的是,Grok-1.5的数学和代码能力大幅提升。

来自主题: AI技术研报
8041 点击    2024-03-29 16:34
讨论下一个token预测时,我们可能正在走进陷阱

讨论下一个token预测时,我们可能正在走进陷阱

讨论下一个token预测时,我们可能正在走进陷阱

自香农在《通信的数学原理》一书中提出「下一个 token 预测任务」之后,这一概念逐渐成为现代语言模型的核心部分。最近,围绕下一个 token 预测的讨论日趋激烈。

来自主题: AI资讯
6413 点击    2024-03-25 17:05
32K上下文,Mistral 7B v0.2 基模型突然开源了

32K上下文,Mistral 7B v0.2 基模型突然开源了

32K上下文,Mistral 7B v0.2 基模型突然开源了

刚刚,Mistral AI 的模型又更新了。 这次开源一如既往地「突然」,是在一个叫做 Cerebral Valley 的黑客松活动上公布的。

来自主题: AI资讯
6155 点击    2024-03-24 21:39
AI大模型的长上下文,究竟意味着什么?

AI大模型的长上下文,究竟意味着什么?

AI大模型的长上下文,究竟意味着什么?

本文讨论了AI大模型的长上下文在生成式人工智能中的意义和影响。通过对Gemini 1.5和RAG技术的对比和分析,文章指出Gemini在处理长文档和长上下文方面表现出色,因此有人认为RAG技术已经过时。

来自主题: AI资讯
6147 点击    2024-03-20 09:02
清华NLP组发布InfLLM:无需额外训练,「1024K超长上下文」100%召回!

清华NLP组发布InfLLM:无需额外训练,「1024K超长上下文」100%召回!

清华NLP组发布InfLLM:无需额外训练,「1024K超长上下文」100%召回!

挖掘大模型固有的长文本理解能力,InfLLM在没有引入额外训练的情况下,利用一个外部记忆模块存储超长上下文信息,实现了上下文长度的扩展。

来自主题: AI技术研报
3993 点击    2024-03-11 17:31
陈丹琦团队新作:Llama-2上下文扩展至128k,10倍吞吐量仅需1/6内存

陈丹琦团队新作:Llama-2上下文扩展至128k,10倍吞吐量仅需1/6内存

陈丹琦团队新作:Llama-2上下文扩展至128k,10倍吞吐量仅需1/6内存

陈丹琦团队刚刚发布了一种新的LLM上下文窗口扩展方法:它仅用8k大小的token文档进行训练,就能将Llama-2窗口扩展至128k。

来自主题: AI技术研报
8956 点击    2024-02-29 13:27
200万上下文窗口创飞Gemini 1.5!微软来砸谷歌场子了(doge)

200万上下文窗口创飞Gemini 1.5!微软来砸谷歌场子了(doge)

200万上下文窗口创飞Gemini 1.5!微软来砸谷歌场子了(doge)

谷歌刚刷新大模型上下文窗口长度记录,发布支持100万token的Gemini 1.5,微软就来砸场子了。

来自主题: AI技术研报
6081 点击    2024-02-24 11:58
10M上下文,仅靠提示就掌握一门语言,Google Gemini 1.5被OpenAI抢头条是真冤

10M上下文,仅靠提示就掌握一门语言,Google Gemini 1.5被OpenAI抢头条是真冤

10M上下文,仅靠提示就掌握一门语言,Google Gemini 1.5被OpenAI抢头条是真冤

这两天,几乎整个AI圈的目光都被OpenAI发布Sora模型的新闻吸引了去。其实还有件事也值得关注,那就是Google继上周官宣Gemini 1.0 Ultra 后,火速推出下一代人工智能模型Gemini 1.5。

来自主题: AI资讯
8090 点击    2024-02-18 12:04