AI资讯新闻榜单内容搜索-128K

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 128K
微软首个多模态Phi-4问世,56亿参数秒杀GPT-4o!LoRA华人大佬带队

微软首个多模态Phi-4问世,56亿参数秒杀GPT-4o!LoRA华人大佬带队

微软首个多模态Phi-4问世,56亿参数秒杀GPT-4o!LoRA华人大佬带队

Phi-4系列模型上新了!56亿参数Phi-4-multimodal集语音、视觉、文本多模态于一体,读图推理性能碾压GPT-4o;另一款38亿参数Phi-4-mini在推理、数学、编程等任务中超越了参数更大的LLM,支持128K token上下文。

来自主题: AI技术研报
5252 点击    2025-02-28 14:11
传统PC巨头IBM发布了最新的Granite3.1模型,跑分超过Llama3.1、Qwen2.5 和谷歌的 Gemma2

传统PC巨头IBM发布了最新的Granite3.1模型,跑分超过Llama3.1、Qwen2.5 和谷歌的 Gemma2

传统PC巨头IBM发布了最新的Granite3.1模型,跑分超过Llama3.1、Qwen2.5 和谷歌的 Gemma2

IBM 正式发布了其新一代开源大语言模型 Granite 3.1,这是一组轻量级、先进的开源基础模型,支持多语言、代码生成、推理和工具使用,能够在有限的计算资源上运行。这一系列模型具备 128K 的扩展上下文长度、嵌入模型、内置的幻觉检测功能以及性能的显著提升。

来自主题: AI资讯
8708 点击    2024-12-25 09:57
“不发模型、不上新功能”的OpenAI DevDay,开发者们还能期待啥

“不发模型、不上新功能”的OpenAI DevDay,开发者们还能期待啥

“不发模型、不上新功能”的OpenAI DevDay,开发者们还能期待啥

去年,OpenAI在旧金山举办了一场引发业界轰动的开发者大会(DevDay 2023),推出了一系列新产品和工具,包括支持128K上下文的GPT-4 Turbo,API价格下调,新的Assistants API,具备视觉功能的GPT-4 Turbo,DALL·E 3 API,以及大幅改进的JSON模型,还有命运多舛的GPTs和类App Store平台GPT Store。

来自主题: AI资讯
5461 点击    2024-10-01 14:04
大模型长文本阅读能力如何评估?

大模型长文本阅读能力如何评估?

大模型长文本阅读能力如何评估?

长文本处理能力对LLM的重要性是显而易见的。在2023年初,即便是当时最先进的GPT-3.5,其上下文长度也仅限于2k,然而今日,128k的上下文长度已经成为衡量模型技术先进性的重要标志之一。那你知道LLMs的长文本阅读能力如何评估吗?

来自主题: AI资讯
6777 点击    2024-08-14 11:25
LLM上下文窗口突破200万!无需架构变化+复杂微调,轻松扩展8倍

LLM上下文窗口突破200万!无需架构变化+复杂微调,轻松扩展8倍

LLM上下文窗口突破200万!无需架构变化+复杂微调,轻松扩展8倍

大型语言模型(LLM)往往会追求更长的「上下文窗口」,但由于微调成本高、长文本稀缺以及新token位置引入的灾难值(catastrophic values)等问题,目前模型的上下文窗口大多不超过128k个token

来自主题: AI技术研报
7831 点击    2024-04-29 20:31
极长序列、极快速度:面向新一代高效大语言模型的LASP序列并行

极长序列、极快速度:面向新一代高效大语言模型的LASP序列并行

极长序列、极快速度:面向新一代高效大语言模型的LASP序列并行

从国际顶流 GPT-4 128K、Claude 200K 到国内「当红炸子鸡」支持 200 万字上下文的 Kimi Chat,大语言模型(LLM)在长上下文技术上不约而同地卷起来了

来自主题: AI技术研报
5615 点击    2024-04-16 18:08
开源11天,马斯克再发Grok-1.5!128K代码击败GPT-4

开源11天,马斯克再发Grok-1.5!128K代码击败GPT-4

开源11天,马斯克再发Grok-1.5!128K代码击败GPT-4

【新智元导读】马斯克「搞笑」模型刚刚升级到Grok-1.5,推理性能暴涨,支持128k长上下文。最重要的是,Grok-1.5的数学和代码能力大幅提升。

来自主题: AI技术研报
8372 点击    2024-03-29 16:34