AI资讯新闻榜单内容搜索-128K

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 128K
马斯克掀桌子了,最强开源大模型诞生!Grok-2近万亿参数性能首曝

马斯克掀桌子了,最强开源大模型诞生!Grok-2近万亿参数性能首曝

马斯克掀桌子了,最强开源大模型诞生!Grok-2近万亿参数性能首曝

Grok-2正式开源,登上Hugging Face,9050亿参数+128k上下文有多猛?近万亿参数「巨兽」性能首曝。马斯克再现「超人」速度,AI帝国正在崛起。

来自主题: AI资讯
6725 点击    2025-08-24 14:02
实测DeepSeek V3.1,不止拓展上下文长度

实测DeepSeek V3.1,不止拓展上下文长度

实测DeepSeek V3.1,不止拓展上下文长度

DeepSeek V3.1和V3相比,到底有什么不同?官方说的模模糊糊,就提到了上下文长度拓展至128K和支持多种张量格式,但别急,我们已经上手实测,为你奉上更多新鲜信息。

来自主题: AI产品测评
7600 点击    2025-08-21 10:49
DeepSeek V3.1 Base突袭上线!击败Claude 4编程爆表,全网在蹲R2和V4

DeepSeek V3.1 Base突袭上线!击败Claude 4编程爆表,全网在蹲R2和V4

DeepSeek V3.1 Base突袭上线!击败Claude 4编程爆表,全网在蹲R2和V4

DeepSeek V3.1新版正式上线,上下文128k,编程实力碾压Claude 4 Opus,成本低至1美元。在昨晚,DeepSeek官方悄然上线了全新的V3.1版本,上下文长度拓展到128k。本次开源的V3.1模型拥有685B参数,支持多种精度格式,从BF16到FP8。

来自主题: AI资讯
6533 点击    2025-08-20 12:56
刚刚DeepSeek发布3.1版本,实测有进步,在编程等个别场景可硬刚GPT-5

刚刚DeepSeek发布3.1版本,实测有进步,在编程等个别场景可硬刚GPT-5

刚刚DeepSeek发布3.1版本,实测有进步,在编程等个别场景可硬刚GPT-5

没等到Deepseek R2,DeepSeek悄悄更新了V 3.1。官方群放出的消息就提了一点,上下文长度拓展至128K。128K也是GPT-4o这一代模型的处理Token的长度。因此一开始,鲸哥以为从V3升级到V 3.1,以为是不大的升级,鲸哥体验下来还有惊喜。

来自主题: AI资讯
8050 点击    2025-08-20 03:37
多模态长文本理解测评首发:46款模型无一攻克128K难关

多模态长文本理解测评首发:46款模型无一攻克128K难关

多模态长文本理解测评首发:46款模型无一攻克128K难关

来自香港科技大学、腾讯西雅图AI Lab、爱丁堡大学、Miniml.AI、英伟达的研究者联合提出了MMLongBench,旨在全面评估多模态模型的长文本理解能力。

来自主题: AI技术研报
7304 点击    2025-05-23 14:52
ICML 2025 | 长视频理解新SOTA!蚂蚁&人大开源ViLAMP-7B,单卡可处理3小时视频

ICML 2025 | 长视频理解新SOTA!蚂蚁&人大开源ViLAMP-7B,单卡可处理3小时视频

ICML 2025 | 长视频理解新SOTA!蚂蚁&人大开源ViLAMP-7B,单卡可处理3小时视频

在视觉语言模型(Vision-Language Models,VLMs)取得突破性进展的当下,长视频理解的挑战显得愈发重要。以标准 24 帧率的标清视频为例,仅需数分钟即可产生逾百万的视觉 token,这已远超主流大语言模型 4K-128K 的上下文处理极限。

来自主题: AI技术研报
5198 点击    2025-05-13 08:54
400万token新SOTA!英伟达UIUC联手:兼顾长短上下文顶尖性能

400万token新SOTA!英伟达UIUC联手:兼顾长短上下文顶尖性能

400万token新SOTA!英伟达UIUC联手:兼顾长短上下文顶尖性能

来自英伟达和UIUC的华人团队提出一种高效训练方法,将LLM上下文长度从128K扩展至惊人的400万token SOTA纪录!基于Llama3.1-Instruct打造的UltraLong-8B模型,不仅在长上下文基准测试中表现卓越,还在标准任务中保持顶尖竞争力。

来自主题: AI技术研报
7044 点击    2025-05-01 13:54