AI资讯新闻榜单内容搜索-Llama3.1

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Llama3.1
400万token新SOTA!英伟达UIUC联手:兼顾长短上下文顶尖性能

400万token新SOTA!英伟达UIUC联手:兼顾长短上下文顶尖性能

400万token新SOTA!英伟达UIUC联手:兼顾长短上下文顶尖性能

来自英伟达和UIUC的华人团队提出一种高效训练方法,将LLM上下文长度从128K扩展至惊人的400万token SOTA纪录!基于Llama3.1-Instruct打造的UltraLong-8B模型,不仅在长上下文基准测试中表现卓越,还在标准任务中保持顶尖竞争力。

来自主题: AI技术研报
6664 点击    2025-05-01 13:54
传统PC巨头IBM发布了最新的Granite3.1模型,跑分超过Llama3.1、Qwen2.5 和谷歌的 Gemma2

传统PC巨头IBM发布了最新的Granite3.1模型,跑分超过Llama3.1、Qwen2.5 和谷歌的 Gemma2

传统PC巨头IBM发布了最新的Granite3.1模型,跑分超过Llama3.1、Qwen2.5 和谷歌的 Gemma2

IBM 正式发布了其新一代开源大语言模型 Granite 3.1,这是一组轻量级、先进的开源基础模型,支持多语言、代码生成、推理和工具使用,能够在有限的计算资源上运行。这一系列模型具备 128K 的扩展上下文长度、嵌入模型、内置的幻觉检测功能以及性能的显著提升。

来自主题: AI资讯
8335 点击    2024-12-25 09:57
Llama3.1根本卖不动!业内人士:开源模型成本反而更高

Llama3.1根本卖不动!业内人士:开源模型成本反而更高

Llama3.1根本卖不动!业内人士:开源模型成本反而更高

Meta的开源大模型Llama 3在市场上遇冷,进一步加剧了大模型开源与闭源之争的关注热度。

来自主题: AI资讯
9224 点击    2024-08-27 14:08
浅谈Llama3.1,从结构、训练过程、影响到数据合成

浅谈Llama3.1,从结构、训练过程、影响到数据合成

浅谈Llama3.1,从结构、训练过程、影响到数据合成

Llama3.1系列模型的开源,真让大模型格局大震,指标上堪比最好的闭源模型比如GPT 4o和Claude3.5,让开源追赶闭源成为现实。

来自主题: AI技术研报
9785 点击    2024-08-20 14:39
两个AI关小黑屋:Llama3.1把Claude Opus聊自闭了

两个AI关小黑屋:Llama3.1把Claude Opus聊自闭了

两个AI关小黑屋:Llama3.1把Claude Opus聊自闭了

把Llama 3.1 405B和Claude 3超大杯Opus双双送进小黑屋,你猜怎么着——

来自主题: AI资讯
8462 点击    2024-08-11 17:16
早期项目|硅谷初创公司「Aizip」创建小语言模型Gizmo,应用于边缘市场

早期项目|硅谷初创公司「Aizip」创建小语言模型Gizmo,应用于边缘市场

早期项目|硅谷初创公司「Aizip」创建小语言模型Gizmo,应用于边缘市场

从前两年的百模大战到大语言模型 LLM(Large Language Model)的逐步落地应用,端侧AI始终是人工智能技术发展中至关重要的一环。 所谓的端侧AI,即用户在使用过程中不依赖云服务器,直接在终端设备本地使用AI服务。相比于ChatGPT4.0和最新推出的Llama3.1等依赖于云端接口的主流大语言模型,设备端边缘应用的紧凑模型有较强的私密性,也具有个性化操作和节省成本等诸多优势。

来自主题: AI资讯
7303 点击    2024-08-05 15:45
70倍极致压缩!大模型的检查点再多也不怕

70倍极致压缩!大模型的检查点再多也不怕

70倍极致压缩!大模型的检查点再多也不怕

大模型作为当下 AI 工业界和学术界当之无愧的「流量之王」,吸引了大批学者和企业投入资源去研究与训练。随着规模越做越大,系统和工程问题已经成了大模型训练中绕不开的难题。例如在 Llama3.1 54 天的训练里,系统会崩溃 466 次,平均 2.78 小时一次!

来自主题: AI技术研报
8156 点击    2024-08-05 14:04
【LLM开源模型】LLMs-Llama3.1-240723通关攻略笔记v1.0

【LLM开源模型】LLMs-Llama3.1-240723通关攻略笔记v1.0

【LLM开源模型】LLMs-Llama3.1-240723通关攻略笔记v1.0

不同类型的数据配比如何配置:先通过小规模实验确定最优配比,然后将其应用到大模型的训练中。 Token配比结论:通用知识50%;数学与逻辑25%;代码17%;多语言8%。

来自主题: AI技术研报
8088 点击    2024-08-02 11:53