AI资讯新闻榜单内容搜索-LLM

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: LLM
DeepMind科学家:LLM没有过度炒作!亲身分享50个AI用例让工作效率飞升50%

DeepMind科学家:LLM没有过度炒作!亲身分享50个AI用例让工作效率飞升50%

DeepMind科学家:LLM没有过度炒作!亲身分享50个AI用例让工作效率飞升50%

现存的LLM是否真的有用?在工作中真实使用LLM的场景都有哪些?谷歌DeepMind科学家详细分享了他是如何「玩转」AI,帮助自己提质增效的。

来自主题: AI资讯
6338 点击    2024-08-16 14:54
Llama 8B搜索100次超越GPT-4o!推理+搜索即可提升性能,新「Scaling Law」诞生?

Llama 8B搜索100次超越GPT-4o!推理+搜索即可提升性能,新「Scaling Law」诞生?

Llama 8B搜索100次超越GPT-4o!推理+搜索即可提升性能,新「Scaling Law」诞生?

最近的论文表明,LLM等生成模型可以通过搜索来扩展,并实现非常显著的性能提升。另一个复现实验也发现,让参数量仅8B的Llama 3.1模型搜索100次,即可在Python代码生成任务上达到GPT-4o同等水平。

来自主题: AI技术研报
9153 点击    2024-08-15 16:05
没有等来OpenAI开源GPT-4o,等来了开源版VITA

没有等来OpenAI开源GPT-4o,等来了开源版VITA

没有等来OpenAI开源GPT-4o,等来了开源版VITA

大语言模型 (LLM) 经历了重大的演变,最近,我们也目睹了多模态大语言模型 (MLLM) 的蓬勃发展,它们表现出令人惊讶的多模态能力。 特别是,GPT-4o 的出现显著推动了 MLLM 领域的发展。然而,与这些模型相对应的开源模型却明显不足。开源社区迫切需要进一步促进该领域的发展,这一点怎么强调也不为过。

来自主题: AI资讯
8410 点击    2024-08-14 17:38
大模型长文本阅读能力如何评估?

大模型长文本阅读能力如何评估?

大模型长文本阅读能力如何评估?

长文本处理能力对LLM的重要性是显而易见的。在2023年初,即便是当时最先进的GPT-3.5,其上下文长度也仅限于2k,然而今日,128k的上下文长度已经成为衡量模型技术先进性的重要标志之一。那你知道LLMs的长文本阅读能力如何评估吗?

来自主题: AI资讯
7465 点击    2024-08-14 11:25
CPU反超NPU,llama.cpp生成速度翻5倍!LLM端侧部署新范式T-MAC开源

CPU反超NPU,llama.cpp生成速度翻5倍!LLM端侧部署新范式T-MAC开源

CPU反超NPU,llama.cpp生成速度翻5倍!LLM端侧部署新范式T-MAC开源

T-MAC是一种创新的基于查找表(LUT)的方法,专为在CPU上高效执行低比特大型语言模型(LLMs)推理而设计,无需权重反量化,支持混合精度矩阵乘法(mpGEMM),显著降低了推理开销并提升了计算速度。

来自主题: AI资讯
6140 点击    2024-08-13 17:42
ACL 2024 Oral|我们离真正的多模态思维链推理还有多远?

ACL 2024 Oral|我们离真正的多模态思维链推理还有多远?

ACL 2024 Oral|我们离真正的多模态思维链推理还有多远?

在过去的几年中,大型语言模型(Large Language Models, LLMs)在自然语言处理(NLP)领域取得了突破性的进展。这些模型不仅能够理解复杂的语境,还能够生成连贯且逻辑严谨的文本。

来自主题: AI技术研报
9529 点击    2024-08-11 13:25
CMU清华教LLM练成数学高手,LeanSTaR训练模型边思考边证明,登顶新SOTA

CMU清华教LLM练成数学高手,LeanSTaR训练模型边思考边证明,登顶新SOTA

CMU清华教LLM练成数学高手,LeanSTaR训练模型边思考边证明,登顶新SOTA

LLM数学水平不及小学生怎么办?CMU清华团队提出了Lean-STaR训练框架,在语言模型进行推理的每一步中都植入CoT,提升了模型的定理证明能力,成为miniF2F上的新SOTA。

来自主题: AI技术研报
6976 点击    2024-08-10 11:45