AI资讯新闻榜单内容搜索-模型训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 模型训练
从ACL 2024录用论文看混合专家模型(MoE)最新研究进展

从ACL 2024录用论文看混合专家模型(MoE)最新研究进展

从ACL 2024录用论文看混合专家模型(MoE)最新研究进展

最近ACL 2024 论文放榜,扫了下,SMoE(稀疏混合专家)的论文不算多,这里就仔细梳理一下,包括动机、方法、有趣的发现,方便大家不看论文也能了解的七七八八,剩下只需要感兴趣再看就好。

来自主题: AI技术研报
3253 点击    2024-08-15 10:17
没有等来OpenAI开源GPT-4o,等来了开源版VITA

没有等来OpenAI开源GPT-4o,等来了开源版VITA

没有等来OpenAI开源GPT-4o,等来了开源版VITA

大语言模型 (LLM) 经历了重大的演变,最近,我们也目睹了多模态大语言模型 (MLLM) 的蓬勃发展,它们表现出令人惊讶的多模态能力。 特别是,GPT-4o 的出现显著推动了 MLLM 领域的发展。然而,与这些模型相对应的开源模型却明显不足。开源社区迫切需要进一步促进该领域的发展,这一点怎么强调也不为过。

来自主题: AI资讯
7748 点击    2024-08-14 17:38
大模型长文本阅读能力如何评估?

大模型长文本阅读能力如何评估?

大模型长文本阅读能力如何评估?

长文本处理能力对LLM的重要性是显而易见的。在2023年初,即便是当时最先进的GPT-3.5,其上下文长度也仅限于2k,然而今日,128k的上下文长度已经成为衡量模型技术先进性的重要标志之一。那你知道LLMs的长文本阅读能力如何评估吗?

来自主题: AI资讯
6861 点击    2024-08-14 11:25
CPU反超NPU,llama.cpp生成速度翻5倍!LLM端侧部署新范式T-MAC开源

CPU反超NPU,llama.cpp生成速度翻5倍!LLM端侧部署新范式T-MAC开源

CPU反超NPU,llama.cpp生成速度翻5倍!LLM端侧部署新范式T-MAC开源

T-MAC是一种创新的基于查找表(LUT)的方法,专为在CPU上高效执行低比特大型语言模型(LLMs)推理而设计,无需权重反量化,支持混合精度矩阵乘法(mpGEMM),显著降低了推理开销并提升了计算速度。

来自主题: AI资讯
5498 点击    2024-08-13 17:42
「AI数据荒」雪上加霜!MIT:网页数据的公开共享正走向衰落

「AI数据荒」雪上加霜!MIT:网页数据的公开共享正走向衰落

「AI数据荒」雪上加霜!MIT:网页数据的公开共享正走向衰落

人工智能系统依靠充足、高质量的训练数据来获得高性能,但MIT等机构最近的一项研究发现,曾经免费提供的数据在多个方面变得越来越难获取。

来自主题: AI资讯
7341 点击    2024-08-13 17:36
北大王选所:让多模态大模型更懂人类在做什么|ECCV 2024

北大王选所:让多模态大模型更懂人类在做什么|ECCV 2024

北大王选所:让多模态大模型更懂人类在做什么|ECCV 2024

只用提示词,多模态大模型就能更懂场景中的人物关系了。

来自主题: AI技术研报
9725 点击    2024-08-13 16:56