# 热门搜索 #
搜索
搜索: LLM
如何将 LLM 的上下文扩展至百万级?

在2023年初,即便是当时最先进的GPT-3.5,其上下文长度也仅限于2k。然而,时至今日,1M的上下文长度已经成为衡量模型技术先进性的重要标志之一。

来自主题: AI技术研报
3419 点击    2024-07-19 10:14
ACL 2024 | 对25个开闭源模型数学评测,GPT-3.5-Turbo才勉强及格

大型语言模型(LLMs)在解决问题方面的非凡能力日益显现。最近,一个值得关注的现象是,这些模型在多项数学推理的基准测试中获得了惊人的成绩。以 GPT-4 为例,在高难度小学应用题测试集 GSM8K [1] 中表现优异,准确率高达 90% 以上。同时,许多开源模型也展现出了不俗的实力,准确率超过 80%。

来自主题: AI资讯
6553 点击    2024-07-18 16:57
「13.11>13.8」冲上热搜,一道题让人类AI集体降智?所有LLM致命缺点曝光

13.8和13.11哪个大?这个问题不光难倒了部分人类,还让一票大模型折戟。AI如今都能做AI奥数题了,但简单的常识问题对它们依然难如登天。其实,无论是比大小,还是卷心菜难题,都揭示了LLM在token预测上的一个重大缺陷。

来自主题: AI资讯
9103 点击    2024-07-17 19:46
大模型“玩”Excel更6了,微软搞的

大模型理解、推理Excel,现在变得更加精准了。

来自主题: AI技术研报
7846 点击    2024-07-16 20:09
AI大模型有望再扩1000倍!剑桥耶鲁康奈尔:PNN是变革关键

最近,多个机构学者合著的一篇研究为AI的规模化指了一条新路:物理神经网络(PNN),这一新兴的前沿领域还鲜少有人涉足,但绝对值得深耕!AI模型再扩展1000倍的秘密可能就藏在这里。

来自主题: AI技术研报
8091 点击    2024-07-14 14:01
OpenAI Lilian Weng万字长文解读LLM幻觉:从理解到克服

人会有幻觉,大型语言模型也会有幻觉。近日,OpenAI 安全系统团队负责人 Lilian Weng 更新了博客,介绍了近年来在理解、检测和克服 LLM 幻觉方面的诸多研究成果。

来自主题: AI资讯
3821 点击    2024-07-13 19:46