AI资讯新闻榜单内容搜索-LLM

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: LLM
LLM为何频频翻车算术题?最新研究追踪单个神经元,「大脑短路」才是根源

LLM为何频频翻车算术题?最新研究追踪单个神经元,「大脑短路」才是根源

LLM为何频频翻车算术题?最新研究追踪单个神经元,「大脑短路」才是根源

大模型在数学问题上的表现不佳,原因在于采取启发式算法进行数学运算的,通过定位到多层感知机(MLP)中的单个神经元,可以对进行数学运算的具体过程进行解释。

来自主题: AI技术研报
7903 点击    2024-11-19 19:53
NeurIPS 2024 | 自我纠错如何使OpenAI o1推理能力大大加强?北大、MIT团队给出理论解释

NeurIPS 2024 | 自我纠错如何使OpenAI o1推理能力大大加强?北大、MIT团队给出理论解释

NeurIPS 2024 | 自我纠错如何使OpenAI o1推理能力大大加强?北大、MIT团队给出理论解释

自我纠错(Self Correction)能力,传统上被视为人类特有的特征,正越来越多地在人工智能领域,尤其是大型语言模型(LLMs)中得到广泛应用,最近爆火的OpenAI o1模型[1]和Reflection 70B模型[2]都采取了自我纠正的方法。

来自主题: AI技术研报
6116 点击    2024-11-18 14:54
企业级知识库为什么要用GraphRAG - 硅谷企业级ChatGPT独角兽Glean系列之二

企业级知识库为什么要用GraphRAG - 硅谷企业级ChatGPT独角兽Glean系列之二

企业级知识库为什么要用GraphRAG - 硅谷企业级ChatGPT独角兽Glean系列之二

自从生成式 AI 和 LLM 在世界舞台上占据中心位置以来,员工们一直在思考如何最好地将这些变革性的新工具应用于他们的工作流程。然而,他们中的许多人在尝试将生成式 AI 集成到企业环境中时遇到了类似的问题,例如隐私泄露、缺乏相关性以及需要更好的个性化结果。

来自主题: AI资讯
6719 点击    2024-11-18 09:26
14天速成LLM高手!大佬开源学习笔记,GitHub狂揽700星

14天速成LLM高手!大佬开源学习笔记,GitHub狂揽700星

14天速成LLM高手!大佬开源学习笔记,GitHub狂揽700星

一位AI从业者分享的14天学习路线图,涵盖大模型从基础到高级的主要关键概念!

来自主题: AI资讯
6580 点击    2024-11-17 14:34
Nature:「人类亲吻难题」彻底难倒LLM,所有大模型全部失败!LLM根本不会推理,只是工具

Nature:「人类亲吻难题」彻底难倒LLM,所有大模型全部失败!LLM根本不会推理,只是工具

Nature:「人类亲吻难题」彻底难倒LLM,所有大模型全部失败!LLM根本不会推理,只是工具

最近,Nature上的一项研究,全面驳斥了LLM具有类人推理能力的说法。研究者设定的「人类亲吻难题」把7个大模型彻底绕晕。最终研究者表示,与其说LLM是科学理论,不如说它们更接近工具,比如广义导数。

来自主题: AI技术研报
9088 点击    2024-11-16 15:52
使用LLM结合金融数据和新闻文章预测股票价格

使用LLM结合金融数据和新闻文章预测股票价格

使用LLM结合金融数据和新闻文章预测股票价格

预测金融市场和股票价格变动需分析公司表现、历史价格、行业事件及人类因素(如社交媒体和新闻报道)。

来自主题: AI技术研报
7452 点击    2024-11-16 14:38
NeurIPS 2024 Spotlight | 如何操纵时间序列预测结果?BackTime:全新的时间序列后门攻击范式

NeurIPS 2024 Spotlight | 如何操纵时间序列预测结果?BackTime:全新的时间序列后门攻击范式

NeurIPS 2024 Spotlight | 如何操纵时间序列预测结果?BackTime:全新的时间序列后门攻击范式

这篇文章获选 Neurips 2024 Spotlight,作者均来自于伊利诺伊大学香槟分校计算机系。第一作者是博士生林啸,指导老师是童行行教授。所在的 IDEA 实验室的研究兴趣涵盖图机器学习、可信机器学习、LLM 优化以及数据挖掘等方面。

来自主题: AI技术研报
5622 点击    2024-11-15 15:34
Claude都能操纵计算机了,吴恩达:智能体工作流越来越成熟

Claude都能操纵计算机了,吴恩达:智能体工作流越来越成熟

Claude都能操纵计算机了,吴恩达:智能体工作流越来越成熟

受 ChatGPT 强大问答能力的影响,大型语言模型(LLM)提供商往往优化模型来回答人们的问题,以提供良好的消费者体验。

来自主题: AI资讯
4355 点击    2024-11-15 15:04
用LaTRO框架,通过自我奖励机制来激发LLM潜在推理能力,基准上提升12.5% |Salesforce重磅

用LaTRO框架,通过自我奖励机制来激发LLM潜在推理能力,基准上提升12.5% |Salesforce重磅

用LaTRO框架,通过自我奖励机制来激发LLM潜在推理能力,基准上提升12.5% |Salesforce重磅

大规模语言模型(LLMs)已经在自然语言处理任务中展现了卓越的能力,但它们在复杂推理任务上依旧面临挑战。推理任务通常需要模型具有跨越多个步骤的推理能力,这超出了LLMs在传统训练阶段的表现。

来自主题: AI资讯
7921 点击    2024-11-15 10:34