AI资讯新闻榜单内容搜索-CoT

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
搜索: CoT
ACL 2024 Oral|我们离真正的多模态思维链推理还有多远?

ACL 2024 Oral|我们离真正的多模态思维链推理还有多远?

ACL 2024 Oral|我们离真正的多模态思维链推理还有多远?

在过去的几年中,大型语言模型(Large Language Models, LLMs)在自然语言处理(NLP)领域取得了突破性的进展。这些模型不仅能够理解复杂的语境,还能够生成连贯且逻辑严谨的文本。

来自主题: AI技术研报
8738 点击    2024-08-11 13:25
CMU清华教LLM练成数学高手,LeanSTaR训练模型边思考边证明,登顶新SOTA

CMU清华教LLM练成数学高手,LeanSTaR训练模型边思考边证明,登顶新SOTA

CMU清华教LLM练成数学高手,LeanSTaR训练模型边思考边证明,登顶新SOTA

LLM数学水平不及小学生怎么办?CMU清华团队提出了Lean-STaR训练框架,在语言模型进行推理的每一步中都植入CoT,提升了模型的定理证明能力,成为miniF2F上的新SOTA。

来自主题: AI技术研报
6133 点击    2024-08-10 11:45
OpenAI超级对齐团队再发「绝唱」!首提「证明者-验证者」博弈,训练GPT说人话

OpenAI超级对齐团队再发「绝唱」!首提「证明者-验证者」博弈,训练GPT说人话

OpenAI超级对齐团队再发「绝唱」!首提「证明者-验证者」博弈,训练GPT说人话

当我们不停在CoT等领域大下苦功、试图提升LLM推理准确性的同时,OpenAI的对齐团队从另一个角度发现了华点——除了准确性,生成答案的清晰度、可读性和可验证性也同样重要。

来自主题: AI技术研报
4797 点击    2024-07-18 16:19
微软CTO:AI大模型的“Scaling Law”还能走多远?

微软CTO:AI大模型的“Scaling Law”还能走多远?

微软CTO:AI大模型的“Scaling Law”还能走多远?

Kevin Scott表示,过去20年里,人工智能领域最重要的进步都与“规模”有关;OpenAI的潜力在于未来可能成为构建AI平台的基础;数据的质量比数量更重要。

来自主题: AI资讯
8282 点击    2024-07-13 12:03
ACL 2024 | 让纯LLM实现类人的符号逻辑推理能力,开源框架SymbCoT来了

ACL 2024 | 让纯LLM实现类人的符号逻辑推理能力,开源框架SymbCoT来了

ACL 2024 | 让纯LLM实现类人的符号逻辑推理能力,开源框架SymbCoT来了

不使用外部工具也能让大语言模型(LLMs)实现严谨可信的推理,新国立提出 SymbCoT 推理框架:结合符号化逻辑(Symbolic Logical)表达式与思维链,极大提升推理质量,鲁棒性与可信度。

来自主题: AI技术研报
9072 点击    2024-06-07 14:39
多模态CoT思维链架构来了,现已开源|来自厦大&腾讯优图

多模态CoT思维链架构来了,现已开源|来自厦大&腾讯优图

多模态CoT思维链架构来了,现已开源|来自厦大&腾讯优图

多模态大模型,也有自己的CoT思维链了! 厦门大学&腾讯优图团队提出一种名为“领唱员(Cantor)”的决策感知多模态思维链架构,无需额外训练,性能大幅提升。

来自主题: AI技术研报
10071 点击    2024-05-28 20:56
CoT提出者Jason Wei:大模型评估基准的「七宗罪」

CoT提出者Jason Wei:大模型评估基准的「七宗罪」

CoT提出者Jason Wei:大模型评估基准的「七宗罪」

Jason Wei 是思维链提出者,并和 Yi Tay、Jeff Dean 等人合著了关于大模型涌现能力的论文。目前他正在 OpenAI 进行工作。

来自主题: AI资讯
9550 点击    2024-05-27 16:18
GPT-4推理能力暴涨32%,谷歌新型思维链效果超CoT,计算成本可降至1/40

GPT-4推理能力暴涨32%,谷歌新型思维链效果超CoT,计算成本可降至1/40

GPT-4推理能力暴涨32%,谷歌新型思维链效果超CoT,计算成本可降至1/40

谷歌&南加大推出最新研究“自我发现”(Self-Discover),重新定义了大模型推理范式。与已成行业标准的思维链(CoT)相比,新方法不仅让模型在面对复杂任务时表现更佳,还把同等效果下的推理成本压缩至1/40。

来自主题: AI技术研报
3820 点击    2024-02-08 19:44
「think step by step」还不够,让模型「think more steps」更有用

「think step by step」还不够,让模型「think more steps」更有用

「think step by step」还不够,让模型「think more steps」更有用

本文对思维链的推理步长进行了控制变量实验,发现推理步长和答案的准确性是线性相关的,这种影响机制甚至超越了问题本身所产生的差异。

来自主题: AI技术研报
2321 点击    2024-01-25 13:53