AI资讯新闻榜单内容搜索-CoT

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: CoT
意图识别:实现人类和智能体的有效沟通

意图识别:实现人类和智能体的有效沟通

意图识别:实现人类和智能体的有效沟通

意图识别及其在智能设计中的应用

来自主题: AI资讯
6271 点击    2025-01-20 14:27
迈向System 2推理,100页论文硬核讲述Meta-CoT

迈向System 2推理,100页论文硬核讲述Meta-CoT

迈向System 2推理,100页论文硬核讲述Meta-CoT

Meta-CoT 通过显式建模生成特定思维链(CoT)所需的底层推理过程,扩展了传统的思维链方法。

来自主题: AI资讯
6485 点击    2025-01-12 10:08
引入长思维链!微信基于阿里千问大模型搞出个翻译版o1

引入长思维链!微信基于阿里千问大模型搞出个翻译版o1

引入长思维链!微信基于阿里千问大模型搞出个翻译版o1

最近,类 o1 模型的出现,验证了长思维链 (CoT) 在数学和编码等推理任务中的有效性。在长思考(long thought)的帮助下,LLM 倾向于探索、反思和自我改进推理过程,以获得更准确的答案。

来自主题: AI技术研报
7217 点击    2024-12-27 10:03
压缩思维链CCoT:一种突破性的高效AI推理新范式

压缩思维链CCoT:一种突破性的高效AI推理新范式

压缩思维链CCoT:一种突破性的高效AI推理新范式

在大语言模型(LLM)的发展历程中,思维链(Chain of Thought,CoT)推理无疑是一个重要的里程碑。

来自主题: AI技术研报
7923 点击    2024-12-24 09:51
全面超越CoT!Meta田渊栋团队新作:连续思维链

全面超越CoT!Meta田渊栋团队新作:连续思维链

全面超越CoT!Meta田渊栋团队新作:连续思维链

针对大语言模型的推理任务,近日,Meta田渊栋团队提出了一个新的范式:连续思维链,对比传统的CoT,性能更强,效率更高。

来自主题: AI技术研报
7381 点击    2024-12-19 13:33
ToT被华为诺亚方舟实验室升级了,Forest-of-Thought:让LLM多路径推理的Prompt框架

ToT被华为诺亚方舟实验室升级了,Forest-of-Thought:让LLM多路径推理的Prompt框架

ToT被华为诺亚方舟实验室升级了,Forest-of-Thought:让LLM多路径推理的Prompt框架

大语言模型(LLM)在自然语言处理领域取得了巨大突破,但在复杂推理任务上仍面临着显著挑战。现有的Chain-of-Thought(CoT)和Tree-of-Thought(ToT)等方法虽然通过分解问题或结构化提示来增强推理能力,但它们通常只进行单次推理过程,无法修正错误的推理路径,这严重限制了推理的准确性。

来自主题: AI技术研报
7832 点击    2024-12-19 12:37
图像领域再次与LLM一拍即合!idea撞车OpenAI强化微调,西湖大学发布图像链CoT

图像领域再次与LLM一拍即合!idea撞车OpenAI强化微调,西湖大学发布图像链CoT

图像领域再次与LLM一拍即合!idea撞车OpenAI强化微调,西湖大学发布图像链CoT

MAPLE实验室提出通过强化学习优化图像生成模型的去噪过程,使其能以更少的步骤生成高质量图像,在多个图像生成模型上实现了减少推理步骤,还能提高图像质量。

来自主题: AI技术研报
6133 点击    2024-12-17 09:54
田渊栋团队论文火了!连续思维链优于CoT,打开LLM推理新范式

田渊栋团队论文火了!连续思维链优于CoT,打开LLM推理新范式

田渊栋团队论文火了!连续思维链优于CoT,打开LLM推理新范式

一般而言,LLM 被限制在语言空间(language space)内进行推理,并通过思维链(CoT)来表达推理过程,从而解决复杂的推理问题。

来自主题: AI技术研报
6179 点击    2024-12-12 10:19
数字比你想得更复杂——一文带你了解大模型数字处理能力的方方面面

数字比你想得更复杂——一文带你了解大模型数字处理能力的方方面面

数字比你想得更复杂——一文带你了解大模型数字处理能力的方方面面

目前大语言模型(Large Language Models, LLMs)的推理能力备受关注。从思维链(Chain of Thought,CoT)技术提出,到以 o1 为代表的长思考模型发布,大模型正在展现出接近人类甚至领域专家的水平,其中数学推理是一个典型任务。

来自主题: AI技术研报
7571 点击    2024-12-12 10:06