AI资讯新闻榜单内容搜索-自然语言处理

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 自然语言处理
深度学习的平衡之道:港科大、港城大等团队联合发布多目标优化最新综述

深度学习的平衡之道:港科大、港城大等团队联合发布多目标优化最新综述

深度学习的平衡之道:港科大、港城大等团队联合发布多目标优化最新综述

近年来,深度学习技术在自动驾驶、计算机视觉、自然语言处理和强化学习等领域取得了突破性进展。然而,在现实场景中,传统单目标优化范式在应对多任务协同优化、资源约束以及安全性 - 公平性权衡等复杂需求时,逐渐暴露出其方法论的局限性。

来自主题: AI技术研报
5248 点击    2025-03-19 10:30
Mercury:颠覆性扩散大语言模型如何重塑AI生成领域

Mercury:颠覆性扩散大语言模型如何重塑AI生成领域

Mercury:颠覆性扩散大语言模型如何重塑AI生成领域

2025年2月27日,由前扩散模型领域顶尖研究者创立的Inception Labs正式发布了全球首个商业级扩散大语言模型(dLLM)——“Mercury”。这一里程碑式产品不仅在生成速度、硬件效率和成本控制上实现突破,更标志着自然语言处理技术从自回归(Autoregressive)范式向扩散(Diffusion)范式的重大跃迁。

来自主题: AI资讯
8938 点击    2025-03-04 13:02
自动提示词优化系统综述,APO被AWS定义为5个部分 | 最新

自动提示词优化系统综述,APO被AWS定义为5个部分 | 最新

自动提示词优化系统综述,APO被AWS定义为5个部分 | 最新

本文是对亚马逊AWS研究团队最新发表的APO(自动提示词优化)技术综述的深度解读。该研究由Kiran Ramnath、Kang Zhou等21位来自AWS的资深研究者共同完成,团队成员来自不同技术背景,涵盖了机器学习、自然语言处理、系统优化等多个专业领域。

来自主题: AI技术研报
5560 点击    2025-02-28 10:11
首个基于统计学的线性注意力机制ToST,高分拿下ICLR Spotlight

首个基于统计学的线性注意力机制ToST,高分拿下ICLR Spotlight

首个基于统计学的线性注意力机制ToST,高分拿下ICLR Spotlight

Transformer 架构在过去几年中通过注意力机制在多个领域(如计算机视觉、自然语言处理和长序列任务)中取得了非凡的成就。然而,其核心组件「自注意力机制」 的计算复杂度随输入 token 数量呈二次方增长,导致资源消耗巨大,难以扩展到更长的序列或更大的模型。

来自主题: AI技术研报
7478 点击    2025-02-19 10:02
大模型会组合关系推理吗?打开黑盒,窥探Transformer脑回路

大模型会组合关系推理吗?打开黑盒,窥探Transformer脑回路

大模型会组合关系推理吗?打开黑盒,窥探Transformer脑回路

本文作者为北京邮电大学网络空间安全学院硕士研究生倪睿康,指导老师为肖达副教授。主要研究方向包括自然语言处理、模型可解释性。该工作为倪睿康在彩云科技实习期间完成。联系邮箱:ni@bupt.edu.cn, xiaoda99@bupt.edu.cn

来自主题: AI技术研报
4111 点击    2025-02-06 15:30
ModernBERT 为我们带来了哪些启示?

ModernBERT 为我们带来了哪些启示?

ModernBERT 为我们带来了哪些启示?

当谷歌在 2018 年推出 BERT 模型时,恐怕没有料到这个 3.4 亿参数的模型会成为自然语言处理领域的奠基之作。

来自主题: AI技术研报
8280 点击    2025-01-31 12:34
余弦相似度可能没用?对于某些线性模型,相似度甚至不唯一

余弦相似度可能没用?对于某些线性模型,相似度甚至不唯一

余弦相似度可能没用?对于某些线性模型,相似度甚至不唯一

在机器学习和数据科学领域,余弦相似度长期以来一直是衡量高维对象之间语义相似度的首选指标。余弦相似度已广泛应用于从推荐系统到自然语言处理的各种应用中。它的流行源于人们相信它捕获了嵌入向量之间的方向对齐,提供了比简单点积更有意义的相似性度量。

来自主题: AI技术研报
7578 点击    2025-01-14 14:47
ToT被华为诺亚方舟实验室升级了,Forest-of-Thought:让LLM多路径推理的Prompt框架

ToT被华为诺亚方舟实验室升级了,Forest-of-Thought:让LLM多路径推理的Prompt框架

ToT被华为诺亚方舟实验室升级了,Forest-of-Thought:让LLM多路径推理的Prompt框架

大语言模型(LLM)在自然语言处理领域取得了巨大突破,但在复杂推理任务上仍面临着显著挑战。现有的Chain-of-Thought(CoT)和Tree-of-Thought(ToT)等方法虽然通过分解问题或结构化提示来增强推理能力,但它们通常只进行单次推理过程,无法修正错误的推理路径,这严重限制了推理的准确性。

来自主题: AI技术研报
8164 点击    2024-12-19 12:37