AI资讯新闻榜单内容搜索-自然语言

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 自然语言
探索卓越 AI 产品体验 —— RICH 设计范式(05 混合界面)

探索卓越 AI 产品体验 —— RICH 设计范式(05 混合界面)

探索卓越 AI 产品体验 —— RICH 设计范式(05 混合界面)

在 AI 时代,图形界面融合了自然语言会话等多通道交互,演变出新的形态。当意图、角色、会话这一切无形的体验规则被确定之后,它们最终也将承载于具体的界面之上。无形的体验融入到有形的体验之中,在这一部分里,我们提出的 Hybrid UI 正是要定义界面这一有形的体验,保障好 AI 产品体验的最后一道门槛。

来自主题: AI资讯
5058 点击    2025-03-13 11:40
我还没看见AI社交的天花板

我还没看见AI社交的天花板

我还没看见AI社交的天花板

2021 年年初,我在一个学长的数据公司做投放。这家公司主要是给大厂提供人脸识别标注数据、街道场景标注数据和自然语言标注数据。其中前两个是非常成熟,大厂需求也最多,而自然语言数据需求量几乎说少得可怜。

来自主题: AI资讯
6383 点击    2025-03-10 10:31
Mercury:颠覆性扩散大语言模型如何重塑AI生成领域

Mercury:颠覆性扩散大语言模型如何重塑AI生成领域

Mercury:颠覆性扩散大语言模型如何重塑AI生成领域

2025年2月27日,由前扩散模型领域顶尖研究者创立的Inception Labs正式发布了全球首个商业级扩散大语言模型(dLLM)——“Mercury”。这一里程碑式产品不仅在生成速度、硬件效率和成本控制上实现突破,更标志着自然语言处理技术从自回归(Autoregressive)范式向扩散(Diffusion)范式的重大跃迁。

来自主题: AI资讯
8642 点击    2025-03-04 13:02
自动提示词优化系统综述,APO被AWS定义为5个部分 | 最新

自动提示词优化系统综述,APO被AWS定义为5个部分 | 最新

自动提示词优化系统综述,APO被AWS定义为5个部分 | 最新

本文是对亚马逊AWS研究团队最新发表的APO(自动提示词优化)技术综述的深度解读。该研究由Kiran Ramnath、Kang Zhou等21位来自AWS的资深研究者共同完成,团队成员来自不同技术背景,涵盖了机器学习、自然语言处理、系统优化等多个专业领域。

来自主题: AI技术研报
5296 点击    2025-02-28 10:11
断交OpenAI后,人形机器人独角兽首秀:一个神经网络控制整个上身,能听懂人话可抓万物

断交OpenAI后,人形机器人独角兽首秀:一个神经网络控制整个上身,能听懂人话可抓万物

断交OpenAI后,人形机器人独角兽首秀:一个神经网络控制整个上身,能听懂人话可抓万物

与OpenAI断交之后,Figure首个成果出炉:Helix,一个端到端通用控制模型,它能让机器人像人一样感知、理解和行动。只需自然语言提示,机器人就能拿起任何东西,哪怕是从没见过的东西,比如这个活泼的小仙人掌。

来自主题: AI资讯
8958 点击    2025-02-21 10:49
首个基于统计学的线性注意力机制ToST,高分拿下ICLR Spotlight

首个基于统计学的线性注意力机制ToST,高分拿下ICLR Spotlight

首个基于统计学的线性注意力机制ToST,高分拿下ICLR Spotlight

Transformer 架构在过去几年中通过注意力机制在多个领域(如计算机视觉、自然语言处理和长序列任务)中取得了非凡的成就。然而,其核心组件「自注意力机制」 的计算复杂度随输入 token 数量呈二次方增长,导致资源消耗巨大,难以扩展到更长的序列或更大的模型。

来自主题: AI技术研报
7309 点击    2025-02-19 10:02
比知识蒸馏好用,田渊栋等提出连续概念混合,再度革新Transformer预训练框架

比知识蒸馏好用,田渊栋等提出连续概念混合,再度革新Transformer预训练框架

比知识蒸馏好用,田渊栋等提出连续概念混合,再度革新Transformer预训练框架

自然语言 token 代表的意思通常是表层的(例如 the 或 a 这样的功能性词汇),需要模型进行大量训练才能获得高级推理和对概念的理解能力,

来自主题: AI技术研报
4698 点击    2025-02-16 13:12
大模型会组合关系推理吗?打开黑盒,窥探Transformer脑回路

大模型会组合关系推理吗?打开黑盒,窥探Transformer脑回路

大模型会组合关系推理吗?打开黑盒,窥探Transformer脑回路

本文作者为北京邮电大学网络空间安全学院硕士研究生倪睿康,指导老师为肖达副教授。主要研究方向包括自然语言处理、模型可解释性。该工作为倪睿康在彩云科技实习期间完成。联系邮箱:ni@bupt.edu.cn, xiaoda99@bupt.edu.cn

来自主题: AI技术研报
3926 点击    2025-02-06 15:30
ModernBERT 为我们带来了哪些启示?

ModernBERT 为我们带来了哪些启示?

ModernBERT 为我们带来了哪些启示?

当谷歌在 2018 年推出 BERT 模型时,恐怕没有料到这个 3.4 亿参数的模型会成为自然语言处理领域的奠基之作。

来自主题: AI技术研报
8123 点击    2025-01-31 12:34