AI资讯新闻榜单内容搜索-SAG

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: SAG
Zleap技术解密:后RAG时代已来,SAG重新定义AI搜索

Zleap技术解密:后RAG时代已来,SAG重新定义AI搜索

Zleap技术解密:后RAG时代已来,SAG重新定义AI搜索

大家好,我是Jomy,是智跃Zleap的CEO,也是Zleap产品和技术的主要设计者。此前在报道中,我曾粗略介绍过Zleap产品背后的技术:一个能帮助CEO自动整理、总结海量企业内部信息的智能Agent。今天,我要正式为大家介绍驱动这个Agent的底层技术:SAG。

来自主题: AI技术研报
9032 点击    2025-11-18 10:40
Claude Code生态指南:GitHub 上最热门的17个开源项目

Claude Code生态指南:GitHub 上最热门的17个开源项目

Claude Code生态指南:GitHub 上最热门的17个开源项目

我最开始接触Claude Code——这种「代理式终端编程工具」的时候,说实话,很不习惯 于是我安装了很多第三方工具来让它变得更好用,例如安装ccusage查看用量、安装Claudia把它变回 IDE等等

来自主题: AI资讯
8469 点击    2025-08-25 11:46
清华第三代Sage注意力发布!提速5倍,精度不降,训推都能用

清华第三代Sage注意力发布!提速5倍,精度不降,训推都能用

清华第三代Sage注意力发布!提速5倍,精度不降,训推都能用

清华大学朱军教授团队提出SageAttention3,利用FP4量化实现推理加速,比FlashAttention快5倍,同时探索了8比特注意力用于训练任务的可行性,在微调中实现了无损性能。

来自主题: AI技术研报
7365 点击    2025-07-08 12:08
Cursor定价风波:从“按次”到“按量”,官方致歉并退款!

Cursor定价风波:从“按次”到“按量”,官方致歉并退款!

Cursor定价风波:从“按次”到“按量”,官方致歉并退款!

2025年6月,AI 代码编辑器 Cursor 因定价模式调整引发广泛争议。原先的“按次计费”(per-request billing)改为基于 token 的“按量计费”(usage-based pricing),导致部分用户面临意外扣费,社区反馈强烈Cursor 于7月5日发布致歉声明,承诺退款并澄清新计费模式。

来自主题: AI资讯
10749 点击    2025-07-07 15:33
清华SageAttention3,FP4量化5倍加速!且首次支持8比特训练

清华SageAttention3,FP4量化5倍加速!且首次支持8比特训练

清华SageAttention3,FP4量化5倍加速!且首次支持8比特训练

随着大型模型需要处理的序列长度不断增加,注意力运算(Attention)的时间开销逐渐成为主要开销。

来自主题: AI技术研报
8323 点击    2025-06-19 10:47
红杉合伙人:使用数据(Usage)才是 AI 时代的护城河

红杉合伙人:使用数据(Usage)才是 AI 时代的护城河

红杉合伙人:使用数据(Usage)才是 AI 时代的护城河

护城河是所有投资人和创始人都非常关注的一个概念,因为它涉及到企业的长期价值和生死存亡。AI 时代,大家对护城河同样有执念,但是越来越搞不懂什么才是这个时代的护城河了,甚至是否还有护城河都已经是一个问题。

来自主题: AI资讯
7592 点击    2025-03-29 09:45
罢工八个月,游戏演员和AI的“战斗”还在继续

罢工八个月,游戏演员和AI的“战斗”还在继续

罢工八个月,游戏演员和AI的“战斗”还在继续

从去年8月开始,SAG-AFTRA(美国演员工会-美国广播电视艺术家联合会,下称“SAG”)针对游戏行业大规模滥用AI的现象,发起了大规模罢工——SAG的诉求,主要包括资方使用AI技术时保证配音演员和动捕演员的权益不受侵害、明确告知声像作品的使用用途等等。

来自主题: AI资讯
7627 点击    2025-03-15 11:46
4比特量化三倍加速不掉点!清华即插即用的SageAttention迎来升级

4比特量化三倍加速不掉点!清华即插即用的SageAttention迎来升级

4比特量化三倍加速不掉点!清华即插即用的SageAttention迎来升级

大模型中,线性层的低比特量化已经逐步落地。然而,对于注意力模块,目前几乎各个模型都还在用高精度(例如 FP16 或 FP32)的注意力运算进行训练和推理。并且,随着大型模型需要处理的序列长度不断增加,Attention(注意力运算)的时间开销逐渐成为主要开销。

来自主题: AI技术研报
7744 点击    2024-12-27 09:44
又快又准,即插即用!清华8比特量化Attention,两倍加速于FlashAttention2,各端到端任务均不掉点!

又快又准,即插即用!清华8比特量化Attention,两倍加速于FlashAttention2,各端到端任务均不掉点!

又快又准,即插即用!清华8比特量化Attention,两倍加速于FlashAttention2,各端到端任务均不掉点!

又快又准,即插即用!清华8比特量化Attention,两倍加速于FlashAttention2,各端到端任务均不掉点!

来自主题: AI技术研报
9873 点击    2024-10-19 14:15