AI资讯新闻榜单内容搜索-TEN

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
搜索: TEN
英伟达提出全新Star Attention,10倍加速LLM推理!登顶Hugging Face论文榜

英伟达提出全新Star Attention,10倍加速LLM推理!登顶Hugging Face论文榜

英伟达提出全新Star Attention,10倍加速LLM推理!登顶Hugging Face论文榜

大模型如今已具有越来越长的上下文,而与之相伴的是推理成本的上升。英伟达最新提出的Star Attention,能够在不损失精度的同时,显著减少推理计算量,从而助力边缘计算。

来自主题: AI技术研报
6473 点击    2024-12-05 11:27
这个访谈回应了所有AI焦点问题,他是AI最重要论文的联合作者

这个访谈回应了所有AI焦点问题,他是AI最重要论文的联合作者

这个访谈回应了所有AI焦点问题,他是AI最重要论文的联合作者

随着scaling law撞墙新闻爆出,全球科技圈、资本市场关于大模型发展触及天花板的讨论愈演愈烈。那么,AI发展是否放缓?后续又将如何发展?商业模式如何突破?

来自主题: AI资讯
5625 点击    2024-11-27 09:05
一个真正意义上的实时多模态智能体框架,TEN Framework 为构建下一代 AI Agent 而生

一个真正意义上的实时多模态智能体框架,TEN Framework 为构建下一代 AI Agent 而生

一个真正意义上的实时多模态智能体框架,TEN Framework 为构建下一代 AI Agent 而生

有了 TEN(Transformative Extensions Network,变革性扩展网络),开发者们终于不用再「绞尽脑汁」了!TEN 是全球首个真正实现实时多模态智能体的框架,不仅能减少开发痛点,还让你轻松从头开始构建下一代 AI 应用。

来自主题: AI资讯
5465 点击    2024-10-30 15:55
MIT韩松团队长上下文LLM推理高效框架DuoAttention:单GPU实现330万Token上下文推理

MIT韩松团队长上下文LLM推理高效框架DuoAttention:单GPU实现330万Token上下文推理

MIT韩松团队长上下文LLM推理高效框架DuoAttention:单GPU实现330万Token上下文推理

TL;DR:DuoAttention 通过将大语言模型的注意力头分为检索头(Retrieval Heads,需要完整 KV 缓存)和流式头(Streaming Heads,只需固定量 KV 缓存),大幅提升了长上下文推理的效率,显著减少内存消耗、同时提高解码(Decoding)和预填充(Pre-filling)速度,同时在长短上下文任务中保持了准确率。

来自主题: AI技术研报
3386 点击    2024-10-24 11:33
又快又准,即插即用!清华8比特量化Attention,两倍加速于FlashAttention2,各端到端任务均不掉点!

又快又准,即插即用!清华8比特量化Attention,两倍加速于FlashAttention2,各端到端任务均不掉点!

又快又准,即插即用!清华8比特量化Attention,两倍加速于FlashAttention2,各端到端任务均不掉点!

又快又准,即插即用!清华8比特量化Attention,两倍加速于FlashAttention2,各端到端任务均不掉点!

来自主题: AI技术研报
8472 点击    2024-10-19 14:15
AI 大爆炸后,寻找Agent 的“水和空气”

AI 大爆炸后,寻找Agent 的“水和空气”

AI 大爆炸后,寻找Agent 的“水和空气”

在互联网下半场,带来的最大冲击是“高获客成本+重用户体验”。

来自主题: AI资讯
5152 点击    2024-10-18 10:17
「群体智能」剑指AGI革命!国产架构挑战Transformer霸权,首款非Attention模型更新

「群体智能」剑指AGI革命!国产架构挑战Transformer霸权,首款非Attention模型更新

「群体智能」剑指AGI革命!国产架构挑战Transformer霸权,首款非Attention模型更新

通往AGI的路径只有一条吗?实则不然。这家国产AI黑马认为,「群体智能」或许是一种最佳的尝试。他们正打破惯性思维,打造出最强AI大脑,要让世界每一台设备都有自己的智能。

来自主题: AI技术研报
8509 点击    2024-09-27 19:19
通过打包 Flash Attention 来提升 Hugging Face 训练效率

通过打包 Flash Attention 来提升 Hugging Face 训练效率

通过打包 Flash Attention 来提升 Hugging Face 训练效率

现在,在 Hugging Face 中,使用打包的指令调整示例 (无需填充) 进行训练已与 Flash Attention 2 兼容,这要归功于一个 最近的 PR 以及新的 DataCollatorWithFlattening。 它可以在保持收敛质量的同时,将训练吞吐量提高多达 2 倍。继续阅读以了解详细信息!

来自主题: AI资讯
2862 点击    2024-09-18 15:44