AI资讯新闻榜单内容搜索-TEN

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: TEN
Z Potentials|沈振宇,一个潮玩公司如何做出世界第一的AIGC模型平台

Z Potentials|沈振宇,一个潮玩公司如何做出世界第一的AIGC模型平台

Z Potentials|沈振宇,一个潮玩公司如何做出世界第一的AIGC模型平台

本期我们邀请到了沈振宇作为访谈嘉宾。这位曾被张一鸣直接招募、亲历字节跳动崛起的产品人,如今已经完成了从图虫到千岛的两次创业蜕变。

来自主题: AI资讯
8118 点击    2025-03-26 15:11
速递|红杉、Highland Europe押注AI自动化,n8n获6000万美元融资,估值2.7亿美元

速递|红杉、Highland Europe押注AI自动化,n8n获6000万美元融资,估值2.7亿美元

速递|红杉、Highland Europe押注AI自动化,n8n获6000万美元融资,估值2.7亿美元

开发者工具正在随着 AI 的快速发展而改变。因此,那些在其工作流程中更容易采用 AI 的公司正受到广泛关注。2022 年,一家名为 n8n(发音为“enay-ten”)的初创公司将其工作流自动化平台转向更加 AI 友好,该公司表示其收入增长了 5 倍,仅在过去两个月就翻了一番。

来自主题: AI资讯
8185 点击    2025-03-25 12:13
新注意力让大模型上下文内存占用砍半!精度不减还能加速2倍

新注意力让大模型上下文内存占用砍半!精度不减还能加速2倍

新注意力让大模型上下文内存占用砍半!精度不减还能加速2倍

大模型同样的上下文窗口,只需一半内存就能实现,而且精度无损? 前苹果ASIC架构师Nils Graef,和一名UC伯克利在读本科生一起提出了新的注意力机制Slim Attention。

来自主题: AI资讯
5783 点击    2025-03-17 19:52
在长文本上比Flash Attention快10倍!清华等提出APB序列并行推理框架

在长文本上比Flash Attention快10倍!清华等提出APB序列并行推理框架

在长文本上比Flash Attention快10倍!清华等提出APB序列并行推理框架

在 ChatGPT 爆火两年多的时间里,大语言模型的上下文窗口长度基准线被拉升,以此为基础所构建的长 CoT 推理、多 Agent 协作等类型的高级应用也逐渐增多。

来自主题: AI技术研报
7006 点击    2025-03-12 14:53
DeepSeek的MLA,任意大模型都能轻松迁移了

DeepSeek的MLA,任意大模型都能轻松迁移了

DeepSeek的MLA,任意大模型都能轻松迁移了

DeepSeek-R1 作为 AI 产业颠覆式创新的代表轰动了业界,特别是其训练与推理成本仅为同等性能大模型的数十分之一。多头潜在注意力网络(Multi-head Latent Attention, MLA)是其经济推理架构的核心之一,通过对键值缓存进行低秩压缩,显著降低推理成本 [1]。

来自主题: AI技术研报
4871 点击    2025-03-07 10:24
YOLO已经悄悄来到v12,首个以Attention为核心的YOLO框架问世

YOLO已经悄悄来到v12,首个以Attention为核心的YOLO框架问世

YOLO已经悄悄来到v12,首个以Attention为核心的YOLO框架问世

YOLO 系列模型的结构创新一直围绕 CNN 展开,而让 transformer 具有统治优势的 attention 机制一直不是 YOLO 系列网络结构改进的重点。这主要的原因是 attention 机制的速度无法满足 YOLO 实时性的要求。

来自主题: AI技术研报
8058 点击    2025-02-22 14:14
废话检测器,一次失败的AI尝试

废话检测器,一次失败的AI尝试

废话检测器,一次失败的AI尝试

该篇文章为:100% HWC(Human-Written Content)100% 人类创作内容。(没有任何人工智能生成的内容)自从开始了 Easier Life 这个项目后,我每天都有很多新奇的想法。说好每两周要做一个产品,没想到第二个就“失败”了。

来自主题: AI资讯
7622 点击    2025-02-20 10:24
图像生成推理大模型,港中文北大等联手破解画质提升难题

图像生成推理大模型,港中文北大等联手破解画质提升难题

图像生成推理大模型,港中文北大等联手破解画质提升难题

图像生成模型,也用上思维链(CoT)了!此外,作者还提出了两种专门针对该任务的新型奖励模型——潜力评估奖励模型。(Potential Assessment Reward Model,PARM)及其增强版本PARM++。

来自主题: AI技术研报
4919 点击    2025-02-10 11:09
高效Attention引擎是怎样炼成的?陈天奇团队FlashInfer打响新年第一枪!

高效Attention引擎是怎样炼成的?陈天奇团队FlashInfer打响新年第一枪!

高效Attention引擎是怎样炼成的?陈天奇团队FlashInfer打响新年第一枪!

新年第一天,陈天奇团队的FlashInfer论文出炉!块稀疏、可组合、可定制、负载均衡......更快的LLM推理技术细节全公开。

来自主题: AI技术研报
6364 点击    2025-01-24 13:58