AI资讯新闻榜单内容搜索-TEN

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
搜索: TEN
Z Potentials|沈振宇,一个潮玩公司如何做出世界第一的AIGC模型平台

Z Potentials|沈振宇,一个潮玩公司如何做出世界第一的AIGC模型平台

Z Potentials|沈振宇,一个潮玩公司如何做出世界第一的AIGC模型平台

本期我们邀请到了沈振宇作为访谈嘉宾。这位曾被张一鸣直接招募、亲历字节跳动崛起的产品人,如今已经完成了从图虫到千岛的两次创业蜕变。

来自主题: AI资讯
7961 点击    2025-03-26 15:11
新注意力让大模型上下文内存占用砍半!精度不减还能加速2倍

新注意力让大模型上下文内存占用砍半!精度不减还能加速2倍

新注意力让大模型上下文内存占用砍半!精度不减还能加速2倍

大模型同样的上下文窗口,只需一半内存就能实现,而且精度无损? 前苹果ASIC架构师Nils Graef,和一名UC伯克利在读本科生一起提出了新的注意力机制Slim Attention。

来自主题: AI资讯
5672 点击    2025-03-17 19:52
YOLO已经悄悄来到v12,首个以Attention为核心的YOLO框架问世

YOLO已经悄悄来到v12,首个以Attention为核心的YOLO框架问世

YOLO已经悄悄来到v12,首个以Attention为核心的YOLO框架问世

YOLO 系列模型的结构创新一直围绕 CNN 展开,而让 transformer 具有统治优势的 attention 机制一直不是 YOLO 系列网络结构改进的重点。这主要的原因是 attention 机制的速度无法满足 YOLO 实时性的要求。

来自主题: AI技术研报
7882 点击    2025-02-22 14:14
高效Attention引擎是怎样炼成的?陈天奇团队FlashInfer打响新年第一枪!

高效Attention引擎是怎样炼成的?陈天奇团队FlashInfer打响新年第一枪!

高效Attention引擎是怎样炼成的?陈天奇团队FlashInfer打响新年第一枪!

新年第一天,陈天奇团队的FlashInfer论文出炉!块稀疏、可组合、可定制、负载均衡......更快的LLM推理技术细节全公开。

来自主题: AI技术研报
6216 点击    2025-01-24 13:58
4比特量化三倍加速不掉点!清华即插即用的SageAttention迎来升级

4比特量化三倍加速不掉点!清华即插即用的SageAttention迎来升级

4比特量化三倍加速不掉点!清华即插即用的SageAttention迎来升级

大模型中,线性层的低比特量化已经逐步落地。然而,对于注意力模块,目前几乎各个模型都还在用高精度(例如 FP16 或 FP32)的注意力运算进行训练和推理。并且,随着大型模型需要处理的序列长度不断增加,Attention(注意力运算)的时间开销逐渐成为主要开销。

来自主题: AI技术研报
6456 点击    2024-12-27 09:44
为什么现在AI大模型都是基于Python开发的?

为什么现在AI大模型都是基于Python开发的?

为什么现在AI大模型都是基于Python开发的?

知乎上有个问题:国内主流AI大模型都是Python 开发的,国外AI大模型是什么语言开发的?为什么要用python?

来自主题: AI资讯
6412 点击    2024-12-22 12:20
一键生成万字专利!中科院发布多智能体框架AutoPatent,含1933个「草稿-专利」数据对

一键生成万字专利!中科院发布多智能体框架AutoPatent,含1933个「草稿-专利」数据对

一键生成万字专利!中科院发布多智能体框架AutoPatent,含1933个「草稿-专利」数据对

AutoPatent框架能够自动化生成高质量的专利文档,大幅提高专利撰写效率,有望简化专利申请流程,降低成本,促进创新保护。

来自主题: AI技术研报
7571 点击    2024-12-20 15:36
Z Product | 硅谷大厂开始行动,这家成立两年的AI语音公司被收购:语音是最本能的沟通手段

Z Product | 硅谷大厂开始行动,这家成立两年的AI语音公司被收购:语音是最本能的沟通手段

Z Product | 硅谷大厂开始行动,这家成立两年的AI语音公司被收购:语音是最本能的沟通手段

Tenyx利用AI和ML,打破传统IVR系统的局限,为多元化行业提供精准、自然的语音交互解决方案,引领客户服务领域的技术革命。

来自主题: AI资讯
6961 点击    2024-12-09 09:41
开源1.6B小模型「小狐狸」,表现超同类模型Qwen和Gemma

开源1.6B小模型「小狐狸」,表现超同类模型Qwen和Gemma

开源1.6B小模型「小狐狸」,表现超同类模型Qwen和Gemma

自从 Chatgpt 诞生以来,LLM(大语言模型)的参数量似乎就成为了各个公司的竞赛指标。GPT-1 参数量为 1.17 亿(1.17M),而它的第四代 GPT-4 参数量已经刷新到了 1.8 万亿(1800B)。

来自主题: AI技术研报
6573 点击    2024-12-08 12:20