字节芯片,隐秘布局 | 智能涌现独家

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
字节芯片,隐秘布局 | 智能涌现独家
7071点击    2026-02-13 12:12

字节芯片,隐秘布局 | 智能涌现独家

随着豆包大模型和seedance视频生成模型等业务的爆发,自研芯片成功后,字节有望大大降低其算力成本。


对于AI公司来说,如今的算力算得上一项天文数字。以谷歌为例,其2026年的资本支出达到 1750-1850 亿美金,超过了其前三年的总和,甚至超过了不少中等发达国家(比如瑞典、波兰)的全年GDP。


继阿里整合通云哥(通义、阿里云、平头哥)、百度拆分昆仑芯独立上市之后,国内另一大模型巨头字节跳动,其芯片在团队、产品线上的密集布局,在行业里已不是秘密。


《智能涌现》了解到,字节芯片团队整体规模近期已经隐秘扩充至千人以上。


知情人士对我们透露,字节的AI芯片团队和CPU团队人数较多,其中,AI芯片方向人数过半,达500人以上,CPU团队在200人左右。


在算力迫切的需求下,字节对芯片的业务推动愈发重视,近期也进行了一轮团队调整。


《智能涌现》独家获悉,字节芯片负责人、“Data-系统”部技术总监王剑不再负责字节芯片业务。据了解,王剑于2016年加入字节跳动,同时也是字节开源委员会的负责人之一。


在字节芯片团队中,AI芯片与DPU团队的负责人是施云峰,CPU团队的负责人是余红斌二人原先均向王剑汇报,王剑不再负责芯片业务后,施云峰、余红斌后续将直接向字节跳动公司副总裁、火山引擎业务负责人杨震原汇报。


对此,字节方面暂无回复。


对于字节来说,随着豆包大模型和seedance视频生成模型等业务的爆发,自研芯片成功后,也有望大大降低其算力成本——此前有消息指出,字节在2026年即将投入1600亿元用于AI领域,其中高达850 亿元用于AI处理器的采购研发。


除了商业上降本的考量之外,也有更深远的考虑。在地缘政治不确定的当下,过度依赖英伟达在内的外部芯片厂商也存在潜在风险,自研芯片将为庞大的业务提供一个安全垫。


另外,通过自研芯片,也可有利于实现软硬件协同设计,可以针对自有的算法进行深化。


字节的芯片业务始于2020年。据《智能涌现》了解,可以分为四大板块——AI芯片、CPU、VPU、DPU。


字节自研芯片的方向,也与其核心业务紧密相关。据我们了解,字节的AI芯片用于豆包大模型推理等;CPU是服务器芯片,用于数据中心的通用计算;


VPU(视频处理单元)用于视频解码和内容审核;DPU(数据处理单元)则主要用于数据中心网络的网络和存储优化,比如RDMA等等。


隐秘筹备六年,字节的自研芯片已取得巨大进展。


据路透社2月10日报道,字节专注于推理任务的AI芯片(SeedChip)计划在2026年3月底前获首批芯片样片,并计划在今年内生产至少10万颗自研AI芯片,并逐步将产量提升至35万颗,代工方或为三星。


据《智能涌现》了解,字节的AI芯片此前已隐秘迭代了三、四代除了三星,也曾与其他代工厂商接触。


不过,自研芯片也是一项长周期、重投入的工作,字节在当前也采用自研和外采并行的策略。


据《智能涌现》独家获悉,截至2025年年底,字节至少已经储备了近12万张英伟达卡(A100、A800、H800),另还有近百万片英伟达H20、L20、L40芯片。


除此之外,近两年来,字节体系内还储备了大量英伟达之外的国产AI芯片,比如寒武纪 5/6/9系列、晟腾910B/C、海光、昆仑芯等,数量在数万到几千不等。


文章来自于“智能涌现”,作者 “邱晓芬”。

AITNT-国内领先的一站式人工智能新闻资讯网站