AI资讯新闻榜单内容搜索-CPU

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: CPU
微软BitDistill将LLM压缩到1.58比特:10倍内存节省、2.65倍CPU推理加速

微软BitDistill将LLM压缩到1.58比特:10倍内存节省、2.65倍CPU推理加速

微软BitDistill将LLM压缩到1.58比特:10倍内存节省、2.65倍CPU推理加速

大语言模型(LLM)不仅在推动通用自然语言处理方面发挥了关键作用,更重要的是,它们已成为支撑多种下游应用如推荐、分类和检索的核心引擎。尽管 LLM 具有广泛的适用性,但在下游任务中高效部署仍面临重大挑战。

来自主题: AI技术研报
5880 点击    2025-10-21 11:43
芯片大地震,黄仁勋355亿入股!英特尔要为老黄造CPU,股价狂飙30%

芯片大地震,黄仁勋355亿入股!英特尔要为老黄造CPU,股价狂飙30%

芯片大地震,黄仁勋355亿入股!英特尔要为老黄造CPU,股价狂飙30%

刚刚,芯片圈大地震,英伟达将斥资50亿美元入股英特尔,一举成为大股东!英伟达出钱,英特尔出力!英特尔将为英伟达定制AI数据中心所需的x86 CPU,未来还将推出集成英伟达GPU的系统级芯片。

来自主题: AI资讯
6962 点击    2025-09-19 13:53
花生上树了?AI 竟然敢这么玩

花生上树了?AI 竟然敢这么玩

花生上树了?AI 竟然敢这么玩

这几天,知名零食品牌良品铺子,用一张图成功地让无数网友的 CPU 都烧干了。

来自主题: AI资讯
6551 点击    2025-09-01 14:37
“CEO一登录,网站就崩了”,工程师紧急排查:AI写的Bug,差点甩锅给老板!

“CEO一登录,网站就崩了”,工程师紧急排查:AI写的Bug,差点甩锅给老板!

“CEO一登录,网站就崩了”,工程师紧急排查:AI写的Bug,差点甩锅给老板!

“两次 CPU 飙升的背后有个巧合,那就是——‘我们 CEO 登录了账号。’于是,我们把 CEO 的账号给封了,继续排查原因......” 听起来像段子,但这真是 Sketch.dev 的工程师亲口写下的“事故总结”。而这一切的起因,只是因为一段由 AI 生成的代码。

来自主题: AI资讯
6568 点击    2025-08-02 16:29
秘塔AI推出“极速”模型,400 tokens/s,你搜索,我秒回

秘塔AI推出“极速”模型,400 tokens/s,你搜索,我秒回

秘塔AI推出“极速”模型,400 tokens/s,你搜索,我秒回

是的,秘塔AI搜索推出了全新“极速”模型。通过在GPU上进行kernel fusion,以及在CPU上进行动态编译优化,我们在单张H800 GPU上实现了最高400 tokens/秒的响应速度,大部分问题2秒内就能答完。

来自主题: AI资讯
10441 点击    2025-05-27 09:45
仅需0.4GB,参数只有0和±1!微软开源首个原生1 bit模型,CPU轻松跑

仅需0.4GB,参数只有0和±1!微软开源首个原生1 bit模型,CPU轻松跑

仅需0.4GB,参数只有0和±1!微软开源首个原生1 bit模型,CPU轻松跑

微软研究院开源的原生1bit大模型BitNet b1.58 2B4T,将低精度与高效能结合,开创了AI轻量化的新纪元。通过精心设计的推理框架,BitNet不仅突破了内存的限制,还在多项基准测试中表现出色,甚至与全精度模型不相上下。

来自主题: AI技术研报
6697 点击    2025-04-20 21:12
天翼云CPU实例部署DeepSeek-R1模型最佳实践

天翼云CPU实例部署DeepSeek-R1模型最佳实践

天翼云CPU实例部署DeepSeek-R1模型最佳实践

本文介绍了英特尔®至强®处理器在AI推理领域的优势,如何使用一键部署的镜像进行纯CPU环境下基于AMX加速后的DeepSeek-R1 7B蒸馏模型推理,以及纯CPU环境下部署DeepSeek-R1 671B满血版模型实践。

来自主题: AI技术研报
8086 点击    2025-03-04 10:23
韩国芯片,危险

韩国芯片,危险

韩国芯片,危险

2月26日,美光宣布已率先向生态系统合作伙伴及特定客户出货专为下一代CPU设计的 1γ(1-gamma) 第六代 (10纳米级) DRAM节点DDR5内存样品。

来自主题: AI资讯
5963 点击    2025-03-04 09:50