AI资讯新闻榜单内容搜索-英特尔

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
搜索: 英特尔
谷歌向微软英特尔全面宣战!首款自研Arm CPU,最强大模型公测,AI视频对垒Sora

谷歌向微软英特尔全面宣战!首款自研Arm CPU,最强大模型公测,AI视频对垒Sora

谷歌向微软英特尔全面宣战!首款自研Arm CPU,最强大模型公测,AI视频对垒Sora

昨天的谷歌Next大会可是太精彩了,谷歌一连放出不少炸弹。 - 升级「视频版」Imagen 2.0,下场AI视频模型大混战 - 发布时被Sora光环掩盖的Gemini 1.5 Pro,正式开放 - 首款Arm架构CPU发布,全面对垒微软/亚马逊/英伟达/英特尔

来自主题: AI资讯
5554 点击    2024-04-11 13:27
推倒万亿参数大模型内存墙,万字长文:从第一性原理看神经网络量化

推倒万亿参数大模型内存墙,万字长文:从第一性原理看神经网络量化

推倒万亿参数大模型内存墙,万字长文:从第一性原理看神经网络量化

为了应对大模型不断复杂的推理和训练,英伟达、AMD、英特尔、谷歌、微软、Meta、Arm、高通、MatX以及Lemurian Labs,纷纷开始研发全新的硬件解决方案。

来自主题: AI技术研报
7266 点击    2024-02-17 11:06
ChatGPT之父:奥特曼在下“芯片”大棋

ChatGPT之父:奥特曼在下“芯片”大棋

ChatGPT之父:奥特曼在下“芯片”大棋

Open AI计划造芯闹得沸沸扬扬。据消息,OpenAI CEO奥特曼已经接触了英特尔、台积电想要合作成立一家新的芯片工厂。此外,奥特曼1月访韩时,还将目光投向三星、SK,也是为了芯片。

来自主题: AI资讯
2927 点击    2024-02-03 19:45
一个月30万片H100,英伟达欲找英特尔造芯?只因CoWos产能太低

一个月30万片H100,英伟达欲找英特尔造芯?只因CoWos产能太低

一个月30万片H100,英伟达欲找英特尔造芯?只因CoWos产能太低

因为台积电的先进封装工艺产能太低,英伟达准备寻求英特尔来生产AI芯片了。据报道,英特尔一个月最多能提供30万片的H100产能。

来自主题: AI资讯
4019 点击    2024-02-01 22:44
英特尔:AI PC,是“牙膏厂”的救命稻草吗?

英特尔:AI PC,是“牙膏厂”的救命稻草吗?

英特尔:AI PC,是“牙膏厂”的救命稻草吗?

英特尔:撞上了“天花板”作为推出世界上第一款商用计算机微处理器的厂商,英特尔的技术能力在行业中长期领先。正是由于过往技术面长期领先和垄断式的市场地位,英特尔有了“挤牙膏”的躺平机会。

来自主题: AI资讯
7146 点击    2024-01-18 09:55
万物皆可AI:CES 2024前瞻

万物皆可AI:CES 2024前瞻

万物皆可AI:CES 2024前瞻

本文是关于CES 2024前瞻的文章,预测了人工智能在各种消费电子产品中的应用。文章提到了英伟达和微软在人工智能领域的地位,以及他们在CES上可能发布的新产品和技术。此外,文章还涵盖了其他公司如AMD、高通、英特尔等在CES上的动作,以及智能手机、智能汽车和其他设备中端侧人工智能的应用。

来自主题: AI资讯
3975 点击    2024-01-04 14:02
英特尔暗讽英伟达运气好,GPU如何押中AI?

英特尔暗讽英伟达运气好,GPU如何押中AI?

英特尔暗讽英伟达运气好,GPU如何押中AI?

在12月推出AI新品之际,英特尔CEO基辛格把枪口对准了英伟达。基辛格先是公开强调英伟达CUDA软件的护城河没有外界想象的那么深,接着在麻省理工的一场论坛上名褒暗贬,称英伟达在AI GPU领域极其幸运(extraordinarily lucky)。

来自主题: AI资讯
1851 点击    2023-12-27 20:20
英特尔第五代至强可扩展处理器发布,在CPU上跑AI更香了

英特尔第五代至强可扩展处理器发布,在CPU上跑AI更香了

英特尔第五代至强可扩展处理器发布,在CPU上跑AI更香了

千呼万唤始出来,第五代英特尔® 至强® 可扩展处理器,它来了!若是用一句话来概括它的特点,那就是——AI味道越发得浓厚。

来自主题: AI资讯
10438 点击    2023-12-20 11:59
用上这个工具包,大模型推理性能加速达40倍

用上这个工具包,大模型推理性能加速达40倍

用上这个工具包,大模型推理性能加速达40倍

只需不到9行代码,就能在CPU上实现出色的LLM推理性能。英特尔® Extension for Transformer创新工具包中的LLM Runtime为诸多模型显著降低时延,且首个token和下一个token的推理速度分别提升多达40倍和2.68倍,还能满足更多场景应用需求。

来自主题: AI技术研报
3708 点击    2023-11-30 19:10