奥特曼连夜挖走英特尔CTO!AI首席突然叛逃,陈立武被迫亲自挂帅
奥特曼连夜挖走英特尔CTO!AI首席突然叛逃,陈立武被迫亲自挂帅今天,OpenAI将英特尔首席AI官招入麾下,专攻算力基础设施建设,华人CEO救火亲自接管英特尔AI部门。与英伟达的仗还没打赢,自家后院就起了火。
今天,OpenAI将英特尔首席AI官招入麾下,专攻算力基础设施建设,华人CEO救火亲自接管英特尔AI部门。与英伟达的仗还没打赢,自家后院就起了火。
通用人工智能的终极瓶颈不是算法、算力和数据的“三驾马车”,而在思想史。
近日,OpenAI 就公司财务状况发表公开声明而引发混乱后,面临不诚实的指控。而三天前,他的首席财务官提议政府应该“支持”该公司的基础设施贷款。她后来声称说错了话。OpenAI 首席执行官 Sam Altman 在三天前,他的首席财务官提议政府应该“支持”该公司的基础设施贷款。她后来声称说错了话。
2025年前盛行的闭源+重资本范式正被DeepSeek-R1与月之暗面Kimi K2 Thinking改写,二者以数百万美元成本、开源权重,凭MoE与MuonClip等优化,在SWE-Bench与BrowseComp等基准追平或超越GPT-5,并以更低API价格与本地部署撬动市场预期,促使行业从砸钱堆料转向以架构创新与稳定训练为核心的高效路线。
两人小团队,仅用两周就复刻了之前被硅谷夸疯的DeepSeek-OCR?? 复刻版名叫DeepOCR,还原了原版低token高压缩的核心优势,还在关键任务上追上了原版的表现。完全开源,而且无需依赖大规模的算力集群,在两张H200上就能完成训练。
刚刚,唯一全国产算力训出的大模型重磅升级,推理效率飙升100%,数学能力国际领先。当全球巨头还在云端「卷」算法时,中国队则亮出了软硬一体这一截然不同的底牌。
微调超大参数模型,现在的“打开方式”已经大变样了: 仅需2-4 张消费级显卡(4090),就能在本地对DeepSeek 671B乃至Kimi K2 1TB这样的超大模型进行微调了。
英伟达和谷歌,抢着上天了!
当前机器人领域,基础模型主要基于「视觉-语言预训练」,这样可将现有大型多模态模型的语义泛化优势迁移过来。但是,机器人的智能确实能随着算力和数据的增加而持续提升吗?我们能预测这种提升吗?
OpenAI的1.4万亿算力订单,正式开启大甩卖。