仅需0.4GB,参数只有0和±1!微软开源首个原生1 bit模型,CPU轻松跑
仅需0.4GB,参数只有0和±1!微软开源首个原生1 bit模型,CPU轻松跑微软研究院开源的原生1bit大模型BitNet b1.58 2B4T,将低精度与高效能结合,开创了AI轻量化的新纪元。通过精心设计的推理框架,BitNet不仅突破了内存的限制,还在多项基准测试中表现出色,甚至与全精度模型不相上下。
微软研究院开源的原生1bit大模型BitNet b1.58 2B4T,将低精度与高效能结合,开创了AI轻量化的新纪元。通过精心设计的推理框架,BitNet不仅突破了内存的限制,还在多项基准测试中表现出色,甚至与全精度模型不相上下。
4月18日~19日,由《中国企业家》杂志社主办的2025(第十七届)商界木兰年会在北京举办。在“开幕对话”环节, 数坤科技创始人、CEO马春娥作为主理人, 与明势创投创始合伙人黄明明、中科闻歌董事长王磊、零一万物联合创始人马杰、腾讯设计杰出专家陈妍,围绕“大模型迭代”进行了访谈对话。
Nemotron-H模型混合了Transformer和Mamba架构,使长文本推理速度提升3倍,同时还能保持高性能,开源版本包括8B和56B尺寸。训练过程采用FP8训练和压缩技术,进一步提高了20%推理速度
现在下场做 AI 产品的创业者越来越多,但创业总归是“九死一生”的艰难旅途,我更关心的是,有没有一些有迹可循的办法,能提高成功率?上周,我和一位非典型 AI 创业者——米可世界 AI Lab 的负责人 Simon 聊了一次天,聊出了很多在 AI 创业的宏大叙事中没有的“大实话”,也获得了不少启发。
4月18日,北京市人工智能产业投资基金宣布:追加投资智谱(Z.ai)2亿元人民币。随后这一消息引发市场热议,因为这笔投资有点“特殊”。此次投资明确指向"开源模型研发与开源社区生态建设",而非通常的技术研发或商业扩张。
谷歌 Gemma 3 上线刚刚过去一个月,现在又出新版本了。
在GitHub狂揽1w+星标的通义万相Wan2.1,又双叒上新了!
据消息透露,Anthropic 首次投资了另一家初创公司 Goodfire,投入 100 万美元。Goodfire 成立一年,致力于帮助 AI 开发者理解其 AI 模型的内部运作机制。
推理模型与普通大语言模型有何本质不同?它们为何会「胡言乱语」甚至「故意撒谎」?Goodfire最新发布的开源稀疏自编码器(SAEs),基于DeepSeek-R1模型,为我们提供了一把「AI显微镜」,窥探推理模型的内心世界。
基于Transformer的自回归架构在语言建模上取得了显著成功,但在图像生成领域,扩散模型凭借强大的生成质量和可控性占据了主导地位。