谷歌新架构突破Transformer超长上下文瓶颈!Hinton灵魂拷问:后悔Open吗?
谷歌新架构突破Transformer超长上下文瓶颈!Hinton灵魂拷问:后悔Open吗?两项关于大模型新架构的研究一口气在NeurIPS 2025上发布,通过“测试时训练”机制,能在推理阶段将上下文窗口扩展至200万token。两项新成果分别是:Titans:兼具RNN速度和Transformer性能的全新架构;MIRAS:Titans背后的核心理论框架。
两项关于大模型新架构的研究一口气在NeurIPS 2025上发布,通过“测试时训练”机制,能在推理阶段将上下文窗口扩展至200万token。两项新成果分别是:Titans:兼具RNN速度和Transformer性能的全新架构;MIRAS:Titans背后的核心理论框架。
据 ZP 获悉,AI for Science 领域的技术先锋企业「深度原理 Deep Principle」完成超亿元人民币A轮融资。本轮由戈壁创投管理的阿里巴巴创业者基金大湾区基金(简称AEF大湾区基金)与蚂蚁集团共同领投,现有股东联想创投、Taihill Venture 超额加注,BV百度风投继续加注,多家机构参与。
在过去五年,AI领域一直被一条“铁律”所支配,Scaling Law(扩展定律)。它如同计算领域的摩尔定律一般,简单、粗暴、却魔力无穷:投入更多的数据、更多的参数、更多的算力,模型的性能就会线性且可预测地增长。无数的团队,无论是开源巨头还是商业实验室,都将希望孤注一掷地押在了这条唯一的救命稻草上。
硅谷这帮人,胆子是真的大啊!一个几乎0模型、0产品的公司,就靠着创始人的出身,硬生生估值到500亿美元!Thinking Machines Lab又要融资了,这次要筹集40亿至50亿美元。
目前,95 后拉斐尔·凯(Raphael Kay)是一名美国哈佛大学的在读博士生。尽管还是一名学生,但他在 2025 年初依托黏菌在美国创办了一家名为 Mireta 的初创公司,他带领公司将 5 亿年前黏菌的生长规律转化为了城市设计工具,助力于开发更高效、更有弹性的城市网络。
精彩,实在是精彩!硅谷“甄嬛传”——老马、奥特曼和llya的爱恨情仇又更新了。
那个拒绝了小扎15亿美元薪酬包的机器学习大神,还是加入Meta了。OpenAI前CTO Mira Murati创业公司Thinking Machines Lab证实,联创、首席架构师Andrew Tulloch已经离职去了Meta。
明星创业公司Thinking Machines,第二篇研究论文热乎出炉!公司创始人、OpenAI前CTO Mira Murati依旧亲自站台,翁荔等一众大佬也纷纷转发支持:论文主题为“Modular Manifolds”,通过让整个网络的不同层/模块在统一框架下进行约束和优化,来提升训练的稳定性和效率。
Louis Amira,Stripe 前加密货币与 AI 合作伙伴关系负责人,和 David Noël-Romas,Stripe 前加密货币工程负责人,刚刚为他们的新创公司 Circuit & Chisel 筹集了 1920 万美元。他们的第一个产品是 ATXP 协议,Louis 将其描述为"AI agent 支付领域的 HTTP"。
全球创新企业家、慈善家陈天桥旗下的 MiroMind 团队在这一 AI 未来大考中,连续第二周蝉联冠军。与专注文本输出的生成式模型不同,MiroMind 采用记忆驱动机制,专为预测与决策设计,旨在打造全球最好的预测大模型。