速递|AI数据管道重磅合并:Fivetran收购dbt Labs,合并后估值或达百亿美元,铺平上市之路
速递|AI数据管道重磅合并:Fivetran收购dbt Labs,合并后估值或达百亿美元,铺平上市之路数据分析初创公司Fivetran 正就收购数据管理公司 dbt Labs 进行谈判,据知情人士透露,该平台可帮助企业为分析和人工智能应用管理及预处理数据。
数据分析初创公司Fivetran 正就收购数据管理公司 dbt Labs 进行谈判,据知情人士透露,该平台可帮助企业为分析和人工智能应用管理及预处理数据。
在工业级大语言模型(LLM)应用中,动态适配任务与保留既有能力的 “自进化” 需求日益迫切。真实场景中,不同领域语言模式差异显著,LLM 需在学习新场景合规规则的同时,不丢失旧场景的判断能力。这正是大模型自进化核心诉求,即 “自主优化跨任务知识整合,适应动态环境而无需大量外部干预”。
上海人工智能实验室发布新一代文档解析大模型——MinerU2.5。作为MinerU系列最新成果,该模型仅以1.2B参数规模,就在OmniDocBench、olmOCR-bench、Ocean-OCR等权威评测上,全面超越Gemini2.5-Pro、GPT-4o、Qwen2.5-VL-72B等主流通用大模型,以及dots.ocr、MonkeyOCR、PP-StructureV3等专业文档解析工具。
一个月前,我们曾报道过清华姚班校友、普林斯顿教授陈丹琦似乎加入 Thinking Machines Lab 的消息。有些爆料认为她在休假一年后,会离开普林斯顿,全职加入 Thinking Machines Lab。
在大模型训练时,如何管理权重、避免数值爆炸与丢失?Thinking Machines Lab 的新研究「模块流形」提出了一种新范式,它将传统「救火式」的数值修正,转变为「预防式」的约束优化,为更好地训练大模型提供了全新思路。
视觉-语言-动作模型是实现机器人在复杂环境中灵活操作的关键因素。然而,现有训练范式存在一些核心瓶颈,比如数据采集成本高、泛化能力不足等。
刚刚,Meta又从OpenAI挖来一员猛将——宋飏,扩散模型领域的核心人物,DALL·E 2技术路径的早期奠基者。他已正式加入Meta Superintelligence Labs,担任研究负责人,直接向他的师兄赵晟佳汇报。
一家仅成立9个月的新公司——奇妙拉比MarveLab,在2025年8月推出的首款AI潮玩RAGUS&WHITE,凭借超过5000单的预售成绩,超200万的首发营收,迅速成为行业内的讨论热点。
监督微调(SFT)和强化学习(RL)微调是大模型后训练常见的两种手段。通过强化学习微调大模型在众多 NLP 场景都取得了较好的进展,但是在文本分类场景,强化学习未取得较大的进展,其表现往往不如监督学习。
靠电商和云计算席卷全球的亚马逊,正在借这一波Gen AI浪潮,续写新的故事—— 大家可能不知道,去年9月,它在旧金山成立了自己的AI实验室,Amazon AGI SF Lab(以下简称亚马逊AGI实验室)。