AI把150万医疗账单,砍到了20万
AI把150万医疗账单,砍到了20万AI 最有用的一集出现了。昨天我刷到一个新闻,一个普通网友,用每月 20 美元的 Claude,把医院开出的 19.5 万美元 账单直接砍到了 3.3 万美元。换成人民币,就是从约 150 万,砍到了 20 多万。
AI 最有用的一集出现了。昨天我刷到一个新闻,一个普通网友,用每月 20 美元的 Claude,把医院开出的 19.5 万美元 账单直接砍到了 3.3 万美元。换成人民币,就是从约 150 万,砍到了 20 多万。
正好上周(10月27日),MiniMax 公司发布了[2] M2 模型,代表了国产大模型的最新水平。我就想,可以测测它的实战效果,跟智谱公司的 GLM 4.6 和 Anthropic 公司的 Claude Sonnet 4.5 对比一下。毕竟它们都属于目前最先进的编程大模型,跟我们开发者切身相关。
两人小团队,仅用两周就复刻了之前被硅谷夸疯的DeepSeek-OCR?? 复刻版名叫DeepOCR,还原了原版低token高压缩的核心优势,还在关键任务上追上了原版的表现。完全开源,而且无需依赖大规模的算力集群,在两张H200上就能完成训练。
Kuyda 和她的团队开始痴迷于一个比喻:当前的聊天机器人相当于 AI 界面的 MS-DOS 时代,而将会出现某种类似 Windows 或 MacOS 的时刻。Wabi不是另一个代码生成工具,也不是开发者的辅助工具,而是一个真正面向大众市场的消费产品,专为非技术人员设计。
目前,最先进的对齐方法是使用知识蒸馏(Knowledge Distillation, KD)在所有 token 上最小化 KL 散度。然而,最小化全局 KL 散度并不意味着 token 的接受率最大化。由于小模型容量受限,草稿模型往往难以完整吸收目标模型的知识,导致直接使用蒸馏方法的性能提升受限。在极限场景下,草稿模型和目标模型的巨大尺寸差异甚至可能导致训练不收敛。
Kimi K2 Thinking,现已发布并开源!
半天干完6个月的活儿,AI科学家才是真卷王。
新星闪耀!28位学者获1800万美元,华人天才齐上阵。AI2050瞄准AI普惠与安全。一文速览谷歌前CEO看好的AI方向和研究项目。
奥特曼称GPT-6或让「AI创造新科学」成真。与此呼应,类「AI科学家」Kosmos登场:12小时读1500篇文献、跑4.2万行代码,生成可溯源报告,并在材料等方向提出新发现。它凭持续记忆自主规划,正由工具迈向合作者;但受数据来源与复现性制约,约20%结论仍需人类裁判。人机协作或将重塑科研,科研范式加速演进,前景可期。
大型语言模型(LLMs)正迅速成为从金融到交通等各个专业领域不可或缺的辅助决策工具。但目前LLM的“通用智能”在面对高度专业化、高风险的任务时,往往显得力不从心。