
Claude Code 高级用户遭遇无预警使用限制,Anthropic 回应含糊
Claude Code 高级用户遭遇无预警使用限制,Anthropic 回应含糊近期,Anthropic 旗下的旗舰编码助手 Claude Code 的 Max 用户(每月200美元)遭遇无预警限流,平台未提供清晰说明,也无提前通知,引发广泛不满和用户信任危机。这起事件不仅暴露了大模型服务商在资源管理上的短板,也揭示出当前 AI 订阅制平台在“透明度”与“服务承诺”之间的矛盾。
近期,Anthropic 旗下的旗舰编码助手 Claude Code 的 Max 用户(每月200美元)遭遇无预警限流,平台未提供清晰说明,也无提前通知,引发广泛不满和用户信任危机。这起事件不仅暴露了大模型服务商在资源管理上的短板,也揭示出当前 AI 订阅制平台在“透明度”与“服务承诺”之间的矛盾。
近日,日本AI制药公司Elix与AI生命科学合作组织Life Intelligence Consortium(简称“LINC”)宣布,在全球首次实现了 AI 药物发现平台的商业化。
首个工程自动化任务评估基准DrafterBench,可用于测试大语言模型在土木工程图纸修改任务中的表现。通过模拟真实工程命令,全面考察模型的结构化数据理解、工具调用、指令跟随和批判性推理能力,研究结果发现当前主流大模型虽有一定能力,但整体水平仍不足以满足工程一线需求。
AI 商业化落地,技术固然重要,生态也举足轻重。
2025 年初,AI 应用领域出现了一个引人注目的转折点 —— 个人 AI 分身从实验室走向大规模应用。与以往的虚拟助手或聊天机器人不同,大家对新一代数字分身的预期是开始承担实质性的社交和工作职能:代替本人参加次要会议、维护社交关系、甚至进行创意协作。
RAG(检索增强生成)作为解决大模型"幻觉"和知识时效性问题的关键技术,已成为企业AI应用的主流架构。Contextual AI由RAG技术的创始研究者组建,致力于开发能应对复杂知识密集型任务的专业智能体。
今年初以 DeepSeek-r1 为代表的大模型在推理任务上展现强大的性能,引起广泛的热度。然而在面对一些无法回答或本身无解的问题时,这些模型竟试图去虚构不存在的信息去推理解答,生成了大量的事实错误、无意义思考过程和虚构答案,也被称为模型「幻觉」 问题,如下图(a)所示,造成严重资源浪费且会误导用户,严重损害了模型的可靠性(Reliability)。
不久前,《纽约客》杂志的一篇文章,系统性地阐述了对AI作为写作工具的忧虑。[1]文章的核心观点是,AI的高效内容生成能力,或许正在悄然催生一场“平庸化的革命”,它不仅改变着我们的写作方式,也可能让我们在语言表达和原创思维上,趋于某种程度的同质化。
Agent 的反义词是什么?
OpenAI如何以自下而上的文化和行动导向,推动大模型突破?从零到上线仅用7周,Calvin带你走进OpenAI编程智能体Codex的诞生过程,体验高强度冲刺的魔力。