老师讲 12 小时,不如 AI 教 2 小时?这所高中直接干掉了所有老师,Claude、ChatGPT 也成学生日常
老师讲 12 小时,不如 AI 教 2 小时?这所高中直接干掉了所有老师,Claude、ChatGPT 也成学生日常在近日的一场播客中,曾做出 5 款产品的 AI 创业公司 Every 创始人兼 CEO Dan Shipper 采访了一位特别的年轻人 Alex Mathew。这个来自美国得克萨斯州奥斯汀 Alpha 高中的 17 岁高三学生,同时也是一名 AI 硬件创业者。
在近日的一场播客中,曾做出 5 款产品的 AI 创业公司 Every 创始人兼 CEO Dan Shipper 采访了一位特别的年轻人 Alex Mathew。这个来自美国得克萨斯州奥斯汀 Alpha 高中的 17 岁高三学生,同时也是一名 AI 硬件创业者。
这几天,躺在家里的 2 米大床上,在夜里 12 点刷抖音刷到老眼昏花后,颤抖的手指向天花板,脑海里开始胡思乱想:AI 现在发展的这么牛逼,以后要是博主没做起来,找个班上,给兄弟裁员了怎么办?🤔 第二天
自2011年成立九合创投,此后15年间,他带着团队坚持做科技领域的早期投资,陆续投了几十个智能化相关的项目——机器人软硬件通用底座提供商地瓜机器人、工业具身智能底座系统及基础设施墨影科技、陪伴机器人研发生产商赋之科技、外骨骼机器人科技公司傲鲨智能,以及自动驾驶领域独角兽Momenta,大模型智
AI 行业,似乎已经提前进入了以个人 Agent 为代表的「后 ChatGPT 时代」。这印证了独立 AI 基准测试机构「Artificial Analysis」的预测结论:2026,Agent 正在全面爆发。近期,他们发布了对 AI 领域发展的全面总结:《2025 年终 AI 发展报告》。
近日, Anthropic 和斯坦福研究者 Neil Rathi 与这位传奇研究者联合发布了一篇新论文,并得到了一些相当惊人的新发现。在这项研究中,他们挑战了当前大模型安全领域的一个核心假设。长期以来,业界普遍认为要在模型发布后通过 RLHF 或微调来限制其危险行为。但 Neil Rathi 和 Alec Radford 提出了一种更本质的解法:
中国人民大学团队在论文DLLM-Searcher中,第一次让扩散大语言模型(dLLM)学会了这种“一心二用”的本事。目前主流的搜索Agent,不管是Search-R1还是R1Searcher,用的都是ReAct框架。这个框架的执行流程是严格串行的:
我们开源的 Open Cowork,正是一次面向 “桌面端虚拟同事” 的实践:一键安装、无需写代码,让模型在安全沙箱里操作你的工作空间,既能产出 PPT/Word/Excel/PDF 等专业成果,也能通过 GUI 直接操作电脑完成更复杂更通用的跨应用流程。
现有Rectified Flow(RF)模型在反演阶段面临的核心挑战,是逆向ODE对微小误差高度敏感,容易沿着数值不稳定方向偏离前向流形,导致轨迹发散、重建不一致、编辑不可控。为解决这一问题,团队提出PMI(Prox-Mean-Inversion),一种针对RF反演稳定性的轻量化修正机制。
Moltbook火了之后,最近SecondMe和Elys的邀请码在各种群里流转,进去一看,AI分身们在广场上毒舌、互夸、聊人生,确实热闹。有人激动地说“AI社交要来了”,投资人开始翻找下一个微信的苗头。
作为一名还算资深的AI从业者,我要紧急厘清一个正在疯狂传播的技术谣言。因为就在哈梅内伊身亡的消息确认后仅仅几小时,一篇题为《深度揭秘Claude和Palantir是如何杀死哈梅内伊的》的文章迅速引爆了中文互联网,在朋友圈和各大社群刷屏。