几千年都没考过这个?谷歌「最毒」AI考局,专测你在压力下怎么做人
几千年都没考过这个?谷歌「最毒」AI考局,专测你在压力下怎么做人最近,Google Research推出了一个叫Vantage的实验项目,就把这件事给干了。Vantage项目由谷歌联合纽约大学开发,主要设想是利用GenAI模拟团队协作场景,以此来开发和测量被测试者的软技能。
最近,Google Research推出了一个叫Vantage的实验项目,就把这件事给干了。Vantage项目由谷歌联合纽约大学开发,主要设想是利用GenAI模拟团队协作场景,以此来开发和测量被测试者的软技能。
GPT Image 2 凭什么这么强?是扩散模型又迭代了一版?是把 DiT 的参数量从 7B 扩到 20B?是训了更多高质量数据?先给结论:OpenAI 很可能已经不在“纯扩散模型”这条主赛道上了。他们已经把图像生成从“美术课”调到了“语文课”——用一个能读懂指令、能记住上下文、能理解物体关系的 LLM 主导语义规划,至于最后一步的像素生成,可能由扩散组件或其他解码器完成。
五一假期前,AI社区被一篇「GPT-5.5拥有近10万亿参数」的论文刷屏,今天这项研究就被研究者打假了!研究者表示,修正论文中的各种问题后,GPT-5.5的参数很可能约为1.5T。
谁不想在自己的电脑上养一只小宠物,打开电脑,它就坐在那里看着你工作。 OpenAI 最近在 Codex 上的更新,引入了类似电子宠物 Tamagotchi 的桌面悬浮伴侣。 我们可以在摸鱼的时候,把鼠
来自USC、CMU、CUHK和OpenAI的全华阵容研究团队,提出了一种叫FD-loss的方法,把“算统计的样本池”和“算梯度的batch”彻底解耦。依靠数万张图像组成的大容量缓存队列或指数移动平均机制,稳定完成分布估算,仅针对当下小批量数据开展梯度回传。
DeepSeekV4的技术报告里有mHC,有CSA,有HCA,有Muon,有FP4……唯独没有Engram。Engram在今年1月由DeepSeek和北大联合开源,主要研究大模型的记忆与效率问题。
为了攻克这些制约具身智能领域发展的核心难题,清华大学智能产业研究院(AIR)DISCOVER Lab联合谋先飞技术、原力灵机、求之科技和地瓜机器人,提出了GS-Playground通用多模态仿真框架。
上周太集中发的后果就是光在用GPT -5.5了,小米的Mimo-V2.5-Pro,DeepSeek V4 Pro还没有放在Agent的场景上测。所以我跟钱包一拍即合,复制了4个一模一样的Hermes Agent,记忆一样,skill一样,系统设置一样,能调用的工具也一样。
Anthropic 的工程师们写了篇技术博客,标题是:构建 Claude Code 的经验教训:Prompt Caching 就是一切。Anthropic 内部把 Prompt Cache 的命中率当作基础设施级别的指标来监控,地位跟服务器 uptime 差不多。一旦命中率下降,就会触发 oncall 告警,工程师得像处理线上事故一样去排查。
近日,美国五角大楼宣布与七家公司达成协议,包括 OpenAI、谷歌、微软、亚马逊、英伟达、SpaceX 和一家名为 Reflection AI 的初创公司,允许将这些公司的 AI 系统用于机密级别的军
OpenAI 和 Anthropic 几乎在同一时间发布自己的提示词文档,在 OpenAI 官网,从 GPT-4.1 到 GPT 5.5,每次新模型发布都有一份完整的提示词指南,告诉我们怎么用新的模型。
Grok 4.3 是 xAI 一次务实升级:更便宜、更快、更像能干活的助手。但它在硬推理、稳定性和可信度上,仍落后 GPT-5.5 与 Claude Opus 4.7。
Google悄悄干了一件大事——Gemini Embedding 2正式进入GA阶段,成为Gemini API中第一个原生多模态embedding模型。它能把文本、图片、视频、音频、PDF文档全部映射进同一个统一向量空间,支持100多种语言。
第四周,我决定离开这家公司。 因为我发现之前调查到的所有乱象,问题都不在GEO本身。 GEO是一个确定的行业方向,但这个行业太早期了——没标准、没监管、谁都能进来。与此同时,品牌和企业只想要流量,但G
系列:卧底GEO三十天(2/3)我学会了一种新算术。不是加减乘除那种,是GEO行业专属的。入职第二周,我从内容组调到了效果交付组。组长是个瘦高的姑娘,大家叫她阿梅,说话很快,手指敲键盘更快。她看了看我,说:"你数学好不好?"
OpenAI深夜重磅更新! 一早,奥特曼官宣,ChatGPT账号可以直接登录OpenClaw。这一刻,ChatGPT和龙虾正式合体。Anthropic用力封杀的,被OpenAI收编了,还彻底打通了生态。
近日,ARC Prize 官方发布了针对这两款顶级模型的详细分析报告,结果令人震惊:在面对未见过的逻辑任务时,两者的表现得分均低于 1%,GPT-5.5 得分 0.43%,Claude Opus 4.7 得分 0.18%。
马斯克囤了几十万张卡,结果只跑了11%?据媒体报道,xAI的MFU只有约11%,xAI总裁Michael Nicolls在内部备忘录中称这一数字「低得尴尬」。AI竞赛的KPI正从囤卡切换为把卡跑满。
直到这一次我们在旧金山 DREAME NEXT 大会上深入了解了这款 AI 饮食吊坠(首发报道)后才发现,其实对于特定人群的特定场景,通过吊坠完成无感的记录分析,可以是一个很「刚」的需求。
最近很多朋友问我用什么笔记软件。我说 Obsidian。其中一个主要原因是:大家使用 Obsidian 的时间点是在「AI 时代」之前,而现在,Claude Code 时代下的 Obsidian 已经完全完全成了「最强笔记软件」。
但 2026 年 4 月 24 日 The Midas Project 执行总监 Tyler Johnston 在 Model Republic 发表的一篇调查给出了一个与该承诺明显矛盾的结果。一家叫 Acutus 的“独立新闻网站”四个月发了 94 篇文章,AI 检测显示其中的 97%含 AI 内容,而攻击对象集中在 AI 监管派身上。
GPT-5.5发布没几天,后台日志里就冒出了GPT-5.6;Anthropic的一个从未见过的代号——Jupiter也炸出了!两天之内,两家巨头的下一代模型同时浮出水面。新一轮模型军备竞赛,比我们想的都要快!
日前,有短剧从业者白先生接受第一财经采访时表示,上个月在平台上传了11部AI漫剧,每部大概16集,总共收益9块6。这位白先生并非籍籍无名,而是设计圈公认的大神“白无常”,无论从AI技术还是艺术审美来看,都绝非行业小白。由此可见,被大炒特炒的AI漫剧,市场竞争实际上极为惨烈。
昆仑万维在年报中宣告,公司正全面All in AGI与AIGC,并在2026年将战略升级为"4+3",即以视频、音乐音频、世界、基座文本四大SOTA模型为底座,支撑AI短剧、AI音乐、AI游戏三大平台。
小扎又出手了,这次瞄准的是人形机器人。 Meta正式完成对机器人AI初创公司Assured Robot Intelligence(简称 ARI)的收购。这家公司专注于机器人智能底层技术,由华南农业大学、中山大学校友王晓龙联合创办。
从「胡言乱语」到「为非作歹」,AI进化史最荒诞一幕上演:Claude Opus 4.7在max effort模式下,把开发者红线当背景音,自主决策群发邮件20次!Anthropic的安全旗舰,成了最危险的「惹祸精」。
当AI生图真的开始被普通人使用,它会先被用在哪里?所以这次我没有继续测模型或者写Prompt分享。而是去找了10个身边的普通人,问他们怎么开始用AI生图,又为什么会在这些具体的小事上用到它。
现在的 3D AIGC 已经可以很快生成场景,但离真正落地还有一段距离。很多场景看起来还行,一进物理模拟就会暴露问题,比如物体悬空、互相穿插,甚至还没碰就散。这些问题让它们很难直接用于游戏、XR 或机器人等实际场景。
腾讯混元团队刚刚开源了一份硬核解决方案:推出极致量化压缩版本翻译模型Hy-MT1.5-1.8B-1.25bit,把支持33种语言的翻译大模型压缩至440MB。无需联网,下载后即可在手机本地运行 。官方测试显示,其翻译质量优于谷歌翻译。
8岁读完高中、15岁拿下量子物理博士学位。这位天才少年宣布了第二个博士方向:用AI攻克人类衰老!在他眼里,死亡只是一个还没拼完的拼图。