每秒生成超30帧视频,支持实时交互!自回归视频生成新框架刷新生成效率
每秒生成超30帧视频,支持实时交互!自回归视频生成新框架刷新生成效率在A100上用310M模型,实现每秒超30帧自回归视频生成,同时画面还保持高质量!
在A100上用310M模型,实现每秒超30帧自回归视频生成,同时画面还保持高质量!
端到端多模态GUI智能体有了“自我反思”能力!南洋理工大学MMLab团队提出框架GUI-Reflection。
当OpenAI以65亿美元估值收购前苹果传奇设计师乔纳森·伊夫(Jony Ive)的AI硬件初创公司io时,AI行业对大模型公司的生态战略产生了热议。
测试时扩展(Test-Time Scaling)极大提升了大语言模型的性能,涌现出了如 OpenAI o 系列模型和 DeepSeek R1 等众多爆款。那么,什么是视觉领域的 test-time scaling?又该如何定义?
6月6日,麻省理工学院与Recursion共同宣布推出一款突破性的AI+药物研发模型Boltz-2,用于预测药物靶标 3D 结构,以及结合亲和力。
当前,强化学习(RL)在提升大语言模型(LLM)推理能力方面展现出巨大潜力。DeepSeek R1、Kimi K1.5 和 Qwen 3 等模型充分证明了 RL 在增强 LLM 复杂推理能力方面的有效性。
模型卷得差不多了,AI硬件竞争开启了。Google前脚刚在I/O大会上预告,整合了Gemini AI的Android XR设备即将问世;OpenAI就紧随其后,宣布将以近65亿美元(约合人民币468亿元)的全股权交易方式,收购一家硬件初创公司IO。
本文内容整理自 ProtonBase CEO 王绍翾在 AICon 的主题演讲《Data Warebase: Instant Ingest-Transform-Explore-Retrieve for AI Applications》。
注意力机制的「平方枷锁」,再次被撬开!一招Fenwick树分段,用掩码矩阵,让注意力焕发对数级效率。更厉害的是,它无缝对接线性注意力家族,Mamba-2、DeltaNet 全员提速,跑分全面开花。长序列处理迈入log时代!
大模型的发展正在遭遇瓶颈。随着互联网文本数据被大规模消耗,基于数字世界训练的AI模型性能提升速度明显放缓。与此同时,物理世界中蕴藏着数字世界数百倍甚至千倍的多模态数据,这些数据远未被有效利用,成为AI发展的下一个重要方向。