
可灵2.1刚刚上线,价格降了65%,更快、更听话、也更强。
可灵2.1刚刚上线,价格降了65%,更快、更听话、也更强。刚刚,可灵2.1正式上线了。
刚刚,可灵2.1正式上线了。
来自中国人民大学高瓴人工智能学院与值得买科技 AI 团队在 CVPR 2025 会议上发表了一项新工作,首次提出了一种从静态图像直接生成同步音视频内容的生成框架。其核心设计 JointDiT(Joint Diffusion Transformer)框架实现了图像 → 动态视频 + 声音的高质量联合生成。
就在刚刚,全球首款实时摄像头重磅诞生!从此,AI视频生成的「实时性」和「沉浸感」被重新定义,全行业都有了颠覆性方案。
当 AI 同时拥有了耳朵和眼睛,在未来硬件创新的支持下,还将解放更大的创新潜力。
大家好,我是袋鼠帝 还记得前两天Google IO大会上他们发布的最新视频模型Veo3吗 它可以根据提示自动添加环境音效、背景噪声、音乐和对话,并与画面完美同步 而且生成的视频相当炸裂,已经让我有点分不清虚幻与现实了 比如这位推特大神(Hashem Al-Ghaili)用Veo3制作的视频,相当🐂🍺
最近你是不是也被一系列“回答我”鬼畜视频刷屏?在各种社交软件上,明明上一秒还是一张静态照片,下一秒就能扭腰转身、街舞翻跳,甚至连兵马俑都能跳Kpop。
咱就是说啊,视觉基础模型这块儿,国产AI真就是上了个大分——Glint-MVT,来自格灵深瞳的最新成果。Glint-MVT,来自格灵深瞳的最新成果先来看下成绩——线性探测(LinearProbing):
Veo 3实测来袭:从会说话的松饼到电影质感的短片,一句提示词就能打造电影质感短片,还能音画同步,好莱坞真的要慌了?DeepMind首席技术官更在访谈中透露,Deep Think模式像多线程大脑般并行推理,而AGI的竞赛早已超越单纯「堆算力」。
周末和一位在字节做视频 Agent 的 PM 聊天,想到了一个好问题。
本文由匹兹堡大学智能系统实验室(Intelligent Systems Laboratory)的研究团队完成。第一作者为匹兹堡大学的一年级博士生薛琪耀。