AI资讯新闻榜单内容搜索-Frame

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Frame
Codex+hyperframe做视频,让剪辑师们慌了?

Codex+hyperframe做视频,让剪辑师们慌了?

Codex+hyperframe做视频,让剪辑师们慌了?

这两天打开X,发现一个开源项目刷屏了——Hyperframes。GitHub上两天干了17.4k star,1.6k fork,Codex、Cursor、Claude Code的插件全线覆盖。

来自主题: AI技术研报
6568 点击    2026-05-14 10:01
Siggraph 26 | 视频版Vision-Banana来了?大一统框架UniVidX刷新多项视频任务SOTA

Siggraph 26 | 视频版Vision-Banana来了?大一统框架UniVidX刷新多项视频任务SOTA

Siggraph 26 | 视频版Vision-Banana来了?大一统框架UniVidX刷新多项视频任务SOTA

近日,由香港科技大学 MMLab 及合作团队完成的研究工作「UniVidX: A Unified Multimodal Framework for Versatile Video Generation via Diffusion Priors」被计算机图形学顶级会议 SIGGRAPH 2026 正式接收。

来自主题: AI技术研报
9605 点击    2026-05-12 08:53
龙虾冲浪终于不迷路了!网页智能体新框架Avenir-Web开源即SOTA

龙虾冲浪终于不迷路了!网页智能体新框架Avenir-Web开源即SOTA

龙虾冲浪终于不迷路了!网页智能体新框架Avenir-Web开源即SOTA

伦敦大学学院(UCL)、普林斯顿大学和爱丁堡大学的研究团队联合推出了Avenir-Web,让现有多模态模型像人类一样使用网页。现有的Web Agent在面对复杂的网页结构(如 iframe、Shadow DOM)时,往往会陷入“定位不准”“缺乏常识”或“走着走着就忘了”的窘境。

来自主题: AI技术研报
8141 点击    2026-04-30 08:32
还好我没学剪映,这个 skill 做的视频真不错

还好我没学剪映,这个 skill 做的视频真不错

还好我没学剪映,这个 skill 做的视频真不错

身边做短视频的朋友,几乎人手一个剪映。

来自主题: AI资讯
8493 点击    2026-04-20 09:45
谷歌DeepMind首发AGI终极考纲!20万全球悬赏,撕下所有大模型伪装

谷歌DeepMind首发AGI终极考纲!20万全球悬赏,撕下所有大模型伪装

谷歌DeepMind首发AGI终极考纲!20万全球悬赏,撕下所有大模型伪装

AGI,究竟如何评判?刚刚,谷歌DeepMind发出重磅论文,直接从认知科学「借」了一套度量衡——把通用智能拆成10大认知能力,配一套三阶段评估协议,还联合Kaggle砸了20万美金,向全球研究者悬赏:谁能测出真正的AGI?

来自主题: AI资讯
9355 点击    2026-03-18 16:16
基础模型又一关键拼图,腾讯混元发布训练新范式「无相」:引入功能性记忆,打破静态权重枷锁

基础模型又一关键拼图,腾讯混元发布训练新范式「无相」:引入功能性记忆,打破静态权重枷锁

基础模型又一关键拼图,腾讯混元发布训练新范式「无相」:引入功能性记忆,打破静态权重枷锁

3月6日,腾讯混元发布了一篇名为“HY-WU (Part I): An Extensible Functional Neural Memory Framework and An Instantiation in Text-Guided Image Editing”的技术报告。提出了一种崭新的功能性记忆(functional neural memory)范式(weight unleashing),

来自主题: AI技术研报
8956 点击    2026-03-07 11:08
字节跳动李航博士新作:AI智能体的通用框架

字节跳动李航博士新作:AI智能体的通用框架

字节跳动李航博士新作:AI智能体的通用框架

AI 智能体是人工智能领域的重要研究方向之一。近期,字节跳动的李航博士在我国计算机科学领域顶级期刊 Journal of Computer Science and Technology(JCST)上发表了一篇题为《General Framework of AI Agents》的观点论文(将收录于 JCST 创刊 40 周年专辑),提出了一个涵盖软件智能体和硬件智能体的通用框架。

来自主题: AI技术研报
8440 点击    2026-01-29 10:07
DeepSeek、Gemini谁更能提供情感支持?趣丸×北大来了波情绪轨迹动态评估

DeepSeek、Gemini谁更能提供情感支持?趣丸×北大来了波情绪轨迹动态评估

DeepSeek、Gemini谁更能提供情感支持?趣丸×北大来了波情绪轨迹动态评估

近日,由趣丸科技与北京大学软件工程国家工程研究中心共同发表的《Detecting Emotional Dynamic Trajectories: An Evaluation Framework for Emotional Support in Language Models(检测情感动态轨迹:大语言模型情感支持的评估框架)》论文,获 AAAI 2026 录用。

来自主题: AI技术研报
9347 点击    2025-12-08 14:13
首帧的真正秘密被揭开了:视频生成模型竟然把它当成「记忆体」

首帧的真正秘密被揭开了:视频生成模型竟然把它当成「记忆体」

首帧的真正秘密被揭开了:视频生成模型竟然把它当成「记忆体」

在 Text-to-Video / Image-to-Video 技术突飞猛进的今天,我们已经习惯了这样一个常识: 视频生成的第一帧(First Frame)只是时间轴的起点,是后续动画的起始画面。

来自主题: AI技术研报
8959 点击    2025-12-06 11:03
视频模型真在推理,还是「表演」推理?港中文等质疑:Chain-of-Frame是真的吗?

视频模型真在推理,还是「表演」推理?港中文等质疑:Chain-of-Frame是真的吗?

视频模型真在推理,还是「表演」推理?港中文等质疑:Chain-of-Frame是真的吗?

近年来,以 Veo、Sora 为代表的视频生成模型展现出惊人的合成能力,能够生成高度逼真且时序连贯的动态画面。这类模型在视觉内容生成上的进步,表明其内部可能隐含了对世界结构与规律的理解。更令人关注的是,Google 的最新研究指出,诸如 Veo 3 等模型正在逐步显现出超越单纯合成的 “涌现特性”,包括感知、建模和推理等更高层次能力。

来自主题: AI技术研报
8206 点击    2025-11-19 09:06