
DeepSeek上脸实测:AR眼镜实时翻译老黄GTC演讲,完了还帮我划重点
DeepSeek上脸实测:AR眼镜实时翻译老黄GTC演讲,完了还帮我划重点DeepSeek、通义千问等大模型 + AR眼镜,打开GTC老黄演讲的姿势,可以是这样:
DeepSeek、通义千问等大模型 + AR眼镜,打开GTC老黄演讲的姿势,可以是这样:
近年来,扩散模型在图像与视频合成领域展现出强大能力,为图像动画技术的发展带来了新的契机。特别是在人物图像动画方面,该技术能够基于一系列预设姿态驱动参考图像,使其动态化,从而生成高度可控的人体动画视频。
文本到图像(Text-to-Image, T2I)生成任务近年来取得了飞速进展,其中以扩散模型(如 Stable Diffusion、DiT 等)和自回归(AR)模型为代表的方法取得了显著成果。然而,这些主流的生成模型通常依赖于超大规模的数据集和巨大的参数量,导致计算成本高昂、落地困难,难以高效地应用于实际生产环境。
Stability AI 发布了一款新 AI 模型——Stable Virtual Camera,该公司宣称该模型能将 2D 图像转化为,具有真实深度和视角的“沉浸式”视频。
LLM自身有望在无限长token下检索信息!无需训练,在检索任务「大海捞针」(Needle-in-a-Haystack)测试中,新方法InfiniRetri让有效上下文token长度从32K扩展至1000+K,让7B模型比肩72B模型。
今日(3月15日),一个名为Stella的用户在多个社交平台发布了一则游戏预告片,游戏名为《Whispers from the Star》,是一款以AI智能体语音交互为核心的太空生存游戏。这款游戏来自Anuttacon,这是一家由米哈游创始人蔡浩宇创立的人工智能公司。公司汇集了多位行业专家
2025 年 2 月发布的 NoLiMA 是一种大语言模型(LLM)长文本理解能力评估方法。不同于传统“大海捞针”(Needle-in-a-Haystack, NIAH)测试依赖关键词匹配的做法,它最大的特点是 通过精心设计问题和关键信息,迫使模型进行深层语义理解和推理,才能从长文本中找到答案。
罗永浩“背水一战”。
OpenManus的星数增长曲线堪称开源项目的"教科书级"案例*在这个被AI工具层层壁垒和邀请码围墙分割的时代,每一次开源的突破都如同黑暗中的曙光。作为一名长期关注AI最新前沿的科技自媒体,我有幸见证并参与了OpenManus这个项目从无到有、从星星之火到燎原之势的全过程。
GOSIM 是致力于为创新项目搭建全球化的开放、多元、包容的合作与发展平台。2025 年 5 月 6 - 7 日,GOSIM AI Paris 2025 大会将于在法国巴黎 Station F 举行,诚邀全球顶尖的 AI 专家、技术开发者、学者和开源创新者齐聚法国巴黎,共同探讨 AI 技术的未来发展。