AI资讯新闻榜单内容搜索-谢赛宁

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 谢赛宁
Z Tech|对话Lecun和谢赛宁爱徒,00后OpenAI奖学金博士Peter Tong:揭秘多模态大模型的革命突破

Z Tech|对话Lecun和谢赛宁爱徒,00后OpenAI奖学金博士Peter Tong:揭秘多模态大模型的革命突破

Z Tech|对话Lecun和谢赛宁爱徒,00后OpenAI奖学金博士Peter Tong:揭秘多模态大模型的革命突破

近年来,多模态大模型(MLLM)在视觉理解领域突飞猛进,但如何让大语言模型(LLM)低成本掌握视觉生成能力仍是业界难题!

来自主题: AI资讯
5217 点击    2025-02-17 09:37
谢赛宁新作爆火,扩散模型新赛道诞生!测试时计算带飞,性能飙到天花板

谢赛宁新作爆火,扩散模型新赛道诞生!测试时计算带飞,性能飙到天花板

谢赛宁新作爆火,扩散模型新赛道诞生!测试时计算带飞,性能飙到天花板

划时代的突破来了!来自NYU、MIT和谷歌的顶尖研究团队联手,为扩散模型开辟了一个全新的方向——测试时计算Scaling Law。其中,谢赛宁高徒为共同一作。

来自主题: AI技术研报
7565 点击    2025-01-18 14:29
李飞飞谢赛宁:多模态LLM「空间大脑」觉醒,惊现世界模型雏形!

李飞飞谢赛宁:多模态LLM「空间大脑」觉醒,惊现世界模型雏形!

李飞飞谢赛宁:多模态LLM「空间大脑」觉醒,惊现世界模型雏形!

李飞飞、谢赛宁团队又有重磅发现了:多模态LLM能够记住和回忆空间,甚至内部已经形成了局部世界模型,表现了空间意识!李飞飞兴奋表示,在2025年,空间智能的界限很可能会再次突破。

来自主题: AI技术研报
7826 点击    2024-12-23 16:22
统一视觉理解与生成,MetaMorph模型问世,LeCun、谢赛宁、刘壮等参与

统一视觉理解与生成,MetaMorph模型问世,LeCun、谢赛宁、刘壮等参与

统一视觉理解与生成,MetaMorph模型问世,LeCun、谢赛宁、刘壮等参与

如今,多模态大模型(MLLM)已经在视觉理解领域取得了长足进步,其中视觉指令调整方法已被广泛应用。该方法是具有数据和计算效率方面的优势,其有效性表明大语言模型(LLM)拥有了大量固有的视觉知识,使得它们能够在指令调整过程中有效地学习和发展视觉理解。

来自主题: AI技术研报
6976 点击    2024-12-21 11:12
谢赛宁新作:表征学习有多重要?一个操作刷新SOTA,DiT训练速度暴涨18倍

谢赛宁新作:表征学习有多重要?一个操作刷新SOTA,DiT训练速度暴涨18倍

谢赛宁新作:表征学习有多重要?一个操作刷新SOTA,DiT训练速度暴涨18倍

在NLP领域,研究者们已经充分认识并认可了表征学习的重要性,那么视觉领域的生成模型呢?最近,谢赛宁团队发表的一篇研究就拿出了非常有力的证据:Representation matters!

来自主题: AI技术研报
3427 点击    2024-10-23 13:37
扩散模型训练方法一直错了!谢赛宁:Representation matters

扩散模型训练方法一直错了!谢赛宁:Representation matters

扩散模型训练方法一直错了!谢赛宁:Representation matters

是什么让纽约大学著名研究者谢赛宁三连呼喊「Representation matters」?他表示:「我们可能一直都在用错误的方法训练扩散模型。」即使对生成模型而言,表征也依然有用。基于此,他们提出了 REPA,即表征对齐技术,其能让「训练扩散 Transformer 变得比你想象的更简单。」

来自主题: AI技术研报
3582 点击    2024-10-14 15:22
LeCun谢赛宁首发全新视觉多模态模型,等效1000张A100干翻GPT-4V

LeCun谢赛宁首发全新视觉多模态模型,等效1000张A100干翻GPT-4V

LeCun谢赛宁首发全新视觉多模态模型,等效1000张A100干翻GPT-4V

近日,LeCun和谢赛宁等大佬,共同提出了这一种全新的SOTA MLLM——Cambrian-1。开创了以视觉为中心的方法来设计多模态模型,同时全面开源了模型权重、代码、数据集,以及详细的指令微调和评估方法。

来自主题: AI资讯
3209 点击    2024-06-27 16:22