AI资讯新闻榜单内容搜索-Ed

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Ed
亲自说说字节 TopSeed 怎么样!

亲自说说字节 TopSeed 怎么样!

亲自说说字节 TopSeed 怎么样!

清华智能产业研究院(AIR)博三在读,去年六月份,出于对语言模型 LLM 的强烈兴趣,加入了字节 as Top Seed Intern,在人工智能的最前沿进行探索。刚好这个话题和我现在做的工作强相关,我分享一下自己的观点和亲身体验。

来自主题: AI资讯
8410 点击    2025-03-23 15:09
喝点VC | 顶级风投Lightspeed发布生成式游戏报告:世界模型将是AI的下一个主要形式

喝点VC | 顶级风投Lightspeed发布生成式游戏报告:世界模型将是AI的下一个主要形式

喝点VC | 顶级风投Lightspeed发布生成式游戏报告:世界模型将是AI的下一个主要形式

人工智能正在重塑游戏和互动媒体行业,人工智能是前所未有的价值创造源泉,它重塑行业的速度甚至比我们在互联网、移动电话和云计算兴起时所观察到的平台和架构变革还要快。

来自主题: AI技术研报
8166 点击    2025-03-22 17:13
25万GPU,估值350亿美元冲刺IPO!财务定时炸弹,GenAI不祥之兆

25万GPU,估值350亿美元冲刺IPO!财务定时炸弹,GenAI不祥之兆

25万GPU,估值350亿美元冲刺IPO!财务定时炸弹,GenAI不祥之兆

有25万块GPU的CoreWeave,已提交上市文件,计划IPO。虽然有英伟达等支持,但CoreWeave估值350亿美元,并不被媒体看好。而科技媒体初创Edward Zitron,更是直言CoreWeave财务糟糕,就是定时炸弹,而GenAI炒作泡沫即将破裂!

来自主题: AI资讯
7878 点击    2025-03-21 14:50
01年实习生被曝负责字节RL核心算法!系字节LLM攻坚小组成员

01年实习生被曝负责字节RL核心算法!系字节LLM攻坚小组成员

01年实习生被曝负责字节RL核心算法!系字节LLM攻坚小组成员

一个超越DeepSeek GRPO的关键RL算法出现了!这个算法名为DAPO,字节、清华AIR联合实验室SIA Lab出品,现已开源。禹棋赢,01年生,本科毕业于哈工大,直博进入清华AIR,目前博士三年级在读。去年年中,他以研究实习生的身份加入字节首次推出的「Top Seed人才计划」。

来自主题: AI资讯
7776 点击    2025-03-20 23:06
速递|OpenAI高管离职,创立AI材料科学初创公司

速递|OpenAI高管离职,创立AI材料科学初创公司

速递|OpenAI高管离职,创立AI材料科学初创公司

OpenAI 的培训研究副总裁 Liam Fedus 即将离职,以创立一家材料科学 AI 初创公司。Fedus 在 X 上发表声明,确认了该报道并补充了一些额外细节。

来自主题: AI资讯
6399 点击    2025-03-19 15:02
独家丨字节大模型全员会,朱文佳和吴永辉一起聊了方向、组织和开源

独家丨字节大模型全员会,朱文佳和吴永辉一起聊了方向、组织和开源

独家丨字节大模型全员会,朱文佳和吴永辉一起聊了方向、组织和开源

3 月 18 日上午,字节跳动豆包大模型部门(Seed)召开全员会,由负责模型应用相关工作的朱文佳,与新近加入的负责 AI 基础研究探索工作的吴永辉共同主持。两人谈到了未来的目标,明确 Seed 部门的最重要目标是探索智能上限;同时强调进一步加强组织文化,提高技术开放程度,并考虑推进开源。

来自主题: AI资讯
6932 点击    2025-03-18 16:55
ChatGPT创始成员、后训练负责人官宣离职!自立门户并将获OpenAI投资

ChatGPT创始成员、后训练负责人官宣离职!自立门户并将获OpenAI投资

ChatGPT创始成员、后训练负责人官宣离职!自立门户并将获OpenAI投资

OpenAI 又有重量级员工出走!这次是后训练负责人、研究副总裁 William Fedus。今天凌晨,Fedus 在 X 上发表了一则公开离职信,讲述了他离职的原因以及今后的去向。

来自主题: AI资讯
7803 点击    2025-03-18 09:15
ICLR 2025 Spotlight | 慕尼黑工业大学&北京大学:迈向无冲突训练的ConFIG方法

ICLR 2025 Spotlight | 慕尼黑工业大学&北京大学:迈向无冲突训练的ConFIG方法

ICLR 2025 Spotlight | 慕尼黑工业大学&北京大学:迈向无冲突训练的ConFIG方法

在深度学习的多个应用场景中,联合优化多个损失项是一个普遍的问题。典型的例子包括物理信息神经网络(Physics-Informed Neural Networks, PINNs)、多任务学习(Multi-Task Learning, MTL)和连续学习(Continual Learning, CL)。然而,不同损失项的梯度方向往往相互冲突,导致优化过程陷入局部最优甚至训练失败。

来自主题: AI技术研报
8158 点击    2025-03-17 14:55
想纠正LMM犯错?没用!NUS华人团队:最强o1反馈修正率不到50%

想纠正LMM犯错?没用!NUS华人团队:最强o1反馈修正率不到50%

想纠正LMM犯错?没用!NUS华人团队:最强o1反馈修正率不到50%

LMM在人类反馈下表现如何?新加坡国立大学华人团队提出InterFeedback框架,结果显示,最先进的LMM通过人类反馈纠正结果的比例不到50%!

来自主题: AI技术研报
7089 点击    2025-03-17 09:32
无需训练,100%完美检索!LLM练出「火眼金睛」,InfiniRetri超长文本一针见血

无需训练,100%完美检索!LLM练出「火眼金睛」,InfiniRetri超长文本一针见血

无需训练,100%完美检索!LLM练出「火眼金睛」,InfiniRetri超长文本一针见血

LLM自身有望在无限长token下检索信息!无需训练,在检索任务「大海捞针」(Needle-in-a-Haystack)测试中,新方法InfiniRetri让有效上下文token长度从32K扩展至1000+K,让7B模型比肩72B模型。

来自主题: AI技术研报
8395 点击    2025-03-16 13:28