北大团队提出LIFT:将长上下文知识注入模型参数,提升大模型长文本能力
北大团队提出LIFT:将长上下文知识注入模型参数,提升大模型长文本能力长文本任务是当下大模型研究的重点之一。在实际场景和应用中,普遍存在大量长序列(文本、语音、视频等),有些甚至长达百万级 tokens。
搜索
长文本任务是当下大模型研究的重点之一。在实际场景和应用中,普遍存在大量长序列(文本、语音、视频等),有些甚至长达百万级 tokens。
“2025年会是AI智能体元年。” 开年的短暂时间里,关于智能体的押注再次如潮水涌现。
Khan Academy 和 Khanmigo 的创始人萨尔曼·可汗认为,人工智能可以为学生提供个性化的教学,同时让教师能够专注于他们最擅长的事情。
在深度学习的多个应用场景中,联合优化多个损失项是一个普遍的问题。典型的例子包括物理信息神经网络(Physics-Informed Neural Networks, PINNs)、多任务学习(Multi-Task Learning, MTL)和连续学习(Continual Learning, CL)。然而,不同损失项的梯度方向往往相互冲突,导致优化过程陷入局部最优甚至训练失败。
最近的研究强调了扩散模型与表征学习之间的相互作用。扩散模型的中间表征可用于下游视觉任务,同时视觉模型表征能够提升扩散模型的收敛速度和生成质量。然而,由于输入不匹配和 VAE 潜在空间的使用,将视觉模型的预训练权重迁移到扩散模型中仍然具有挑战性。
AI诈骗暴增3000%
这两天不知道为啥,有好几个朋友问我,为啥不把公众号文章做出一个知识库。
Cursor 也学会「怠工」了?
NYT专栏作家Kevin Roose近期发文称,强人工智能要来,而人类尚未做好准备。当AI在数学奥赛中夺金,完成95%代码,深入到我们日常工作的每个角落时,人类真的做好迎接这个前所未有的技术革命了吗?
AI搜索工具正席卷美国,近四分之一的人已抛弃传统搜索引擎。然而,最新研究揭露,这些工具在引用新闻时错误率高达60%,令人大跌眼镜。