
大模型“取长补短”新思路入选NeurIPS'24,显著优于现有路由方法,南科大港科大出品
大模型“取长补短”新思路入选NeurIPS'24,显著优于现有路由方法,南科大港科大出品高效组合多个大模型“取长补短”新思路,被顶会NeurIPS 2024接收。
高效组合多个大模型“取长补短”新思路,被顶会NeurIPS 2024接收。
大模型的具身智能决策能力,终于有系统的通用评估基准了。
传统的训练方法通常依赖于大量人工标注的数据和外部奖励模型,这些方法往往受到成本、质量控制和泛化能力的限制。因此,如何减少对人工标注的依赖,并提高模型在复杂推理任务中的表现,成为了当前的主要挑战之一。
随着人形机器人技术的迅猛发展,如何有效获取高质量的操作数据成为核心挑战。鉴于人类操作行为的复杂性和多样性,如何从真实世界中精准捕捉手与物体交互的完整状态,成为推动人形机器人操作技能学习的关键所在。
新一代通用灵活的网络结构 TokenFormer: Rethinking Transformer Scaling with Tokenized Model Parameters 来啦!
LLM未实现机器常识,挑战常识推理。
几十万人关注,一发表即被行业大佬评为“这是很长时间以来最重要的论文”。
从文字生成三维世界的场景有多难?
世界模型又出新进展了,来自国内机构。
连续学习(CL)旨在增强机器学习模型的能力,使其能够不断从新数据中学习,而无需进行所有旧数据的重新训练。连续学习的主要挑战是灾难性遗忘:当任务按顺序训练时,新的任务训练会严重干扰之前学习的任务的性能,因为不受约束的微调会使参数远离旧任务的最优状态。