全面打破GPT-4垄断、DeepSeek打下训练成本...2024年大模型领域进展全复盘
全面打破GPT-4垄断、DeepSeek打下训练成本...2024年大模型领域进展全复盘2024年,我们居然进步这么大。
2024年,我们居然进步这么大。
12月31日,上海高级别自动驾驶引领区数据采集车发车仪式在上海浦东举行,30辆全新的智己L6数据采集车盛装列队并集中发车。上海正谋划打造人工智能“模塑申城”,建设高级别自动驾驶引领区,按照“单车智能为基础,车路云协同为关键支撑”技术路线,持续推动上海智能网联汽车产业生态培育。
没有GPU Poor,只有卷得不够多。 DeepSeek-V3的横空出世,用一组惊人的数据完美诠释了这句话。
ViT核心作者Lucas Beyer,长文分析了一篇改进Transformer架构的论文,引起推荐围观。
多模态理解与生成一体化模型,致力于将视觉理解与生成能力融入同一框架,不仅推动了任务协同与泛化能力的突破,更重要的是,它代表着对类人智能(AGI)的一种深层探索。
平面设计是一门艺术学科,它们致力于创造一些吸引注意力和有效传达信息的视觉内容。为了减轻人类设计师的负担,各种各样的海报生成模型相继被提出。它们只关注某些子任务,远未实现设计构图任务;它们在生成过程中不考虑图形设计的层次信息。为了解决这些问题,作者将分层设计原理引入多模态模型(LMM),并提出LaDeCo算法。
在上一篇的评论区里,大家发生了争吵: 《DeepSeek-V3 是怎么训练的|深度拆解》 有的读者指出:DeepSeek V3 有“训练数据抄袭”的问题。
昨天写完DeepSeek-V3的文章,看到一段吐槽: OpenAI 是一家以创造先进人工智能技术为目标的公司。DeepSeek-V3,是在一个开源系统上进行性能和成本效益优化的。看起来有点偷懒。
视觉价值模型(VisVM)通过「推理时搜索」来提升多模态视觉语言模型的图像描述质量,减少幻觉现象。实验表明,VisVM能显著提高模型的视觉理解能力,并可通过自我训练进一步提升性能。
随着 o1、o1 Pro 和 o3 的成功发布,我们明显看到,推理所需的时间和计算资源逐步上升。可以说,o1 的最大贡献在于它揭示了提升模型效果的另一种途径:在推理过程中,通过优化计算资源的配置,可能比单纯扩展模型参数更为高效。