
企业把AI用起来,真的不是接入个DeepSeek就完事了
企业把AI用起来,真的不是接入个DeepSeek就完事了一个残酷的事实—— 企业内部跟上AI时代,真的不是选个模型来让大家用就完事了。
一个残酷的事实—— 企业内部跟上AI时代,真的不是选个模型来让大家用就完事了。
要问最近哪个模型最火,混合专家模型(MoE,Mixture of Experts)绝对是榜上提名的那一个。
在今年,DeepSeek R1火了之后。
微软最近与Salesforce Research联合发布了一篇名为《Lost in Conversation》的研究,说当前最先进的LLM在多轮对话中表现会大幅下降,平均降幅高达39%。这一现象被称为对话中的"迷失"。文章分析了各大模型(包括Claude 3.7-Sonnet、Deepseek-R1等)在多轮对话中的表现差异,还解析了模型"迷失"的根本原因及有效缓解策略。
英伟达官宣新办公室落户中国台湾省台北市,但居然是从太空飞下来的吗?
北大DeepSeek联合发布的NSA论文,目前已被ACL 2025录用并获得了极高评分,甚至有望冲击最佳论文奖。该技术颠覆传统注意力机制,实现算力效率飞跃,被誉为长文本处理的革命性突破。
部署超大规模MoE这件事,国产芯片的推理性能,已经再创新高了—— 不仅是“英伟达含量为0”这么简单,更是性能全面超越英伟达Hopper架构!
当技术范式重构,强者也不得不重新起跑。
每次更换语言模型就要重新优化提示词?资源浪费且效率低下!本文介绍MetaSPO框架,首个专注模型迁移系统提示优化的元学习方法,让一次优化的提示可跨模型通用。我在儿童教育场景的实验验证了效果:框架自动生成了五种不同教育范式的系统提示,最优的"苏格拉底式"提示成功由DeepSeek-V3迁移到通义千问模型,评分从0.3920提升至0.4362。
ChatGPT悄悄上线的直连Github新功能太强大!一旦连上Github,立马化身「研究怪兽」:不管是DeepSeek这样的明星开源项目,还是自己DIY的文档资料,只要放进仓库,就能交给深度研究,一键生成专业到飞起的报告。