一次推理解决复合问题:基于MoE的大语言模型知识模块可扩展融合推理架构MeteoRA
一次推理解决复合问题:基于MoE的大语言模型知识模块可扩展融合推理架构MeteoRA在大语言模型领域中,预训练 + 微调范式已经成为了部署各类下游应用的重要基础。在该框架下,通过使用搭低秩自适应(LoRA)方法的大模型参数高效微调(PEFT)技术,已经产生了大量针对特定任务、可重用的 LoRA 适配器。
在大语言模型领域中,预训练 + 微调范式已经成为了部署各类下游应用的重要基础。在该框架下,通过使用搭低秩自适应(LoRA)方法的大模型参数高效微调(PEFT)技术,已经产生了大量针对特定任务、可重用的 LoRA 适配器。
2月18日,上海交通大学医学院附属瑞金医院举办了“2025医疗人工智能与精准诊疗发展论坛”,瑞金医院携手华为共同发布瑞智病理大模型RuiPath。
生物学大模型又迎新里程碑!2025 年 2 月 19 日,来自 Arc Institute、英伟达、斯坦福大学、加州大学伯克利分校和加州大学旧金山分校的科学家们,联合发布了生物学大模型 Evo2。
半个月前,字节的OmniHuman-1模型在全球的AI圈,都掀起了巨浪。可能有些朋友不知道这是个啥,我大概通俗易懂的解释一下 一张图+一段音频,就能生成超逼真的唇形同步AI视频。
“你家娃的寒假作业搞定了吗?”眼瞅着假期余额不足,家长们又开始在朋友圈里哀嚎:“作业还没写完!”没错,一年一度的“赶作业大战”又上演了,只不过今年,剧情有点不一样——娃们不再抓耳挠腮、苦哈哈地熬夜赶工,而是悄悄掏出了“神器”:DeepSeek等AI工具!
DeepSeek-R1及其蒸馏版本模型突破了AI Reasoning和大规模AI性能的新基准,其中DeepSeek-R1-Zero和DeepSeek-R1,已经在推理和问题求解上树立了新的标准。本次研究聚焦于如何利用已有的机器进行模型部署,使用这些先进的模型进行开发和研究。
美国AI云服务商Together AI宣布完成3.05亿美元B轮融资,估值高达33亿美元!该公司押注开源模型,提供包括DeepSeek-R1在内的200多个模型API服务,并出租GPU算力,年收入已超1亿美元。
随着人工智能的加速发展,我们常常担心AI会突然失控、超越人类控制。然而,最新研究指出,这种「突然失控」的场景或许并非最令人担忧的;AI在各个领域逐步取代人类,导致人类权力和影响力的缓慢流失,可能才是更隐蔽、更难以应对的渐变式风险。
官宣免费后,Grok火速登顶美区App Store榜首,同时,xAI也放出官方博文,秀了一把模型的数学、代码、ASCII Art演示。最引人瞩目的两位C位华人,均来自多伦多大学,分别和Hinton、Bengio有交集。
谷歌团队发布LLM硬核技术教科书,从「系统视图」揭秘LLM Scaling的神秘面纱。Jeff Dean强调书中藏着谷歌最强AI模型Gemini训练的更多信息。