AI资讯新闻榜单内容搜索-微调

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 微调
多模态大模型学杂了能力反下降?新研究:MoE+通用专家解决冲突

多模态大模型学杂了能力反下降?新研究:MoE+通用专家解决冲突

多模态大模型学杂了能力反下降?新研究:MoE+通用专家解决冲突

多模态大模型做“多任务指令微调”,大模型可能会“学得多错得多”,因为不同任务之间的冲突,导致泛化能力下降。

来自主题: AI资讯
4414 点击    2023-12-30 14:39
向量数据库凉了吗?

向量数据库凉了吗?

向量数据库凉了吗?

向量存储检索是个真需求,然而专用向量数据库已经凉了。

来自主题: AI资讯
6236 点击    2023-12-30 14:32
一套参数,狂揽160个SOTA!厦大等重磅开源「视觉感知基础模型」APE

一套参数,狂揽160个SOTA!厦大等重磅开源「视觉感知基础模型」APE

一套参数,狂揽160个SOTA!厦大等重磅开源「视觉感知基础模型」APE

由厦门大学等机构提出的全新视觉感知基础模型APE,只需一个模型外加一套参数,就能在160个测试集上取得当前SOTA或极具竞争力的结果。而且训练和推理代码以及模型权重全部开源,无需微调,开箱即用。

来自主题: AI资讯
10117 点击    2023-12-11 20:40
苹果大模型最大动作:开源M芯专用ML框架,能跑70亿大模型

苹果大模型最大动作:开源M芯专用ML框架,能跑70亿大模型

苹果大模型最大动作:开源M芯专用ML框架,能跑70亿大模型

苹果M系列芯片专属的机器学习框架,开源即爆火!现在,用上这个框架,你就能直接在苹果GPU上跑70亿参数大模型、训练Transformer模型或是搞LoRA微调。

来自主题: AI资讯
10180 点击    2023-12-07 16:14
微调都不要了?3个样本、1个提示搞定LLM对齐,提示工程师:全都回来了

微调都不要了?3个样本、1个提示搞定LLM对齐,提示工程师:全都回来了

微调都不要了?3个样本、1个提示搞定LLM对齐,提示工程师:全都回来了

大模型的效果好不好,有时候对齐调优很关键。但近来很多研究开始探索无微调的方法,艾伦人工智能研究所和华盛顿大学的研究者用「免调优」对齐新方法超越了使用监督调优(SFT)和人类反馈强化学习(RLHF)的 LLM 性能。

来自主题: AI资讯
6905 点击    2023-12-06 15:17