AI资讯新闻榜单内容搜索-微调

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 微调
一套参数,狂揽160个SOTA!厦大等重磅开源「视觉感知基础模型」APE

一套参数,狂揽160个SOTA!厦大等重磅开源「视觉感知基础模型」APE

一套参数,狂揽160个SOTA!厦大等重磅开源「视觉感知基础模型」APE

由厦门大学等机构提出的全新视觉感知基础模型APE,只需一个模型外加一套参数,就能在160个测试集上取得当前SOTA或极具竞争力的结果。而且训练和推理代码以及模型权重全部开源,无需微调,开箱即用。

来自主题: AI资讯
9526 点击    2023-12-11 20:40
苹果大模型最大动作:开源M芯专用ML框架,能跑70亿大模型

苹果大模型最大动作:开源M芯专用ML框架,能跑70亿大模型

苹果大模型最大动作:开源M芯专用ML框架,能跑70亿大模型

苹果M系列芯片专属的机器学习框架,开源即爆火!现在,用上这个框架,你就能直接在苹果GPU上跑70亿参数大模型、训练Transformer模型或是搞LoRA微调。

来自主题: AI资讯
9273 点击    2023-12-07 16:14
微调都不要了?3个样本、1个提示搞定LLM对齐,提示工程师:全都回来了

微调都不要了?3个样本、1个提示搞定LLM对齐,提示工程师:全都回来了

微调都不要了?3个样本、1个提示搞定LLM对齐,提示工程师:全都回来了

大模型的效果好不好,有时候对齐调优很关键。但近来很多研究开始探索无微调的方法,艾伦人工智能研究所和华盛顿大学的研究者用「免调优」对齐新方法超越了使用监督调优(SFT)和人类反馈强化学习(RLHF)的 LLM 性能。

来自主题: AI资讯
5883 点击    2023-12-06 15:17
不是大模型全局微调不起,只是LoRA更有性价比,教程已经准备好了

不是大模型全局微调不起,只是LoRA更有性价比,教程已经准备好了

不是大模型全局微调不起,只是LoRA更有性价比,教程已经准备好了

增加数据量和模型的参数量是公认的提升神经网络性能最直接的方法。目前主流的大模型的参数量已扩展至千亿级别,「大模型」越来越大的趋势还将愈演愈烈。

来自主题: AI资讯
5593 点击    2023-12-05 10:42
微软仅凭「提示工程」让GPT-4成医学专家!超过一众高度微调模型,专业测试准确率首次超90%

微软仅凭「提示工程」让GPT-4成医学专家!超过一众高度微调模型,专业测试准确率首次超90%

微软仅凭「提示工程」让GPT-4成医学专家!超过一众高度微调模型,专业测试准确率首次超90%

微软最新研究再次证明了提示工程的威力——无需额外微调,无需专家策划,仅凭提示,GPT-4就能化身“专家”。

来自主题: AI资讯
6294 点击    2023-12-04 13:53
更像人脑的新型注意力机制,Meta让大模型自动屏蔽任务无关信息,准确率提高27%

更像人脑的新型注意力机制,Meta让大模型自动屏蔽任务无关信息,准确率提高27%

更像人脑的新型注意力机制,Meta让大模型自动屏蔽任务无关信息,准确率提高27%

关于大模型注意力机制,Meta又有了一项新研究。通过调整模型注意力,屏蔽无关信息的干扰,新的机制让大模型准确率进一步提升。而且这种机制不需要微调或训练,只靠Prompt就能让大模型的准确率上升27%。

来自主题: AI资讯
6052 点击    2023-11-27 17:14