# 热门搜索 #
搜索
搜索: 微调
5000字干货总结:探索AI在B端产品中的应用

随着AI的发展,其应用场景也越来越广泛。在这样的背景下,面向企业的B端产品同样迎来了转型升级的机遇。本文将阐述AI在B端产品中的应用,希望对你有所帮助。

来自主题: AI资讯
6523 点击    2024-01-03 16:12
告别冷启动,LoRA成为大模型「氮气加速器」,提速高达300%

如果 AI 是一辆豪华跑车,那么 LoRA 微调技术就是让它加速的涡轮增压器。LoRA 强大到什么地步?它可以让模型的处理速度提升 300%。还记得 LCM-LoRA 的惊艳表现吗?其他模型的十步,它只需要一步就能达到相媲美的效果。

来自主题: AI技术研报
6495 点击    2024-01-01 11:14
向量数据库凉了吗?

向量存储检索是个真需求,然而专用向量数据库已经凉了。

来自主题: AI资讯
4618 点击    2023-12-30 14:32
微调都不要了?3个样本、1个提示搞定LLM对齐,提示工程师:全都回来了

大模型的效果好不好,有时候对齐调优很关键。但近来很多研究开始探索无微调的方法,艾伦人工智能研究所和华盛顿大学的研究者用「免调优」对齐新方法超越了使用监督调优(SFT)和人类反馈强化学习(RLHF)的 LLM 性能。

来自主题: AI资讯
5275 点击    2023-12-06 15:17
Weights&Biases,支持AI明星公司训练模型的幕后英雄

有一家公司,OpenAI、Anthropic、Cohere、Aleph Alpha(欧洲顶尖大模型公司)和Hugging Face的模型训练和微调都离不开它,NVIDIA和谷歌云(GCP)都是它的深度合作伙伴,它是支持生成式AI明星公司们训练模型的幕后英雄。

来自主题: AI资讯
9598 点击    2023-11-04 10:26
谷歌开源一种AI的微调方法:逐步提炼,让小模型也能媲美2000倍体量大模型

大型语言模型能力惊人,但在部署过程中往往由于规模而消耗巨大的成本。华盛顿大学联合谷歌云计算人工智能研究院、谷歌研究院针对该问题进行了进一步解决,提出了逐步微调(Distilling Step-by-Step)的方法帮助模型训练。

来自主题: AI技术研报
3288 点击    2023-10-24 23:46
AgentLM:对齐Agent能力的大模型来了!7B/13B/70B全开源

智谱AI&清华KEG提出了一种对齐 Agent 能力的微调方法 AgentTuning,该方法使用少量数据微调已有模型,显著激发了模型的 Agent能力,同时可以保持模型原有的通用能力。

来自主题: AI技术研报
3311 点击    2023-10-23 10:17
0.2美元微调就能让ChatGPT彻底破防

微调LLM需谨慎,用良性数据、微调后角色扮演等都会破坏LLM对齐性能!学习调大了还会继续提高风险!

来自主题: AI技术研报
5743 点击    2023-10-14 14:09