AI资讯新闻榜单内容搜索-微调

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 微调
小模型如何进行上下文学习?字节跳动 & 华东师大联合提出自进化文本识别器

小模型如何进行上下文学习?字节跳动 & 华东师大联合提出自进化文本识别器

小模型如何进行上下文学习?字节跳动 & 华东师大联合提出自进化文本识别器

我们都知道,大语言模型(LLM)能够以一种无需模型微调的方式从少量示例中学习,这种方式被称为「上下文学习」(In-context Learning)。这种上下文学习现象目前只能在大模型上观察到。比如 GPT-4、Llama 等大模型在非常多的领域中都表现出了杰出的性能,但还是有很多场景受限于资源或者实时性要求较高,无法使用大模型。

来自主题: AI技术研报
3861 点击    2023-11-27 12:49
Weights&Biases,支持AI明星公司训练模型的幕后英雄

Weights&Biases,支持AI明星公司训练模型的幕后英雄

Weights&Biases,支持AI明星公司训练模型的幕后英雄

有一家公司,OpenAI、Anthropic、Cohere、Aleph Alpha(欧洲顶尖大模型公司)和Hugging Face的模型训练和微调都离不开它,NVIDIA和谷歌云(GCP)都是它的深度合作伙伴,它是支持生成式AI明星公司们训练模型的幕后英雄。

来自主题: AI资讯
10255 点击    2023-11-04 10:26
港大等发布GraphGPT:1/50微调参数,准确率提升10倍!无需超长token,LLM也能读懂图结构

港大等发布GraphGPT:1/50微调参数,准确率提升10倍!无需超长token,LLM也能读懂图结构

港大等发布GraphGPT:1/50微调参数,准确率提升10倍!无需超长token,LLM也能读懂图结构

GraphGPT框架将图结构模型和大语言模型进行参数对齐,利用双阶段图指令微调范式提高模型对图结构的理解能力和适应性,再整合ChatGPT提高逐步推理能力,实现了更快的推理速度和更高的图任务预测准确率。

来自主题: AI技术研报
3567 点击    2023-10-28 21:18
谷歌开源一种AI的微调方法:逐步提炼,让小模型也能媲美2000倍体量大模型

谷歌开源一种AI的微调方法:逐步提炼,让小模型也能媲美2000倍体量大模型

谷歌开源一种AI的微调方法:逐步提炼,让小模型也能媲美2000倍体量大模型

大型语言模型能力惊人,但在部署过程中往往由于规模而消耗巨大的成本。华盛顿大学联合谷歌云计算人工智能研究院、谷歌研究院针对该问题进行了进一步解决,提出了逐步微调(Distilling Step-by-Step)的方法帮助模型训练。

来自主题: AI技术研报
3914 点击    2023-10-24 23:46
AgentLM:对齐Agent能力的大模型来了!7B/13B/70B全开源

AgentLM:对齐Agent能力的大模型来了!7B/13B/70B全开源

AgentLM:对齐Agent能力的大模型来了!7B/13B/70B全开源

智谱AI&清华KEG提出了一种对齐 Agent 能力的微调方法 AgentTuning,该方法使用少量数据微调已有模型,显著激发了模型的 Agent能力,同时可以保持模型原有的通用能力。

来自主题: AI技术研报
3992 点击    2023-10-23 10:17
0.2美元微调就能让ChatGPT彻底破防

0.2美元微调就能让ChatGPT彻底破防

0.2美元微调就能让ChatGPT彻底破防

微调LLM需谨慎,用良性数据、微调后角色扮演等都会破坏LLM对齐性能!学习调大了还会继续提高风险!

来自主题: AI技术研报
6322 点击    2023-10-14 14:09
以3D视角洞悉矩阵乘法,这就是AI思考的样子

以3D视角洞悉矩阵乘法,这就是AI思考的样子

以3D视角洞悉矩阵乘法,这就是AI思考的样子

矩阵乘法已经成为机器学习模型的构建模块,是各种强大 AI 技术的基础,了解其执行方式必然有助于我们更深入地理解这个 AI 以及这个日趋智能化的世界。

来自主题: AI技术研报
1696 点击    2023-10-02 11:48
摩根士丹利与OpenAI合作,用ChatGPT分析金融数据!

摩根士丹利与OpenAI合作,用ChatGPT分析金融数据!

摩根士丹利与OpenAI合作,用ChatGPT分析金融数据!

全球最大金融机构之一摩根士丹利,将在本月正式发布一款生成式AI产品用于金融服务,该产品由OpenAI提供支持,并结合了摩根士丹利超过10万份财务报告、内部资料、金融文献等数据进行了微调。

来自主题: AI资讯
6375 点击    2023-09-20 08:46