AI资讯新闻榜单内容搜索-微调

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 微调
UCLA华人提出全新自我对弈机制!LLM自己训自己,效果碾压GPT-4专家指导

UCLA华人提出全新自我对弈机制!LLM自己训自己,效果碾压GPT-4专家指导

UCLA华人提出全新自我对弈机制!LLM自己训自己,效果碾压GPT-4专家指导

来自UCLA的华人团队提出一种全新的LLM自我对弈系统,能够让LLM自我合成数据,自我微调提升性能,甚至超过了用GPT-4作为专家模型指导的效果。

来自主题: AI技术研报
6413 点击    2024-02-02 17:27
消灭「幻觉」!谷歌全新ASPIRE方法让LLM给自己打分,效果碾压10x体量模型

消灭「幻觉」!谷歌全新ASPIRE方法让LLM给自己打分,效果碾压10x体量模型

消灭「幻觉」!谷歌全新ASPIRE方法让LLM给自己打分,效果碾压10x体量模型

谷歌和威斯康星麦迪逊大学的研究人员推出了一个让LLM给自己输出打分的选择性预测系统,通过软提示微调和自评估学习,取得了比10倍规模大的模型还要好的成绩,为开发下一代可靠的LLM提供了一个非常好的方向。

来自主题: AI技术研报
9332 点击    2024-01-23 15:20
周鸿祎傅盛:相逢大模型,一笑泯恩仇

周鸿祎傅盛:相逢大模型,一笑泯恩仇

周鸿祎傅盛:相逢大模型,一笑泯恩仇

此次发布的猎户星空大模型专为企业应用而生,该模型通过140亿参数实现了千亿参数大模型才能实现的效果,面向七大应用领域进行微调,可以在千元显卡算力上运行。 用傅盛的说法是,用的好,用的起,用的安全。

来自主题: AI资讯
4091 点击    2024-01-23 10:31
英伟达新对话QA模型准确度超GPT-4,却遭吐槽:无权重代码意义不大

英伟达新对话QA模型准确度超GPT-4,却遭吐槽:无权重代码意义不大

英伟达新对话QA模型准确度超GPT-4,却遭吐槽:无权重代码意义不大

昨天,Meta、纽约大学的研究者用「自我奖励方法」,让大模型自己生成自己的微调数据,从而在 Llama 2 70B 的迭代微调后超越了 GPT-4。今天,英伟达的全新对话 QA 模型「ChatQA-70B」在不使用任何 GPT 模型数据的情况下,在 10 个对话 QA 数据集上的平均得分略胜于 GPT-4。

来自主题: AI资讯
9332 点击    2024-01-21 14:27
普林斯顿博士生高天宇指令微调进展速览:数据、算法和评估

普林斯顿博士生高天宇指令微调进展速览:数据、算法和评估

普林斯顿博士生高天宇指令微调进展速览:数据、算法和评估

自 ChatGPT 等大型语言模型推出以来,为了提升模型效果,各种指令微调方法陆续被提出。本文中,普林斯顿博士生、陈丹琦学生高天宇汇总了指令微调领域的进展,包括数据、算法和评估等。

来自主题: AI技术研报
6418 点击    2024-01-21 14:14
最佳开源模型刷新多项SOTA,首次超越Mixtral Instruct!「开源版GPT-4」家族迎来大爆发

最佳开源模型刷新多项SOTA,首次超越Mixtral Instruct!「开源版GPT-4」家族迎来大爆发

最佳开源模型刷新多项SOTA,首次超越Mixtral Instruct!「开源版GPT-4」家族迎来大爆发

Mixtral 8x7B模型开源后,AI社区再次迎来一大波微调实践。来自Nous Research应用研究小组团队微调出新一代大模型Nous-Hermes 2 Mixtral 8x7B,在主流基准测试中击败了Mixtral Instruct。

来自主题: AI技术研报
7346 点击    2024-01-19 14:25
原创| GPT微调,万字保姆级教程+实操案例

原创| GPT微调,万字保姆级教程+实操案例

原创| GPT微调,万字保姆级教程+实操案例

OpenAI 宣布,正式开放 GPT3.5 微调 API,并承诺 2023 年内推出 GPT-4 微调 API。

来自主题: AI资讯
10517 点击    2024-01-14 12:01
国内多所高校共建开源社区LAMM,加入多模态语言模型大家庭的时候到了

国内多所高校共建开源社区LAMM,加入多模态语言模型大家庭的时候到了

国内多所高校共建开源社区LAMM,加入多模态语言模型大家庭的时候到了

LAMM (Language-Assisted Multi-Modal) 旨在建设面向开源学术社区的多模态指令微调及评测框架,其包括了高度优化的训练框架、全面的评测体系,支持多种视觉模态。

来自主题: AI资讯
4926 点击    2024-01-11 11:43
四行代码让大模型上下文暴增3倍,羊驼Mistral都适用

四行代码让大模型上下文暴增3倍,羊驼Mistral都适用

四行代码让大模型上下文暴增3倍,羊驼Mistral都适用

无需微调,只要四行代码就能让大模型窗口长度暴增,最高可增加3倍!而且是“即插即用”,理论上可以适配任意大模型,目前已在Mistral和Llama2上试验成功。

来自主题: AI资讯
7832 点击    2024-01-08 14:33