AI资讯新闻榜单内容搜索-微调

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 微调
普林斯顿博士生高天宇指令微调进展速览:数据、算法和评估

普林斯顿博士生高天宇指令微调进展速览:数据、算法和评估

普林斯顿博士生高天宇指令微调进展速览:数据、算法和评估

自 ChatGPT 等大型语言模型推出以来,为了提升模型效果,各种指令微调方法陆续被提出。本文中,普林斯顿博士生、陈丹琦学生高天宇汇总了指令微调领域的进展,包括数据、算法和评估等。

来自主题: AI技术研报
6786 点击    2024-01-21 14:14
最佳开源模型刷新多项SOTA,首次超越Mixtral Instruct!「开源版GPT-4」家族迎来大爆发

最佳开源模型刷新多项SOTA,首次超越Mixtral Instruct!「开源版GPT-4」家族迎来大爆发

最佳开源模型刷新多项SOTA,首次超越Mixtral Instruct!「开源版GPT-4」家族迎来大爆发

Mixtral 8x7B模型开源后,AI社区再次迎来一大波微调实践。来自Nous Research应用研究小组团队微调出新一代大模型Nous-Hermes 2 Mixtral 8x7B,在主流基准测试中击败了Mixtral Instruct。

来自主题: AI技术研报
7692 点击    2024-01-19 14:25
原创| GPT微调,万字保姆级教程+实操案例

原创| GPT微调,万字保姆级教程+实操案例

原创| GPT微调,万字保姆级教程+实操案例

OpenAI 宣布,正式开放 GPT3.5 微调 API,并承诺 2023 年内推出 GPT-4 微调 API。

来自主题: AI资讯
11077 点击    2024-01-14 12:01
国内多所高校共建开源社区LAMM,加入多模态语言模型大家庭的时候到了

国内多所高校共建开源社区LAMM,加入多模态语言模型大家庭的时候到了

国内多所高校共建开源社区LAMM,加入多模态语言模型大家庭的时候到了

LAMM (Language-Assisted Multi-Modal) 旨在建设面向开源学术社区的多模态指令微调及评测框架,其包括了高度优化的训练框架、全面的评测体系,支持多种视觉模态。

来自主题: AI资讯
5146 点击    2024-01-11 11:43
四行代码让大模型上下文暴增3倍,羊驼Mistral都适用

四行代码让大模型上下文暴增3倍,羊驼Mistral都适用

四行代码让大模型上下文暴增3倍,羊驼Mistral都适用

无需微调,只要四行代码就能让大模型窗口长度暴增,最高可增加3倍!而且是“即插即用”,理论上可以适配任意大模型,目前已在Mistral和Llama2上试验成功。

来自主题: AI资讯
8157 点击    2024-01-08 14:33
看见这张图没有,你就照着画:谷歌图像生成AI掌握多模态指令

看见这张图没有,你就照着画:谷歌图像生成AI掌握多模态指令

看见这张图没有,你就照着画:谷歌图像生成AI掌握多模态指令

谷歌新设计的一种图像生成模型已经能做到这一点了!通过引入指令微调技术,多模态大模型可以根据文本指令描述的目标和多张参考图像准确生成新图像,效果堪比 PS 大神抓着你的手助你 P 图。

来自主题: AI技术研报
3195 点击    2024-01-06 16:42
当LLM学会左右互搏,基础模型或将迎来集体进化

当LLM学会左右互搏,基础模型或将迎来集体进化

当LLM学会左右互搏,基础模型或将迎来集体进化

进入现今的大模型 (LLM) 时代,又有研究者发现了左右互搏的精妙用法!近日,加利福尼亚大学洛杉矶分校的顾全全团队提出了一种新方法 SPIN(Self-Play Fine-Tuning),可不使用额外微调数据,仅靠自我博弈就能大幅提升 LLM 的能力。

来自主题: AI资讯
9567 点击    2024-01-06 12:17
大模型套壳祛魅

大模型套壳祛魅

大模型套壳祛魅

本文探讨了大模型套壳的问题,解释了大模型的内核和预训练过程。同时,介绍了“原创派”和“模仿派”两种预训练框架的差异,并讨论了通过“偷”聊天模型数据进行微调的现象。最后,提出了把“壳”做厚才是竞争力的观点。

来自主题: AI资讯
6627 点击    2024-01-04 09:53
5000字干货总结:探索AI在B端产品中的应用

5000字干货总结:探索AI在B端产品中的应用

5000字干货总结:探索AI在B端产品中的应用

随着AI的发展,其应用场景也越来越广泛。在这样的背景下,面向企业的B端产品同样迎来了转型升级的机遇。本文将阐述AI在B端产品中的应用,希望对你有所帮助。

来自主题: AI资讯
7256 点击    2024-01-03 16:12