AI资讯新闻榜单内容搜索-微调

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
搜索: 微调
函数调用提示词咋写,看下OpenAI发布的Function Calling指南(万字含示例)|最新

函数调用提示词咋写,看下OpenAI发布的Function Calling指南(万字含示例)|最新

函数调用提示词咋写,看下OpenAI发布的Function Calling指南(万字含示例)|最新

端午节前OpenAI发布了o3/o4-mini模型的Function Calling指南,这份指南可以说是目前网上最硬核权威的大模型函数调用实战手册,没有之一。

来自主题: AI技术研报
6897 点击    2025-06-03 12:19
SFT在帮倒忙?新研究:直接进行强化学习,模型多模态推理上限更高

SFT在帮倒忙?新研究:直接进行强化学习,模型多模态推理上限更高

SFT在帮倒忙?新研究:直接进行强化学习,模型多模态推理上限更高

「尽管经过 SFT 的模型可能看起来在进行推理,但它们的行为更接近于模式模仿 —— 一种缺乏泛化推理能力的伪推理形式。」

来自主题: AI技术研报
7118 点击    2025-06-02 15:24
LLM省钱大测评!48块GH200,首个百亿级参数量实证

LLM省钱大测评!48块GH200,首个百亿级参数量实证

LLM省钱大测评!48块GH200,首个百亿级参数量实证

EfficientLLM项目聚焦LLM效率,提出三轴分类法和六大指标,实验包揽全架构、多模态、微调技术,可为研究人员提供效率与性能平衡的参考。

来自主题: AI技术研报
6852 点击    2025-05-29 17:16
开源模型竟被用于窃取下游微调数据?清华团队揭秘开源微调范式新型隐藏安全风险

开源模型竟被用于窃取下游微调数据?清华团队揭秘开源微调范式新型隐藏安全风险

开源模型竟被用于窃取下游微调数据?清华团队揭秘开源微调范式新型隐藏安全风险

基于开源模型继续在下游任务上使用私有下游数据进行微调,得到在下游任务表现更好的专有模型,已经成为了一类标准范式。

来自主题: AI技术研报
8840 点击    2025-05-28 09:55
Meta「轻量级」KernelLLM颠覆GPU内核生成,8B参数碾压GPT-4o

Meta「轻量级」KernelLLM颠覆GPU内核生成,8B参数碾压GPT-4o

Meta「轻量级」KernelLLM颠覆GPU内核生成,8B参数碾压GPT-4o

Meta推出KernelLLM,这个基于Llama 3.1微调的8B模型,竟能将PyTorch代码自动转换为高效Triton GPU内核。实测数据显示,它的单次推理性能超越GPT-4o和DeepSeek V3,多次生成时得分飙升。

来自主题: AI技术研报
5743 点击    2025-05-27 18:00
3步轻松微调Qwen3,本地电脑就能搞,这个方案可以封神了!【喂饭级教程】

3步轻松微调Qwen3,本地电脑就能搞,这个方案可以封神了!【喂饭级教程】

3步轻松微调Qwen3,本地电脑就能搞,这个方案可以封神了!【喂饭级教程】

大家好,我是袋鼠帝 今天给大家带来的是一个带WebUI,无需代码的超简单的本地大模型微调方案(界面操作),实测微调之后的效果也是非常不错。

来自主题: AI技术研报
6990 点击    2025-05-27 13:38
万径归于「概率」,华人学者颠覆认知!英伟达大牛力荐RL微调新作

万径归于「概率」,华人学者颠覆认知!英伟达大牛力荐RL微调新作

万径归于「概率」,华人学者颠覆认知!英伟达大牛力荐RL微调新作

华人学者参与的一项研究,重新确立了强化学习在LLM微调的价值,深度解释了AI训练「两阶段强化学习」的原因。某种意义上,他们的论文说明RL微调就是统计。

来自主题: AI技术研报
7960 点击    2025-05-10 15:10
「推理革命」爆发100天:DeepSeek-R1复现研究全揭秘!

「推理革命」爆发100天:DeepSeek-R1复现研究全揭秘!

「推理革命」爆发100天:DeepSeek-R1复现研究全揭秘!

本文深入梳理了围绕DeepSeek-R1展开的多项复现研究,系统解析了监督微调(SFT)、强化学习(RL)以及奖励机制、数据构建等关键技术细节。

来自主题: AI技术研报
5910 点击    2025-05-06 10:53
CVPR 2025 | CV 微调卷出天际,Mona:我小、我强、我省资源

CVPR 2025 | CV 微调卷出天际,Mona:我小、我强、我省资源

CVPR 2025 | CV 微调卷出天际,Mona:我小、我强、我省资源

Mona(Multi-cognitive Visual Adapter)是一种新型视觉适配器微调方法,旨在打破传统全参数微调(full fine-tuning)在视觉识别任务中的性能瓶颈。

来自主题: AI技术研报
6689 点击    2025-05-02 14:17