AI资讯新闻榜单内容搜索-微调

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
搜索: 微调
RAG微调Llama 3竟超越GPT-4!英伟达GaTech华人学者提出RankRAG框架

RAG微调Llama 3竟超越GPT-4!英伟达GaTech华人学者提出RankRAG框架

RAG微调Llama 3竟超越GPT-4!英伟达GaTech华人学者提出RankRAG框架

来自佐治亚理工学院和英伟达的两名华人学者带队提出了名为RankRAG的微调框架,简化了原本需要多个模型的复杂的RAG流水线,用微调的方法交给同一个LLM完成,结果同时实现了模型在RAG任务上的性能提升。

来自主题: AI技术研报
4366 点击    2024-07-09 15:50
清华北航博士生「强迫」Gemma-2说中文!弱智吧、角色扮演、数学问题表现惊喜

清华北航博士生「强迫」Gemma-2说中文!弱智吧、角色扮演、数学问题表现惊喜

清华北航博士生「强迫」Gemma-2说中文!弱智吧、角色扮演、数学问题表现惊喜

谷歌的Gemma 2刚刚发布,清华和北航的两名博士生就已经成功推出了指令微调版本,显著增强了Gemma 2 9B/27B模型的中文通用对话、角色扮演、数学、工具使用等能力。

来自主题: AI资讯
8628 点击    2024-07-06 18:50
ICML 2024高分论文 | 零阶优化器微调大模型,大幅降低内存

ICML 2024高分论文 | 零阶优化器微调大模型,大幅降低内存

ICML 2024高分论文 | 零阶优化器微调大模型,大幅降低内存

开源大语言模型(LLM)百花齐放,为了让它们适应各种下游任务,微调(fine-tuning)是最广泛采用的基本方法。基于自动微分技术(auto-differentiation)的一阶优化器(SGD、Adam 等)虽然在模型微调中占据主流,然而在模型越来越大的今天,却带来越来越大的显存压力。

来自主题: AI技术研报
9452 点击    2024-07-04 13:35
参数少80%,效果仍超LoRA!上交大&上海AI Lab推出高效微调框架FLoRA

参数少80%,效果仍超LoRA!上交大&上海AI Lab推出高效微调框架FLoRA

参数少80%,效果仍超LoRA!上交大&上海AI Lab推出高效微调框架FLoRA

为了让大模型在特定任务、场景下发挥更大作用,LoRA这样能够平衡性能和算力资源的方法正在受到研究者们的青睐。

来自主题: AI技术研报
9480 点击    2024-07-04 11:05
ML工程师一次微调7个模型,击败OpenAI GPT-4

ML工程师一次微调7个模型,击败OpenAI GPT-4

ML工程师一次微调7个模型,击败OpenAI GPT-4

「微调你的模型,获得比GPT-4更好的性能」不只是说说而已,而是真的可操作。最近,一位愿意动手的ML工程师就把几个开源LLM调教成了自己想要的样子。

来自主题: AI技术研报
8453 点击    2024-07-02 15:26
力压70B Llama 3,Gemma 2成最强开源模型!大佬质疑用榜单prompt微调引全网热议

力压70B Llama 3,Gemma 2成最强开源模型!大佬质疑用榜单prompt微调引全网热议

力压70B Llama 3,Gemma 2成最强开源模型!大佬质疑用榜单prompt微调引全网热议

导读:时隔4个月上新的Gemma 2模型在LMSYS Chatbot Arena的排行上,以27B的参数击败了许多更大规模的模型,甚至超过了70B的Llama-3-Instruct,成为开源模型的性能第一!

来自主题: AI资讯
8211 点击    2024-07-02 11:20