AI资讯新闻榜单内容搜索-微调

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 微调
全球首个芯片设计开源大模型诞生!5年重塑5000亿美元半导体行业

全球首个芯片设计开源大模型诞生!5年重塑5000亿美元半导体行业

全球首个芯片设计开源大模型诞生!5年重塑5000亿美元半导体行业

全球首个芯片设计开源大模型SemiKong正式发布,基于Llama 3微调而来,性能超越通用大模型。未来5年,SemiKong或将重塑价值5000亿美元的半导体行业。

来自主题: AI资讯
9998 点击    2024-07-10 18:14
RAG微调Llama 3竟超越GPT-4!英伟达GaTech华人学者提出RankRAG框架

RAG微调Llama 3竟超越GPT-4!英伟达GaTech华人学者提出RankRAG框架

RAG微调Llama 3竟超越GPT-4!英伟达GaTech华人学者提出RankRAG框架

来自佐治亚理工学院和英伟达的两名华人学者带队提出了名为RankRAG的微调框架,简化了原本需要多个模型的复杂的RAG流水线,用微调的方法交给同一个LLM完成,结果同时实现了模型在RAG任务上的性能提升。

来自主题: AI技术研报
4910 点击    2024-07-09 15:50
清华北航博士生「强迫」Gemma-2说中文!弱智吧、角色扮演、数学问题表现惊喜

清华北航博士生「强迫」Gemma-2说中文!弱智吧、角色扮演、数学问题表现惊喜

清华北航博士生「强迫」Gemma-2说中文!弱智吧、角色扮演、数学问题表现惊喜

谷歌的Gemma 2刚刚发布,清华和北航的两名博士生就已经成功推出了指令微调版本,显著增强了Gemma 2 9B/27B模型的中文通用对话、角色扮演、数学、工具使用等能力。

来自主题: AI资讯
9412 点击    2024-07-06 18:50
ICML 2024高分论文 | 零阶优化器微调大模型,大幅降低内存

ICML 2024高分论文 | 零阶优化器微调大模型,大幅降低内存

ICML 2024高分论文 | 零阶优化器微调大模型,大幅降低内存

开源大语言模型(LLM)百花齐放,为了让它们适应各种下游任务,微调(fine-tuning)是最广泛采用的基本方法。基于自动微分技术(auto-differentiation)的一阶优化器(SGD、Adam 等)虽然在模型微调中占据主流,然而在模型越来越大的今天,却带来越来越大的显存压力。

来自主题: AI技术研报
10189 点击    2024-07-04 13:35
参数少80%,效果仍超LoRA!上交大&上海AI Lab推出高效微调框架FLoRA

参数少80%,效果仍超LoRA!上交大&上海AI Lab推出高效微调框架FLoRA

参数少80%,效果仍超LoRA!上交大&上海AI Lab推出高效微调框架FLoRA

为了让大模型在特定任务、场景下发挥更大作用,LoRA这样能够平衡性能和算力资源的方法正在受到研究者们的青睐。

来自主题: AI技术研报
10209 点击    2024-07-04 11:05
苹果为什么要用「小模型」?

苹果为什么要用「小模型」?

苹果为什么要用「小模型」?

WWDC 2024上,苹果推出了Apple Intelligence,向大家展示了如何开发、训练出功能强大、快速且节能的模型,如何根据特定用户需求进行微调,以及如何评估模型的性能。

来自主题: AI资讯
5449 点击    2024-07-02 18:31
ML工程师一次微调7个模型,击败OpenAI GPT-4

ML工程师一次微调7个模型,击败OpenAI GPT-4

ML工程师一次微调7个模型,击败OpenAI GPT-4

「微调你的模型,获得比GPT-4更好的性能」不只是说说而已,而是真的可操作。最近,一位愿意动手的ML工程师就把几个开源LLM调教成了自己想要的样子。

来自主题: AI技术研报
8855 点击    2024-07-02 15:26
力压70B Llama 3,Gemma 2成最强开源模型!大佬质疑用榜单prompt微调引全网热议

力压70B Llama 3,Gemma 2成最强开源模型!大佬质疑用榜单prompt微调引全网热议

力压70B Llama 3,Gemma 2成最强开源模型!大佬质疑用榜单prompt微调引全网热议

导读:时隔4个月上新的Gemma 2模型在LMSYS Chatbot Arena的排行上,以27B的参数击败了许多更大规模的模型,甚至超过了70B的Llama-3-Instruct,成为开源模型的性能第一!

来自主题: AI资讯
8882 点击    2024-07-02 11:20
ICML 2024|Transformer究竟如何推理?基于样例还是基于规则

ICML 2024|Transformer究竟如何推理?基于样例还是基于规则

ICML 2024|Transformer究竟如何推理?基于样例还是基于规则

文章第一作者为来自北京大学物理学院、即将加入人工智能研究院读博的胡逸。胡逸的导师为北京大学人工智能研究院助理教授、北京通用人工智能研究院研究员张牧涵,主要研究方向为图机器学习和大模型的推理和微调。

来自主题: AI技术研报
9283 点击    2024-06-29 17:53