AgentLM:对齐Agent能力的大模型来了!7B/13B/70B全开源
AgentLM:对齐Agent能力的大模型来了!7B/13B/70B全开源智谱AI&清华KEG提出了一种对齐 Agent 能力的微调方法 AgentTuning,该方法使用少量数据微调已有模型,显著激发了模型的 Agent能力,同时可以保持模型原有的通用能力。
智谱AI&清华KEG提出了一种对齐 Agent 能力的微调方法 AgentTuning,该方法使用少量数据微调已有模型,显著激发了模型的 Agent能力,同时可以保持模型原有的通用能力。
微调LLM需谨慎,用良性数据、微调后角色扮演等都会破坏LLM对齐性能!学习调大了还会继续提高风险!
悄无声息,羊驼家族“最强版”来了! 与GPT-4持平,上下文长度达3.2万token的LLaMA 2 Long,正式登场。
矩阵乘法已经成为机器学习模型的构建模块,是各种强大 AI 技术的基础,了解其执行方式必然有助于我们更深入地理解这个 AI 以及这个日趋智能化的世界。
全球最大金融机构之一摩根士丹利,将在本月正式发布一款生成式AI产品用于金融服务,该产品由OpenAI提供支持,并结合了摩根士丹利超过10万份财务报告、内部资料、金融文献等数据进行了微调。
ChatGPT引发的大模型热潮愈演愈烈,全球科技巨头和明星初创争相入局,打造以AI大模型为核心的竞争力和多样化商业使用需求。
参数高效的微调方法SUR-adapter,可以增强text-to-image扩散模型理解关键词的能力。
随着互联网规模的人工智能模型从粗糙的研究演示迅速成熟为面向用户的生产型系统,人们的期望越来越高,目标也发生了巨大变化。在短短几个月内,人工智能界已经从对概念验证的 "零敲碎打 "能力留下深刻印象,集体转向解决提高微调能力的质量和可靠性这一相对具有挑战性的 "最后一公里 "问题。
OpenAI推出了语言模型的微调功能,该功能支持模型GPT-3.5 Turbo和GPT-4。