AI资讯新闻榜单内容搜索-LLM

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: LLM
北大等发布最新AI智能体Jarvis-1,制霸「我的世界」

北大等发布最新AI智能体Jarvis-1,制霸「我的世界」

北大等发布最新AI智能体Jarvis-1,制霸「我的世界」

北大、北邮、UCLA和BIGAI的研究团队联合发布,智能体新突破——Jarvis-1.智能体研究又取得了新成绩!

来自主题: AI资讯
4849 点击    2023-12-08 14:39
 4GB 显存单卡居然能跑 70B 大模型了!

4GB 显存单卡居然能跑 70B 大模型了!

4GB 显存单卡居然能跑 70B 大模型了!

大语言模型需要消耗巨量的GPU内存。有可能一个单卡GPU跑推理吗?可以的话,最低多少显存?70B大语言模型仅参数量就有130GB,仅仅把模型加载到GPU显卡里边就需要2台顶配100GB内存的A100。

来自主题: AI资讯
8796 点击    2023-12-07 11:00
微调都不要了?3个样本、1个提示搞定LLM对齐,提示工程师:全都回来了

微调都不要了?3个样本、1个提示搞定LLM对齐,提示工程师:全都回来了

微调都不要了?3个样本、1个提示搞定LLM对齐,提示工程师:全都回来了

大模型的效果好不好,有时候对齐调优很关键。但近来很多研究开始探索无微调的方法,艾伦人工智能研究所和华盛顿大学的研究者用「免调优」对齐新方法超越了使用监督调优(SFT)和人类反馈强化学习(RLHF)的 LLM 性能。

来自主题: AI资讯
6996 点击    2023-12-06 15:17
不是大模型全局微调不起,只是LoRA更有性价比,教程已经准备好了

不是大模型全局微调不起,只是LoRA更有性价比,教程已经准备好了

不是大模型全局微调不起,只是LoRA更有性价比,教程已经准备好了

增加数据量和模型的参数量是公认的提升神经网络性能最直接的方法。目前主流的大模型的参数量已扩展至千亿级别,「大模型」越来越大的趋势还将愈演愈烈。

来自主题: AI资讯
6364 点击    2023-12-05 10:42
最强的GPT-4V都考不过?基于大学考试的测试基准MMMU诞生了

最强的GPT-4V都考不过?基于大学考试的测试基准MMMU诞生了

最强的GPT-4V都考不过?基于大学考试的测试基准MMMU诞生了

目前最好的大型多模态模型 GPT-4V 与大学生谁更强?我们还不知道,但近日一个新的基准数据集 MMMU 以及基于其的基准测试或许能给我们提供一点线索,

来自主题: AI技术研报
10897 点击    2023-12-01 14:53