# 热门搜索 #
搜索
搜索: LLaMA
像人类一样在批评中学习成长,1317条评语让LLaMA2胜率飙升30倍

有的大模型对齐方法包括基于示例的监督微调(SFT)和基于分数反馈的强化学习(RLHF)。然而,分数只能反应当前回复的好坏程度,并不能明确指出模型的不足之处。相较之下,我们人类通常是从语言反馈中学习并调整自己的行为模式。

来自主题: AI技术研报
4598 点击    2024-02-03 12:52
OpenAI向左,Meta往右

1月18日,马克·扎克伯格宣布,Meta正在计划构建自己的AGI(通用人工智能),将在绝大多数领域中都达到或超越人类智能水平。同时他强调,保证会向大众开放这一技术,以便人人都能从中获益。

来自主题: AI资讯
5404 点击    2024-01-26 14:03
2023十大AI盘点:大模型正在建立新秩序

大模型打开AI新世界,Vision Pro引领空间计算,智能电车超越油车,拼多多“新王”已立,智能手机狂卷创新,新硬件层出不穷,鸿蒙系统加速壮大,AI芯片驱动万物……2023年,科技产业发生了太多重大事件。

来自主题: AI资讯
4621 点击    2023-12-27 14:48
这一代AI追随者的窘境

前不久,原阿里首席AI科学家贾扬清的一条朋友圈截图四处流传。贾扬清说,他的一个朋友告诉他,某国产大模型不过是LLaMA架构,只是更换了几个变量名而已。 很快有好事者发现,在大模型、数据集开源社区Hugging Face上,就有一位开发者发出了类似质疑:“该模型使用了Meta LLaMA 的架构,只修改个tensor(张量)”。

来自主题: AI资讯
6982 点击    2023-11-26 20:58
LLaMA 2端到端推理打通!来自中国团队

Buddy Compiler 端到端 LLaMA2-7B 推理示例已经合并到 buddy-mlir仓库[1]主线。我们在 Buddy Compiler 的前端部分实现了面向 TorchDynamo 的第三方编译器,从而结合了 MLIR 和 PyTorch 的编译生态。

来自主题: AI技术研报
4586 点击    2023-11-23 20:33