AI资讯新闻榜单内容搜索-Llama

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
搜索: Llama
运行LIama2得8400万元!最快AI推理芯片成本推算引热议

运行LIama2得8400万元!最快AI推理芯片成本推算引热议

运行LIama2得8400万元!最快AI推理芯片成本推算引热议

这两天,Groq惊艳亮相。它以号称“性价比高英伟达100倍”的芯片,实现每秒500tokens大模型生成,感受不到任何延迟。外加谷歌TPU团队这样一个高精尖人才Buff,让不少人直呼:英伟达要被碾压了……

来自主题: AI资讯
2716 点击    2024-02-21 16:39
向完全自主性更进一步,清华、港大全新跨任务自我进化策略让智能体学会「以经验为鉴」

向完全自主性更进一步,清华、港大全新跨任务自我进化策略让智能体学会「以经验为鉴」

向完全自主性更进一步,清华、港大全新跨任务自我进化策略让智能体学会「以经验为鉴」

成功从过去的经验中提取知识并将其应用于未来的挑战,这是人类进化之路上重要的里程碑。那么在人工智能时代,AI 智能体是否也可以做到同样的事情呢?

来自主题: AI资讯
8817 点击    2024-02-06 15:08
开源AI拯救Meta一夜飙升1960亿刀,39岁小扎爬出元宇宙深坑!年分红7个亿,靠Llama赢麻了

开源AI拯救Meta一夜飙升1960亿刀,39岁小扎爬出元宇宙深坑!年分红7个亿,靠Llama赢麻了

开源AI拯救Meta一夜飙升1960亿刀,39岁小扎爬出元宇宙深坑!年分红7个亿,靠Llama赢麻了

把小扎从元宇宙大坑中拯救出来的,居然是开源AI!市值大涨的Meta,现在能让小扎一年分红7亿美元。股价图一出,LeCun都评论:有意思。

来自主题: AI资讯
6948 点击    2024-02-04 13:47
像人类一样在批评中学习成长,1317条评语让LLaMA2胜率飙升30倍

像人类一样在批评中学习成长,1317条评语让LLaMA2胜率飙升30倍

像人类一样在批评中学习成长,1317条评语让LLaMA2胜率飙升30倍

有的大模型对齐方法包括基于示例的监督微调(SFT)和基于分数反馈的强化学习(RLHF)。然而,分数只能反应当前回复的好坏程度,并不能明确指出模型的不足之处。相较之下,我们人类通常是从语言反馈中学习并调整自己的行为模式。

来自主题: AI技术研报
4908 点击    2024-02-03 12:52
2B小钢炮碾压Mistral-7B,旗舰级端侧模型炸场开年黑马!1080Ti可训,170万tokens成本仅1元

2B小钢炮碾压Mistral-7B,旗舰级端侧模型炸场开年黑马!1080Ti可训,170万tokens成本仅1元

2B小钢炮碾压Mistral-7B,旗舰级端侧模型炸场开年黑马!1080Ti可训,170万tokens成本仅1元

2B性能小钢炮来了!刚刚,面壁智能重磅开源了旗舰级端侧多模态模型MiniCPM,2B就能赶超Mistral-7B,还能越级比肩Llama2-13B。成本更是低到炸裂,170万tokens成本仅为1元!

来自主题: AI资讯
9120 点击    2024-02-02 11:18
大模型也能切片,微软SliceGPT让LLAMA-2计算效率大增

大模型也能切片,微软SliceGPT让LLAMA-2计算效率大增

大模型也能切片,微软SliceGPT让LLAMA-2计算效率大增

删除权重矩阵的一些行和列,让 LLAMA-2 70B 的参数量减少 25%,模型还能保持 99% 的零样本任务性能,同时计算效率大大提升。这就是微软 SliceGPT 的威力。

来自主题: AI技术研报
2767 点击    2024-01-30 13:43
Meta官方的Prompt工程指南:Llama 2这样用更高效

Meta官方的Prompt工程指南:Llama 2这样用更高效

Meta官方的Prompt工程指南:Llama 2这样用更高效

随着大型语言模型(LLM)技术日渐成熟,提示工程(Prompt Engineering)变得越来越重要。一些研究机构发布了 LLM 提示工程指南,包括微软、OpenAI 等等。

来自主题: AI技术研报
5867 点击    2024-01-29 12:36
Llama-2+Mistral+MPT=? 融合多个异构大模型显奇效

Llama-2+Mistral+MPT=? 融合多个异构大模型显奇效

Llama-2+Mistral+MPT=? 融合多个异构大模型显奇效

融合多个异构大语言模型,中山大学、腾讯 AI Lab 推出 FuseLLM

来自主题: AI技术研报
3912 点击    2024-01-27 13:51