AI大神李沐老师时隔1年多,终于回归B站“填坑”经典论文精读系列了!
没错,最新主角儿还是Llama-3.1:
在这个18分钟左右的视频中,李沐老师手把手教我们读Llama-3.1技术论文,甚至还爆料了一些八卦。(指路7分50秒左右)
他提到,Llama团队在训练最大模型时,其实一开始同时训练了MoE模型和稠密模型,但是前者后来失败了,所以最后只发了一个简单版本。
更多细节大家可以去看原视频,悄咪咪透露,李沐老师刚一上线,播放瞬间破万了。
一大批研究僧们正闻风赶来,瞧瞧热一就知道大家的精神状态了:
(视频地址在文末领取)
与此同时,大模型竞技场排名更新,Llama-3.1-405B代表开源模型首次跻身竞技场前三,仅次于GPT-4o和Claude-3.5-Sonnet。
当然了,这一结果可能并不意外,Meta官方早就暗戳戳地将这几个作了一番比较。
同样是人类评估,Llama-3.1-405B和另外两个打得不分上下。
另外我们看到,Llama-3.1-405B不仅整体能打,在单项(编码、数学、指令遵循、硬提示)中依然牢牢占据前三。
值得一提的是,Llama-3.1-70B也来到了总榜第9,整体置信水平相较之前有了大幅提高。
不过最令人惊喜的是,与此同时,国外网友也对405B的新战绩发来贺电,更有人“贴心”提醒:
405B只接受过“计算最优”训练,他们(指Meta)本来可以继续前进,下一次迭代将会是惊人的。
Okk,知道Llama-3.1-405B很腻害了!
这不,仅发布一周,网友们已经玩出花了……
搞生产第一步,先在本地跑起来试试~
Open Interpreter(一个让LLMs在用户本地运行的项目)技术社区经理为我们展示了他的成果——
让Llama-3.1-8B在树莓派上运行,仅用到CPU。
方法嘛,只需在GitHub或Hugging Face下载llamafile文件,配置参数后即可。
据他透露, 这项尝试使用了Raspberry Pi 5(8GB内存)、M.2 Hat和Hailo AI模块,且采用了4-bit quantization(4位量化)。
不过小哥也调侃,这家伙运行几句话就能真·烧干CPU。
接下来,小哥已经在网友的催促下磨刀霍霍向405B了~
除了上面这个例子,还有网友用Llama-3.1-405B在任何GitHub仓库上开始创建聊天机器人。
而且是不花钱那种,Hugging Face免费提供了创建新助手的功能。
不过Groq工程师Rick Lamers在尝试后提出质疑:
当前的RAG管道可能存在问题,容易产生幻觉。
但不管怎样,网友们想尝试的心还是拦不住了~
另外,除了实实在在拿出东西,还有网友拿Llama-3.1-405B放起了烟雾弹。
就在刚刚,网友Hassan宣布:
使用Llama-3.1-405B生成完整的React应用程序。
好家伙,这下开发APP岂不是更简单了!
虽然还未正式开源,但底下网友们已经开始排好队了。
更多玩法欢迎大家自行解锁~
文章来源于“量子位”,作者“关注前沿科技”
【开源免费】graphrag是微软推出的RAG项目,与传统的通过 RAG 方法使用向量相似性作为搜索技术不同,GraphRAG是使用知识图谱在推理复杂信息时大幅提高问答性能。
项目地址:https://github.com/microsoft/graphrag
【开源免费】Dify是最早一批实现RAG,Agent,模型管理等一站式AI开发的工具平台,并且项目方一直持续维护。其中在任务编排方面相对领先对手,可以帮助研发实现像字节扣子那样的功能。
项目地址:https://github.com/langgenius/dify
【开源免费】RAGFlow是和Dify类似的开源项目,该项目在大文件解析方面做的更出色,拓展编排方面相对弱一些。
项目地址:https://github.com/infiniflow/ragflow/tree/main
【开源免费】phidata是一个可以实现将数据转化成向量存储,并通过AI实现RAG功能的项目
项目地址:https://github.com/phidatahq/phidata
【开源免费】TaskingAI 是一个提供RAG,Agent,大模型管理等AI项目开发的工具平台,比LangChain更强大的中间件AI平台工具。
项目地址:https://github.com/TaskingAI/TaskingAI
【免费】ffa.chat是一个完全免费的GPT-4o镜像站点,无需魔法付费,即可无限制使用GPT-4o等多个海外模型产品。
在线使用:https://ffa.chat/