AI资讯新闻榜单内容搜索-LLM

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: LLM
原作者带队再次改造xLSTM,7B模型速度最快超Mamba 50%,权重代码全开源

原作者带队再次改造xLSTM,7B模型速度最快超Mamba 50%,权重代码全开源

原作者带队再次改造xLSTM,7B模型速度最快超Mamba 50%,权重代码全开源

近年来,大型语言模型(LLM)通过大量计算资源在推理阶段取得了解决复杂问题的突破。推理速度已成为 LLM 架构的关键属性,市场对高效快速的 LLM 需求不断增长。

来自主题: AI技术研报
6714 点击    2025-03-20 09:26
Django创造者Simon Willison分享:我如何使用LLM帮我写代码

Django创造者Simon Willison分享:我如何使用LLM帮我写代码

Django创造者Simon Willison分享:我如何使用LLM帮我写代码

近段时间,著名 AI 科学家 Andrej Karpathy 提出的氛围编程(vibe coding)是 AI 领域的一大热门话题。简单来说,氛围编程就是鼓励开发者忘掉代码,进入开发的氛围之中。更简单地讲,就是向 LLM 提出需求,然后「全部接受」即可。

来自主题: AI技术研报
9869 点击    2025-03-19 10:03
太疯狂了,仅100行56KB的LLM框架,用Cursor复刻一个一模一样的cursor | 已开源

太疯狂了,仅100行56KB的LLM框架,用Cursor复刻一个一模一样的cursor | 已开源

太疯狂了,仅100行56KB的LLM框架,用Cursor复刻一个一模一样的cursor | 已开源

现在各种框架满天飞,你是否想过这个问题,一个真正优秀的框架究竟需要多少代码?研究者Zach给出了一个令人惊讶的答案:仅需100行。这个名为PocketFlow的框架不仅体积小到令人难以置信(仅56KB),还能用来构建一个完整的Cursor编码助手。这个发现不仅挑战了我们对框架复杂性的认知,更揭示了一个重要的设计哲学:真正的创新往往来自于化繁为简。

来自主题: AI技术研报
9406 点击    2025-03-18 18:55
超越DeepSeek GRPO的关键RL算法,字节、清华AIR开源DAPO

超越DeepSeek GRPO的关键RL算法,字节、清华AIR开源DAPO

超越DeepSeek GRPO的关键RL算法,字节、清华AIR开源DAPO

DeepSeek 提出的 GRPO 可以极大提升 LLM 的强化学习效率,不过其论文中似乎还缺少一些关键细节,让人难以复现出大规模和工业级的强化学习系统。

来自主题: AI技术研报
6834 点击    2025-03-18 17:14
AI 大模型创业,悄悄盯上年轻人最爱的「谷子经济」

AI 大模型创业,悄悄盯上年轻人最爱的「谷子经济」

AI 大模型创业,悄悄盯上年轻人最爱的「谷子经济」

Neurobo(弈智交互)是一家位于上海的创业公司,获得前百度总裁、微软副总裁陆奇博士创办的奇绩创坛的投资。团队核心成员来自清华大学与日本筑波大学等海内外名校,致力于结合 LLM 与现实场景数据,让二次元用户可以将「谷子」变为随身相伴,随时触达的实体情感伴侣。

来自主题: AI资讯
8969 点击    2025-03-16 20:05
谷歌重磅推出全新Scaling Law,抢救Transformer!3万亿美元AI面临岔路

谷歌重磅推出全新Scaling Law,抢救Transformer!3万亿美元AI面临岔路

谷歌重磅推出全新Scaling Law,抢救Transformer!3万亿美元AI面临岔路

谷歌团队发现了全新Scaling Law!新方法DiLoCo被证明更好、更快、更强,可在多个数据中心训练越来越大的LLM。

来自主题: AI技术研报
6585 点击    2025-03-16 16:09
无需训练,100%完美检索!LLM练出「火眼金睛」,InfiniRetri超长文本一针见血

无需训练,100%完美检索!LLM练出「火眼金睛」,InfiniRetri超长文本一针见血

无需训练,100%完美检索!LLM练出「火眼金睛」,InfiniRetri超长文本一针见血

LLM自身有望在无限长token下检索信息!无需训练,在检索任务「大海捞针」(Needle-in-a-Haystack)测试中,新方法InfiniRetri让有效上下文token长度从32K扩展至1000+K,让7B模型比肩72B模型。

来自主题: AI技术研报
10010 点击    2025-03-16 13:28