AI资讯新闻榜单内容搜索-LLM

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
搜索: LLM
文本、图像、点云任意模态输入,AI能够一键生成高质量CAD模型了

文本、图像、点云任意模态输入,AI能够一键生成高质量CAD模型了

文本、图像、点云任意模态输入,AI能够一键生成高质量CAD模型了

该项目由忆生科技联合香港大学、上海科技大学共同完成,是全球首个同时支持文本描述、图像、点云等多模态输入的计算机辅助设计(CAD)生成大模型。

来自主题: AI技术研报
6443 点击    2024-11-25 15:51
小学二年级数学水平,跟着这篇博客也能理解LLM运行原理

小学二年级数学水平,跟着这篇博客也能理解LLM运行原理

小学二年级数学水平,跟着这篇博客也能理解LLM运行原理

最近,Meta Gen AI 部门的数据科学总监 Rohit Patel 听到了你的心声。他用加法和乘法 —— 小学二年级的数学知识,深入浅出地解析了大模型的基础原理。

来自主题: AI资讯
5370 点击    2024-11-25 15:24
神级项目训练GPT-2仅需5分钟,Andrej Karpathy都点赞

神级项目训练GPT-2仅需5分钟,Andrej Karpathy都点赞

神级项目训练GPT-2仅需5分钟,Andrej Karpathy都点赞

今年 4 月,AI 领域大牛 Karpathy 一个仅用 1000 行代码即可在 CPU/fp32 上实现 GPT-2 训练的项目「llm.c」曾经引发机器学习社区的热烈讨论。

来自主题: AI资讯
5342 点击    2024-11-22 10:18
手把手教你预训练一个小型 LLM|Steel-LLM 的实战经验

手把手教你预训练一个小型 LLM|Steel-LLM 的实战经验

手把手教你预训练一个小型 LLM|Steel-LLM 的实战经验

随着开源数据的日益丰富以及算力价格的持续下降,对于个人或小型机构而言,预训练一个小型的 LLM 已逐渐成为可能。开源中文预训练语言模型 Steel - LLM 就是一个典型案例,其模型参数量与数据量并非十分庞大,基本处于参数量为 B 级别、数据量为 T 级别的规模。

来自主题: AI技术研报
6998 点击    2024-11-22 09:44
14天速成LLM高手!大佬开源学习笔记,GitHub狂揽700星

14天速成LLM高手!大佬开源学习笔记,GitHub狂揽700星

14天速成LLM高手!大佬开源学习笔记,GitHub狂揽700星

一位AI从业者分享的14天学习路线图,涵盖大模型从基础到高级的主要关键概念!

来自主题: AI资讯
5122 点击    2024-11-17 14:34
小米上新二代大模型!窗口长度翻至50倍,平均性能提升超45%

小米上新二代大模型!窗口长度翻至50倍,平均性能提升超45%

小米上新二代大模型!窗口长度翻至50倍,平均性能提升超45%

小米大模型第二代来了! 相比第一代,训练数据规模更大、品质更高,训练策略与微调机制上也进行了深入打磨。

来自主题: AI技术研报
4340 点击    2024-11-13 09:12
自动漂移、用LLM和扩散模型“折腾”机器人…顶会CoRL上最佳论文都在研究啥

自动漂移、用LLM和扩散模型“折腾”机器人…顶会CoRL上最佳论文都在研究啥

自动漂移、用LLM和扩散模型“折腾”机器人…顶会CoRL上最佳论文都在研究啥

第8届CoRL于2024年11月6日至9日在德国慕尼黑举行,展示了机器人学习领域的前沿研究和发展,尤其是在自主系统、机器人控制和多模态人工智能领域。

来自主题: AI技术研报
6166 点击    2024-11-12 17:33
清华厦大等提出“无限长上下文”技术,100万大海捞针全绿,Llama\Qwen\MiniCPM都能上分

清华厦大等提出“无限长上下文”技术,100万大海捞针全绿,Llama\Qwen\MiniCPM都能上分

清华厦大等提出“无限长上下文”技术,100万大海捞针全绿,Llama\Qwen\MiniCPM都能上分

大模型的记忆限制被打破了,变相实现“无限长”上下文。最新成果,来自清华、厦大等联合提出的LLMxMapReduce长本文分帧处理技术。

来自主题: AI技术研报
3672 点击    2024-11-09 15:38
全面思考,从目标到起点规划,提升LLM规划能力4%至24% |普林斯顿最新

全面思考,从目标到起点规划,提升LLM规划能力4%至24% |普林斯顿最新

全面思考,从目标到起点规划,提升LLM规划能力4%至24% |普林斯顿最新

在Prompt工程领域,规划任务一直以来都是一个巨大的挑战,因为这要求大语言模型(LLMs)不仅能够理解自然语言,还能有效执行复杂推理和应对长时间跨度的操作。

来自主题: AI资讯
3373 点击    2024-11-08 10:16