AI资讯新闻榜单内容搜索-训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 训练
全模态RAG突破文本局限,港大构建跨模态一体化系统

全模态RAG突破文本局限,港大构建跨模态一体化系统

全模态RAG突破文本局限,港大构建跨模态一体化系统

突破传统检索增强生成(RAG)技术的单一文本局限,实现对文档中文字、图表、表格、公式等复杂内容的统一智能理解。

来自主题: AI技术研报
7278 点击    2025-06-26 15:18
斯坦福Arc发布全球首个虚拟细胞模型! 1.7亿细胞训练,细胞治疗不再“盲试”

斯坦福Arc发布全球首个虚拟细胞模型! 1.7亿细胞训练,细胞治疗不再“盲试”

斯坦福Arc发布全球首个虚拟细胞模型! 1.7亿细胞训练,细胞治疗不再“盲试”

细胞治疗,尤其是CAR-T,被誉为“活的药物”,但其开发与生产面临着一个根本性挑战:我们难以精准控制和预测这些活细胞在人体内的最终状态和功能。同一批次生产的CAR-T细胞,有的能高效清除肿瘤,有的却迅速“耗竭”,这种功能异质性是制约疗效、导致高昂制造成本的核心瓶颈。如何通过基因编辑等手段,将细胞调整到最理想的“战斗”状态,是该领域亟待突破的圣杯。

来自主题: AI资讯
8090 点击    2025-06-25 16:57
重磅!淘天联合爱橙开源强化学习训练框架ROLL,高效支持十亿到千亿参数大模型训练

重磅!淘天联合爱橙开源强化学习训练框架ROLL,高效支持十亿到千亿参数大模型训练

重磅!淘天联合爱橙开源强化学习训练框架ROLL,高效支持十亿到千亿参数大模型训练

过去几年,随着基于人类偏好的强化学习(Reinforcement Learning from Human Feedback,RLHF)的兴起,强化学习(Reinforcement Learning,RL)已成为大语言模型(Large Language Model,LLM)后训练阶段的关键技术。

来自主题: AI技术研报
5627 点击    2025-06-25 16:55
提示词工程、RAG之后,LangChain:上下文工程开始火了!

提示词工程、RAG之后,LangChain:上下文工程开始火了!

提示词工程、RAG之后,LangChain:上下文工程开始火了!

AI 时代,你可能听说过提示词工程、RAG、记忆等术语。但是很少有人提及上下文工程(context engineering)。

来自主题: AI资讯
5929 点击    2025-06-25 16:45
ICML 2025 Oral | 从「浅对齐」到「深思熟虑」,清华牵头搭起大模型安全的下一级阶梯

ICML 2025 Oral | 从「浅对齐」到「深思熟虑」,清华牵头搭起大模型安全的下一级阶梯

ICML 2025 Oral | 从「浅对齐」到「深思熟虑」,清华牵头搭起大模型安全的下一级阶梯

在大语言模型(LLM)加速进入法律、医疗、金融等高风险应用场景的当下,“安全对齐”不再只是一个选项,而是每一位模型开发者与AI落地者都必须正面应对的挑战。

来自主题: AI技术研报
7003 点击    2025-06-25 16:41
高质量RAG的常用优化策略实战项目,落地必看  !!!

高质量RAG的常用优化策略实战项目,落地必看 !!!

高质量RAG的常用优化策略实战项目,落地必看 !!!

本文将介绍 22 种先进的RAG技术,灵感来源于 all-rag-techniques 仓库中的全面实现。这些实现使用 Python 库(如 NumPy、Matplotlib 和 OpenAI 的嵌入模型),避免使用 LangChain 或 FAISS 等依赖,以保持简单性和清晰度。

来自主题: AI技术研报
4772 点击    2025-06-25 16:41
如何做到在手机上实时跑3D真人数字人?MNN-TaoAvatar开源了!

如何做到在手机上实时跑3D真人数字人?MNN-TaoAvatar开源了!

如何做到在手机上实时跑3D真人数字人?MNN-TaoAvatar开源了!

TaoAvatar 是由阿里巴巴淘宝 Meta 技术团队研发的 3D 真人数字人技术,这一技术能在手机或 XR 设备上实现 3D 数字人的实时渲染以及 AI 对话的强大功能,为用户带来逼真的虚拟交互体验。

来自主题: AI技术研报
6808 点击    2025-06-25 16:21
7B小模型超越DeepSeek-R1:模仿人类教师,弱模型也能教出强推理LLM | Transformer作者团队

7B小模型超越DeepSeek-R1:模仿人类教师,弱模型也能教出强推理LLM | Transformer作者团队

7B小模型超越DeepSeek-R1:模仿人类教师,弱模型也能教出强推理LLM | Transformer作者团队

Thinking模式当道,教师模型也该学会“启发式”教学了—— 由Transformer作者之一Llion Jones创立的明星AI公司Sakana AI,带着他们的新方法来了!

来自主题: AI技术研报
8210 点击    2025-06-25 10:55
Cache Me If You Can:陈丹琦团队如何「抓住」关键缓存,解放LLM内存?

Cache Me If You Can:陈丹琦团队如何「抓住」关键缓存,解放LLM内存?

Cache Me If You Can:陈丹琦团队如何「抓住」关键缓存,解放LLM内存?

普林斯顿大学计算机科学系助理教授陈丹琦团队又有了新论文了。近期,诸如「长思维链」等技术的兴起,带来了需要模型生成数万个 token 的全新工作负载。

来自主题: AI技术研报
8200 点击    2025-06-25 10:51