AI资讯新闻榜单内容搜索-模型训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 模型训练
微软BitDistill将LLM压缩到1.58比特:10倍内存节省、2.65倍CPU推理加速

微软BitDistill将LLM压缩到1.58比特:10倍内存节省、2.65倍CPU推理加速

微软BitDistill将LLM压缩到1.58比特:10倍内存节省、2.65倍CPU推理加速

大语言模型(LLM)不仅在推动通用自然语言处理方面发挥了关键作用,更重要的是,它们已成为支撑多种下游应用如推荐、分类和检索的核心引擎。尽管 LLM 具有广泛的适用性,但在下游任务中高效部署仍面临重大挑战。

来自主题: AI技术研报
5935 点击    2025-10-21 11:43
有效的 Context 工程(精读、万字梳理)|见知录 004

有效的 Context 工程(精读、万字梳理)|见知录 004

有效的 Context 工程(精读、万字梳理)|见知录 004

近日刚好得了空闲,在研读 Anthropic 官方技术博客和一些相关论文,主题是「Agent 与 Context 工程」。2025 年 6 月以来,原名为「Prompt Engineering」的提示词工程,在 AI Agent 概念日趋火热的应用潮中,

来自主题: AI技术研报
7062 点击    2025-10-21 10:21
告别「偏科」,UniVid实现视频理解与生成一体化

告别「偏科」,UniVid实现视频理解与生成一体化

告别「偏科」,UniVid实现视频理解与生成一体化

在视频生成与理解的赛道上,常常见到分头发力的模型:有的专注做视频生成,有的专注做视频理解(如问答、分类、检索等)。而最近,一个开源项目 UniVid,提出了一个「融合」方向:把理解 + 生成融为一体 —— 他们希望用一个统一的模型,兼顾「看懂视频」+「生成视频」的能力。

来自主题: AI技术研报
7551 点击    2025-10-21 10:17
RL新思路!复旦用游戏增强VLM通用推理,性能匹敌几何数据

RL新思路!复旦用游戏增强VLM通用推理,性能匹敌几何数据

RL新思路!复旦用游戏增强VLM通用推理,性能匹敌几何数据

复旦大学NLP实验室研发Game-RL,利用游戏丰富视觉元素和明确规则生成多模态可验证推理数据,通过强化训练提升视觉语言模型的推理能力。创新性地提出Code2Logic方法,系统化合成游戏任务数据,构建GameQA数据集,验证了游戏数据在复杂推理训练中的优势。

来自主题: AI技术研报
8220 点击    2025-10-21 10:05
GPT-5≈o3.1!OpenAI首次详解思考机制:RL+预训练才是AGI正道

GPT-5≈o3.1!OpenAI首次详解思考机制:RL+预训练才是AGI正道

GPT-5≈o3.1!OpenAI首次详解思考机制:RL+预训练才是AGI正道

在某种程度上,GPT-5可以被视作是o3.1。 该观点出自OpenAI研究副总裁Jerry Tworek的首次播客采访,而Jerry其人,正是o1模型的主导者之一。

来自主题: AI资讯
6593 点击    2025-10-20 15:26
Codeforces难题不够刷?谢赛宁等造了个AI出题机,能生成原创编程题

Codeforces难题不够刷?谢赛宁等造了个AI出题机,能生成原创编程题

Codeforces难题不够刷?谢赛宁等造了个AI出题机,能生成原创编程题

随着大型语言模型(LLM)朝着通用能力迈进,并以通用人工智能(AGI)为最终目标,测试其生成问题的能力也正变得越来越重要。尤其是在将 LLM 应用于高级编程任务时,因为未来 LLM 编程能力的发展和经济整合将需要大量的验证工作。

来自主题: AI技术研报
7194 点击    2025-10-20 15:13
长上下文窗口、Agent崛起,RAG已死?

长上下文窗口、Agent崛起,RAG已死?

长上下文窗口、Agent崛起,RAG已死?

在技术飞速更新迭代的今天,每隔一段时间就会出现「XX 已死」的论调。「搜索已死」、「Prompt 已死」的余音未散,如今矛头又直指 RAG。

来自主题: AI资讯
6475 点击    2025-10-20 15:03