AI资讯新闻榜单内容搜索-训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 训练
智谱首席科学家唐杰:领域大模型是伪命题!AI模型应用的第一性不应是创造新App,在线学习和自我评估是新Scaling范式

智谱首席科学家唐杰:领域大模型是伪命题!AI模型应用的第一性不应是创造新App,在线学习和自我评估是新Scaling范式

智谱首席科学家唐杰:领域大模型是伪命题!AI模型应用的第一性不应是创造新App,在线学习和自我评估是新Scaling范式

最近,清华大学教授、智谱AI首席科学家唐杰发了一条长微博,总结了自己2025年对大模型进展的感悟。从预训练到中后训练、长尾场景的对齐能力,再到Agent、多模态和具身智能的发展,其中有不少亮点。

来自主题: AI资讯
8662 点击    2025-12-26 15:42
上下文工程的Agent Skills来了,CC、Codex直接用,一周获2.3k star

上下文工程的Agent Skills来了,CC、Codex直接用,一周获2.3k star

上下文工程的Agent Skills来了,CC、Codex直接用,一周获2.3k star

GitHub上最近出现了一个非常火的项目Agent-Skills-for-Context-Engineering,发布不到一周就斩获了2.3k Stars。为什么它能瞬间引爆社区?因为站在2025年末的节点上,我们已经受够了那些只存在于大厂白皮书里的Context Engineering(上下文工程) 理论。

来自主题: AI技术研报
7751 点击    2025-12-26 10:56
向量检索爆雷!傅聪联合浙大发布IceBerg Benchmark:HNSW并非最优,评估体系存在严重偏差

向量检索爆雷!傅聪联合浙大发布IceBerg Benchmark:HNSW并非最优,评估体系存在严重偏差

向量检索爆雷!傅聪联合浙大发布IceBerg Benchmark:HNSW并非最优,评估体系存在严重偏差

将多模态数据纳入到RAG,甚至Agent框架,是目前LLM应用领域最火热的主题之一,针对多模态数据最自然的召回方式,便是向量检索。

来自主题: AI技术研报
6578 点击    2025-12-26 09:40
Anthropic公布新技术:不靠删数据,参数隔离移除AI危险

Anthropic公布新技术:不靠删数据,参数隔离移除AI危险

Anthropic公布新技术:不靠删数据,参数隔离移除AI危险

近年来,大语言模型的能力突飞猛进,但随之而来的却是愈发棘手的双重用途风险(dual-use risks)。当模型在海量公开互联网数据中学习时,它不仅掌握语言与推理能力,也不可避免地接触到 CBRN(化学、生物、放射、核)危险制造、软件漏洞利用等高敏感度、潜在危险的知识领域。

来自主题: AI技术研报
8519 点击    2025-12-25 10:21
生成不遗忘,「超长时序」世界模型!北大EgoLCD长短时记忆加持

生成不遗忘,「超长时序」世界模型!北大EgoLCD长短时记忆加持

生成不遗忘,「超长时序」世界模型!北大EgoLCD长短时记忆加持

视频生成模型总是「记性不好」?生成几秒钟后物体就变形、背景就穿帮?北大、中大等机构联合发布EgoLCD,借鉴人类「长短时记忆」机制,首创稀疏KV缓存+LoRA动态适应架构,彻底解决长视频「内容漂移」难题,在EgoVid-5M基准上刷新SOTA!让AI像人一样拥有连贯的第一人称视角记忆。

来自主题: AI技术研报
7431 点击    2025-12-25 10:16
北航提出代码大模型的 Scaling Laws:编程语言差异与多语言最优配比策略

北航提出代码大模型的 Scaling Laws:编程语言差异与多语言最优配比策略

北航提出代码大模型的 Scaling Laws:编程语言差异与多语言最优配比策略

在代码大模型(Code LLMs)的预训练中,行业内长期存在一种惯性思维,即把所有编程语言的代码都视为同质化的文本数据,主要关注数据总量的堆叠。然而,现代软件开发本质上是多语言混合的,不同语言的语法特性、语料规模和应用场景差异巨大。

来自主题: AI技术研报
6736 点击    2025-12-25 09:46
最鲁棒的MLLM!港科大开源「退化感知推理新范式」 | AAAI'26

最鲁棒的MLLM!港科大开源「退化感知推理新范式」 | AAAI'26

最鲁棒的MLLM!港科大开源「退化感知推理新范式」 | AAAI'26

多模态大语言模型(MLLMs)已成为AI视觉理解的核心引擎,但其在真实世界视觉退化(模糊、噪声、遮挡等)下的性能崩溃,始终是制约产业落地的致命瓶颈。

来自主题: AI技术研报
8154 点击    2025-12-25 09:44