
Contextual AI:从幻觉到可信,钻研RAG架构解决企业级AI应用落地最大痛点
Contextual AI:从幻觉到可信,钻研RAG架构解决企业级AI应用落地最大痛点RAG(检索增强生成)作为解决大模型"幻觉"和知识时效性问题的关键技术,已成为企业AI应用的主流架构。Contextual AI由RAG技术的创始研究者组建,致力于开发能应对复杂知识密集型任务的专业智能体。
RAG(检索增强生成)作为解决大模型"幻觉"和知识时效性问题的关键技术,已成为企业AI应用的主流架构。Contextual AI由RAG技术的创始研究者组建,致力于开发能应对复杂知识密集型任务的专业智能体。
最近,AI霸主英伟达市值突破了4万亿美元,成为全球最重要的股票之一。同样,黄仁勋造就了一个财富奇迹,从不善言辞的工程师,到财富超越巴菲特老爷子。
近日,ICCV 2025(国际计算机视觉大会)公布论文录用结果,理想汽车共有 8 篇论文入选,其中 3 篇来自基座模型团队。
今年初以 DeepSeek-r1 为代表的大模型在推理任务上展现强大的性能,引起广泛的热度。然而在面对一些无法回答或本身无解的问题时,这些模型竟试图去虚构不存在的信息去推理解答,生成了大量的事实错误、无意义思考过程和虚构答案,也被称为模型「幻觉」 问题,如下图(a)所示,造成严重资源浪费且会误导用户,严重损害了模型的可靠性(Reliability)。
不久前,《纽约客》杂志的一篇文章,系统性地阐述了对AI作为写作工具的忧虑。[1]文章的核心观点是,AI的高效内容生成能力,或许正在悄然催生一场“平庸化的革命”,它不仅改变着我们的写作方式,也可能让我们在语言表达和原创思维上,趋于某种程度的同质化。
你有没有发现,即使是最先进的AI系统,在面对复杂问题时仍然会给出令人沮丧的错误答案?问题往往不在于大语言模型本身,而在于它们根本找不到正确的信息。
Agent 的反义词是什么?
本文主要介绍 xML 团队的论文:Discrete Diffusion in Large Language and Multimodal Models: A Survey。
当前最强大的视觉语言模型(VLMs)虽然能“看图识物”,但在理解电影方面还不够“聪明”。
Agent能力每7个月翻一番!