AI资讯新闻榜单内容搜索-幻觉

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 幻觉
医疗幻觉率比DeepSeek低3倍,百川循证增强大模型横扫全球医学考试!

医疗幻觉率比DeepSeek低3倍,百川循证增强大模型横扫全球医学考试!

医疗幻觉率比DeepSeek低3倍,百川循证增强大模型横扫全球医学考试!

时隔两月,Baichuan-M2 Plus重磅出世!成为业内首个循证增强的医疗大模型,幻觉要比DeepSeek-R1低3倍,可信度比肩资深临床专家。新模型将「循证医学」理念深度融入训练和推理,通过首创「六源循证范式」,模拟人类医生思维,有效辨别不同层级医学证据、评估其可靠性,并在回答中优先引用高等级证据。

来自主题: AI资讯
7578 点击    2025-10-23 12:47
基础模型已颠覆科研,进入第五范式!港科大综述113篇论文 | NeurIPS'25

基础模型已颠覆科研,进入第五范式!港科大综述113篇论文 | NeurIPS'25

基础模型已颠覆科研,进入第五范式!港科大综述113篇论文 | NeurIPS'25

基础模型(FM)是一种在海量数据上训练的人工智能系统,具备强大的通用性和跨模态能力。港科大最新发表的论文显示:FM可能引领科学进入第五范式,但大模型的偏见、幻觉等问题仍需正视。

来自主题: AI技术研报
6545 点击    2025-10-16 15:01
剑桥揭开大模型翻车黑箱!别再怪它不懂推理,是行动出错了

剑桥揭开大模型翻车黑箱!别再怪它不懂推理,是行动出错了

剑桥揭开大模型翻车黑箱!别再怪它不懂推理,是行动出错了

为什么大模型,在执行长时任务时容易翻车?这让一些专家,开始质疑大模型的推理能力,认为它们是否只是提供了「思考的幻觉」。近日,剑桥大学等机构的一项研究证明:问题不是出现在推理上,而是出在大模型的执行能力上。

来自主题: AI技术研报
7249 点击    2025-10-14 11:10
苹果再发论文:精准定位LLM幻觉,GPT-5、o3都办不到

苹果再发论文:精准定位LLM幻觉,GPT-5、o3都办不到

苹果再发论文:精准定位LLM幻觉,GPT-5、o3都办不到

论文提出的方法名为 RL4HS,它使用了片段级奖励(span-level rewards)和类别感知的 GRPO(Class-Aware Group Relative Policy Optimization),从而避免模型偷懒、只输出无错误预测。

来自主题: AI资讯
8511 点击    2025-10-07 22:11
华人主导谷歌SLED,论文登顶会!一键让模型学会自救

华人主导谷歌SLED,论文登顶会!一键让模型学会自救

华人主导谷歌SLED,论文登顶会!一键让模型学会自救

大模型最让人头疼的毛病,就是一本正经地「瞎编」。过去,只能靠检索补丁或额外训练来修。可在NeurIPS 2024 上,谷歌抛出的新方法SLED却告诉我们:模型其实知道,只是最后一步忘了。如果把每一层的「声音」都纳入考量,它就能从幻觉中被拉回到事实。

来自主题: AI技术研报
6684 点击    2025-10-03 15:43
刚刚!阿里发新模型,幻觉率爆降70%

刚刚!阿里发新模型,幻觉率爆降70%

刚刚!阿里发新模型,幻觉率爆降70%

智东西9月15日报道,今天,阿里巴巴通义实验室推出了FunAudio-ASR端到端语音识别大模型。这款模型通过创新的Context模块,针对性优化了“幻觉”、“串语种”等关键问题,在高噪声的场景下,幻觉率从78.5%下降至10.7%,下降幅度接近70%。

来自主题: AI技术研报
7966 点击    2025-09-16 11:23
谢菲尔德大学:模型幻觉的数学必然性

谢菲尔德大学:模型幻觉的数学必然性

谢菲尔德大学:模型幻觉的数学必然性

幻觉不是 bug,是数学上的宿命。 谢菲尔德大学的最新研究证明,大语言模型的幻觉问题在数学上不可避免—— 即使用完美的训练数据也无法根除。 而更为扎心的是,OpenAI 提出的置信度阈值方案虽能减少幻

来自主题: AI技术研报
8723 点击    2025-09-15 08:34
你知道吗?相较于产生幻觉,LLM其实更会「说谎」|卡梅隆最新

你知道吗?相较于产生幻觉,LLM其实更会「说谎」|卡梅隆最新

你知道吗?相较于产生幻觉,LLM其实更会「说谎」|卡梅隆最新

幻觉并非什么神秘现象,而是现代语言模型训练和评估方式下必然的统计结果。它是一种无意的、因不确定而产生的错误。根据OpenAI9月4号论文的证明,模型产生幻觉(Hallucination),是一种系统性缺陷。

来自主题: AI技术研报
7718 点击    2025-09-12 10:41
AI胡说八道这事,终于有人管了?

AI胡说八道这事,终于有人管了?

AI胡说八道这事,终于有人管了?

想象一下,如果 ChatGPT 等 AI 大模型在生成的时候,能把自己不确定的地方都标记出来,你会不会对它们生成的答案放心很多?

来自主题: AI技术研报
9197 点击    2025-09-11 19:34
从第一性原理出发的RAG推理新范式来了,蚂蚁DIVER登顶权威基准

从第一性原理出发的RAG推理新范式来了,蚂蚁DIVER登顶权威基准

从第一性原理出发的RAG推理新范式来了,蚂蚁DIVER登顶权威基准

在当前由大语言模型(LLM)驱动的技术范式中,检索增强生成(RAG)已成为提升模型知识能力与缓解「幻觉」的核心技术。然而,现有 RAG 系统在面对需多步逻辑推理任务时仍存在显著局限,具体挑战如下:

来自主题: AI技术研报
8956 点击    2025-09-10 11:07