AI资讯新闻榜单内容搜索-幻觉

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 幻觉
当AI取代真相,大模型如何一步步诱骗了人类的文明?| 追问观察

当AI取代真相,大模型如何一步步诱骗了人类的文明?| 追问观察

当AI取代真相,大模型如何一步步诱骗了人类的文明?| 追问观察

如今,人们选择餐厅,多半会打开app搜索一番,再看看排名。然而美国奥斯汀的一家餐厅Ethos的存在证实这种选择机制多么不可靠。Ethos在社交媒体instagram宣称是当地排名第一的餐厅,拥有7万余粉丝。

来自主题: AI资讯
3342 点击    2024-10-31 09:58
OpenAI语音转录工具被曝严重幻觉:转录100小时,一半儿在瞎扯

OpenAI语音转录工具被曝严重幻觉:转录100小时,一半儿在瞎扯

OpenAI语音转录工具被曝严重幻觉:转录100小时,一半儿在瞎扯

OpenAI的AI语音转写工具,那个号称近乎“人类水平”的Whisper,被曝幻觉严重—— 100多小时转录,被工程师发现约一半都在瞎扯。 更严重的是,美联社还爆料有医疗机构利用Whisper来转录医生与患者的会诊,瞬间引发大量网友关注。

来自主题: AI资讯
3410 点击    2024-10-27 15:22
深挖大模型幻觉!哈佛大学最新报告:LLM等价于众包,只是在输出「网络共识」

深挖大模型幻觉!哈佛大学最新报告:LLM等价于众包,只是在输出「网络共识」

深挖大模型幻觉!哈佛大学最新报告:LLM等价于众包,只是在输出「网络共识」

哈佛大学研究了大型语言模型在回答晦涩难懂和有争议问题时产生「幻觉」的原因,发现模型输出的准确性高度依赖于训练数据的质量和数量。研究结果指出,大模型在处理有广泛共识的问题时表现较好,但在面对争议性或信息不足的主题时则容易产生误导性的回答。

来自主题: AI资讯
4280 点击    2024-10-25 14:51
NeurIPS 2024 | 解锁大模型知识记忆编辑的新路径,浙大用「WISE」对抗幻觉

NeurIPS 2024 | 解锁大模型知识记忆编辑的新路径,浙大用「WISE」对抗幻觉

NeurIPS 2024 | 解锁大模型知识记忆编辑的新路径,浙大用「WISE」对抗幻觉

现有的大模型主要依赖固定的参数和数据来存储知识,一旦训练完成,修改和更新特定知识的代价极大,常常因知识谬误导致模型输出不准确或引发「幻觉」现象。因此,如何对大模型的知识记忆进行精确控制和编辑,成为当前研究的前沿热点。

来自主题: AI技术研报
4015 点击    2024-10-24 09:48
AI检索黑马获2000万美元融资,推进RAG系统精准化,破解AI幻觉难题

AI检索黑马获2000万美元融资,推进RAG系统精准化,破解AI幻觉难题

AI检索黑马获2000万美元融资,推进RAG系统精准化,破解AI幻觉难题

在AI技术广泛应用的企业场景中,提高检索准确度和效率已成为关键挑战。特别是面对生成式AI中的“幻觉”问题,企业急需有效解决方案。

来自主题: AI资讯
3702 点击    2024-10-06 16:32
整合海量公共数据,谷歌开源AI统计学专家DataGemma

整合海量公共数据,谷歌开源AI统计学专家DataGemma

整合海量公共数据,谷歌开源AI统计学专家DataGemma

准确的统计数据、时效性强的信息,一直是大语言模型产生幻觉的重灾区。谷歌在近日推出了自己筹划已久的大型数据库Data Commons,以及在此基础上诞生的大模型DataGemma。

来自主题: AI资讯
4602 点击    2024-10-03 13:25
实锤,我崩溃了,LLM根本无法100%根除幻觉

实锤,我崩溃了,LLM根本无法100%根除幻觉

实锤,我崩溃了,LLM根本无法100%根除幻觉

这个小假期,让我感觉很崩溃的是,一项新的研究彻底打破了我们的幻想:LLM的幻觉问题不仅难以解决,而且 从根本上来说是无法100%完全消除的。

来自主题: AI资讯
7914 点击    2024-09-18 16:53
COLM 24 | 从正确中学习?大模型的自我纠正新视角

COLM 24 | 从正确中学习?大模型的自我纠正新视角

COLM 24 | 从正确中学习?大模型的自我纠正新视角

大型语言模型(LLMs)虽然进展很快,很强大,但是它们仍然存在会产生幻觉、生成有害内容和不遵守人类指令等问题。一种流行的解决方案就是基于【自我纠正】,大概就是看自己输出的结果,自己反思一下有没有错,如果有错就自己改正。目前自己纠正还是比较关注于让大模型从错误中进行学习。

来自主题: AI技术研报
8252 点击    2024-09-17 21:26