# 热门搜索 #
搜索
搜索: LLM
实锤,我崩溃了,LLM根本无法100%根除幻觉

这个小假期,让我感觉很崩溃的是,一项新的研究彻底打破了我们的幻想:LLM的幻觉问题不仅难以解决,而且 从根本上来说是无法100%完全消除的。

来自主题: AI资讯
6692 点击    2024-09-18 16:53
强化学习,正在引领AI跨越LLM之谷

OpenAI的研究科学家布朗(Noam Brown),这两天在他的自我介绍中,加上了一条:OpanAI o1的联合创始人。

来自主题: AI资讯
2473 点击    2024-09-18 10:56
AI 时代的费曼学习法:5分钟制作自己的英文播客

李笑来曾经说过,学英语最好的方法就是用英语。 而英文播客就是练习英语听力的最佳材料之一,可以一边学知识一边练听力。 但是英文播客有一个不可能三角:我能学到知识、我很关心话题、我能听懂他们说话。 要同时满足这三个条件的播客实在太难找了。 但是最近 Google 做了一个 AI 工具,完美地解决了这个问题。

来自主题: AI资讯
3670 点击    2024-09-18 10:53
LLM对齐综述|迈向可扩展的大模型自动对齐,中科院软件所&阿里千问发布

近年来,大模型的高速发展极大地改变了人工智能的格局。对齐(Alignment) 是使大模型的行为符合人类意图和价值观,引导大模型按照人类的需求和期望进化的核心步骤,因此受到学术界和产业界的高度关注。

来自主题: AI资讯
6158 点击    2024-09-12 10:10
你以为的LLM上下文学习超能力,究竟来自哪里,ICL的内部机制如何 |最新发布

上下文学习(In-Context Learning, ICL)是指LLMs能够仅通过提示中给出的少量样例,就迅速掌握并执行新任务的能力。这种“超能力”让LLMs表现得像是一个"万能学习者",能够在各种场景下快速适应并产生高质量输出。然而,关于ICL的内部机制,学界一直存在争议。

来自主题: AI资讯
3944 点击    2024-09-11 10:17
LLM训练通信量减少10000倍!全新分布式优化器,整合世间算力训练强大AI

如果可以使用世界上所有的算力来训练AI模型,会怎么样?近日,凭借发布了开源的Hermes 3(基于Llama 3.1)而引起广泛关注的Nous Research,再次宣布了一项重大突破——DisTrO(分布式互联网训练)。

来自主题: AI资讯
3781 点击    2024-09-10 11:01