ChatGPT 人工智能 GPT4 伦理 生成式 医疗 监管 安全 机器学习 深度学习 神经网络 计算机视觉 强化学习 模型 算法 应用 开发 研究 工具 平台 框架 数据集 训练 部署 安全 合规 培训 投资 LLM,llm AI,ai,Ai 大模型 大语言模型 制图 生图 绘图 文生图 文生视频 生成式AI AGI 世界模型 sora chatGPT,chatgpt,ChatGpt claude openai Llama deepseek midjourney 红熊猫模型 Red panda,panda Stable Diffusion,StableDiffusion,stable DALL- E 3 DALL E DALL Flux,flux 扩散模型 混元大模型 文心一言 通义千问 可灵 Pika PixelDance 豆包 月之暗面 零一万物 阶跃星辰 搜索增强 MiniMax Talkie Agent prompt fastai LangChain TTS 微调 提示词 知识库 智能体
# 热门搜索 #
搜索
从2017到2024,(前) OpenAI研究员的AI观点变迁史:起落起起落落落…
5549点击    2024-11-07 12:00



1. 今年我的重心转向了学习物理、阅读历史和写作,很少再专门思考AI话题


  • 🔗Alvaro De Menard 的书,给我留下了深刻印象。


  • 2023年末至2024年初,我曾断断续续思考过交互界面和AI产品的可能性。最终意识到我高估了 LLM 的能力。


🔗 Reading Notes: Civilization & Capitalism, 15th-18th Century, Vol. I: The Structures of Everyday Life (十五至十八世纪的物质文明、经济和资本主义) → https://fantasticanachronism.com/2020/01/30/reading-notes-civilization-capitalism


2. 一个重要观察:编程时 GPT-4 不可或缺,但其他场景几乎用不上。


3. 我赞同 🔗Max Shirokawa 的观点:LLM 具有很高的晶体智力,但流体智力很低。


🔗 Max Shirokawa → https://twitter.com/shir0kawa


南乔注 (如无特殊说明,均为编者注释):


晶体智力:是指个体通过教育和经验积累获得的知识、技能和学习的能力;随着年龄增长而增长,直到成年后期达到顶峰。


流体智力:是指个体在面对新问题时的推理能力、抽象思维能力和逻辑推理能力;在青少年时期达到顶峰,然后随着年龄增长逐渐下降。


  • 我把 LLM 形容为「🔗具备语言流畅性的数据库」。


  • 🔗The LLMentalist Effect 这篇文章解释了,为什么人类会误将 LLM 的喋喋不休视为智能。


🔗 The Many Ways that Digital Minds Can Know (数字心智的多种认知方式) → https://moultano.wordpress.com/2023/06/28/the-many-ways-that-digital-minds-can-know


🔗 The LLMentalist Effect: how chat-based Large Language Models replicate the mechanisms of a psychic's con (LLM心理术效应:基于对话的大语言模型如何复制通灵骗术的机制) → https://softwarecrisis.dev/letters/llmentalist


4🔗DeepMind 认为,可以先解决智能,再用它来解决其他问题 (solving intelligence and then using it to solve everything else)。我认为这误解了智能的本质。


  • 智能 (intelligence) 是解决特定问题的能力,必然存在于特定的环境、历史背景和目标中。


  • 解决智能 (solving intelligence) 这个目标本身没有意义的。


🔗 How Google Plans to Solve Artificial Intelligence (Google 计划如何解决人工智能问题) → https://www.technologyreview.com/2016/03/31/161234/how-google-plans-to-solve-artificial-intelligence


5. 许多 AGI 研究者声称在「解决推理问题 (solve reasoning)」。坦白说,我至今不明白这是什么。


6. 2024年中,我的 AI FOMO 症状完全消失,即使身在旧金山也无法提起兴趣。


  • AI在我眼里,与其他大型技术已经没有区别。


7. 一些让我感觉 LLM 很笨测试用例:


  • 9.11 和 9.9 哪个更大?


  • Strawberry 单词里有多少个 r?


  • 你回答中的倒数第二个词是什么?


对此,常见的分辨是:


  • 这是 tokenizer (分词器) 的问题


  • 用 chain-of-thought (思维链) 就能解决


  • 系统2推理很快就会修复


但我的结论是,神经网络的运作,本质上不是我们认为的思考或推理。


  • 将系统区分为1和2似乎毫无意义,不知道为什么这么受追捧。


  • 直白地说,神经网络难以实现 AGI,除非发生技术跃迁。


  • 基于神经网络预测 AGI 的发展,与基于经典机器学习算法预测 AGI,一样不靠谱


8. 🔗Tyler Cowen 认为,未来几十年将出现 Strong AI (强人工智能),但不会看到 AGI (通用人工智能) 。这个观点似乎有道理。


🔗 Richard Hanania on AGI risk → https://marginalrevolution.com/marginalrevolution/2023/02/richard-hanania-on-agi-risk.html


9. AI可能会减缓科学发展。


  • 例如,在经济学方向,数据和算力的突破将研究简化为数学与回归分析,并产生了大量低质量研究和文献。技术进步反而扼杀了更深入、更有想象力的经济学研究。


  • 此外,许多顶尖基础科学研究人才,陆续转向了人工智能。


  • 我对AI的总体看法是:如果还需要依赖统计,证据就依旧不够有力



1. 1月,我彻底转变思路,投身 Alignment 研究,认定 OpenAI 是我的最终归宿


  • 我坚信必须加入 OpenAI 并致力于 Alignment 研究,以防止 AGI (通用人工智能) 和 ASI (超级人工智能) 毁灭世界


  • 我在一份 🔗文档中写道:everything that could happen will happen in 10 years。


🔗 why alexey decided against working on ai products (为什么alexey决定不从事AI产品开发) → https://docs.google.com/document/d/1I0nexvjnLVzkzMDFSFXR-SvQUUtHBtdz1dDqGft5SpI/edit?usp=sharing


2. 2月,我在推特上发表观点:


  • 不开玩笑地讲,shoggoth meme 可能是去年最大的「Alignment (对齐) 」成果。


  • 它让我们终于开始正视 LLM 的真实面目,不再将其视为屏幕上的虚拟形象。


Shoggoth 是 H.P. Lovecraft 克苏鲁神话中的一个虚构生物。它们是一群无定形、黏糊糊的生物,具有强大的力量和不可预测的行为。


meme 是指文化信息传播的单位;在互联网文化中,指那些迅速在网络社区中传播的图像、视频、文字或者流行语。它们往往带有幽默或讽刺的元素,能够引起共鸣并被广泛分享。


上面就是流传甚广的几张 Shoggoth meme 神图。


  • 半年后,我更真切地认识到,LLM 本质上是被数据训练出来的「人格模仿者」。


  • LLM 内部那些看似可怕的「shoggoth 特征」,实际上只是人类的投影。


作者注:


写文章的此刻,我更加觉得悲观。


人类的语言,更多被用作一种交流的媒介,没有很好地记录人类自身的偏好。


被这种数据训练出来的 LLM,或许并不能真正理解人类。


3. 3月,Tyler Cowen 关于「AI风险」的 🔗长文,给我留下了深刻的印象。


  • 尽管我当时已经加入 OpenAI 并全身心投入到了 Alignment 研究当中,无法改变既定方向。


  • 但必须要说,这篇文章仍然是我读过的、最精彩的、关于AI风险的概述


🔗 Existential risk, AI, and the inevitable turn in human history (潜在风险、AI和人类历史不可避免的转折) → https://marginalrevolution.com/marginalrevolution/2023/03/existential-risk-and-the-turn-in-human-history.html


4. 🔗Joel Einbinder 指出,我正在深入研究的 Alignment 毫无意义且定义模糊。


🔗 Joel Einbinder → https://joel.tools


5. 5-6月,我开始质疑 ChatGPT:反复尝试让它遵循简单的指令 (如「失败后继续尝试」),却始终无法成功。


  • 2023年的夏天,我开始意识到:LLM 根本不理解人类的指令,只是一个喋喋不休的中文房间 (Chinese Room)。


  • 至今,我仍然不解,为什么人们会将这种喋喋不休视为「意识」。


中文房间 (Chinese Room) 是美国哲学家约翰·塞尔(John Searle)在1980年提出的一个思想实验。


塞尔想象一个只会说英语的人被关在一个房间里,房间里有一些规则书(可以看作是计算机程序),以及一些中文字符。


当房间外的人通过一个滑槽递进用中文写的问题时,房间里的人可以使用这些规则书来找到合适的中文字符作为回答,然后递出去。


对于房间外的人来说,他们收到的回答似乎是理解了中文的,但实际上房间里的人并不理解中文,他们只是在机械地应用规则


68月,我不再相信短期内技术会飞速进步,甚至开始认为,所谓的 AGI/ASI 不过是一场成功的洗脑。


  • 这与早期多神教向一神教转变的过程相似,Yudkowsky 则像是典型的末日教派创始人。但 2000 多年的历史告诉我们,所有的末日预言都是错的


  • 1996年,🔗Yudkowsky 曾提出:想让某个信息 (如「奇点」) 在群体中传播,就要面向 KOL 进行特定包装。


  • 我认为,时至今日,大多数人之所以继续相信 AGI/ASI,就是因为被「洗脑」了。他们的大脑被注入了一个挥之不去的问题:如果自己有生之年真能看到 AGI / ASI 呢?


  • 从这个角度看,Yudkowsky 确实相当成功!


🔗 Yudkowsky in 1996 → https://extropians.weidai.com/extropians.96/3497.html


  • Arjun Ramani 和 Zhengdong Wang 合作的 🔗这篇文章,非常精彩。


  • 回想23年1月跟他聊天时,他的观点与文章有很多重合之处。


  • 但当时的我却决定再也不跟他说话了。(hi Zhengdong!)


🔗 Why transformative AI is really, really hard to achieve (为什么变革性AI真的、真的很难实现) → https://zhengdongwang.com/2023/06/27/why-transformative-ai-is-really-really-hard-to-achieve.html


7. 9月,我对 Alignment 和 Safety 工作完全失去兴趣。开始 🔗写文章,并在10月份发了出去。


🔗 Is AI alignment on track? Is it progressing… too fast? (AI对齐是否在正轨上?它的进展是否…太快了?) → https://guzey.com/ai/alignment-on-track


然后,作者10月份就从 OpenAI 离职了。



1. 这一年,我开始反思,自己对机器学习 (Machine Learning) 其实知之甚少


或许,自己19年之前的观点过于武断。


或许,是时候重新审视AI了。


2. 8月,一场未来主义的会议改变了我的认知。


  • 一位AI研究员指出,现有的 Alignment 研究普遍质量堪忧。这让我开始担忧:如果 AI Alignment 失败,人类将面临灾难性的后果


  • 当与会者说出「AGI 将在 3-5 年内实现」的预测时,我不再觉得这是天方夜谭。从那时起,我开始与AI领域的研究者密切交流。


3. 同月,OpenAI DALL-E 让我震撼。


  • 我意识到,人类艺术家和人类设计师的时代,已经被AI终结了;其他行业迟早也会面临同样的命运。


  • 这成为我投身AI研究的转折点。


4. 9-10月,我进行了一些AI实验性研究。结果证明,我高估了神经网络的元学习能力和泛化能力


  • 我假设神经网络可以泛化出「优秀国际象棋手」的概念,即如果一个网络能达到 ELO (国际象棋评分系统) 1000-1200分的水平,那它应该能自然地扮演 1300 分的棋手。


  • Jacob Buckman 持相反观点。我们开展实验验证,几周后我退出,由 Jacob 完成并 🔗发表。


  • 结果证明我错了。神经网络根本没有学会「如何扮演特定 ELO 水平的棋手」这一能力


🔗 Suboptimal Data Can Bottleneck Scaling (次优数据可能成为规模化的瓶颈) → https://jacobbuckman.com/static/pdf/data_quality_bottleneck.pdf


作者注:


现在回想起来,当时应该更严肃认真地对待这个实验结果。因为它刚好印证了我2020年之前关于「神经网络对事物理解程度很低」的判断。


但我却忽略了这个研究结果。


Jacob 一直提醒我「对神经网络的信心过高」。


想达到 ASI (超级人工智能),人类对神经网络和强化学习的理解,还需要有根本性的理论突破。


5. 10月,与 Nate Sesti 合作搭建了一个基于 GPT-3 的写作界面,并开始写东西。


现在回想起来,GPT-3 最大的贡献是我文章里荒诞有趣的部分,在严肃内容上的表现则不太理想。


6. 11月,首次体验到 GPT-4 早期版本。


  • 那一刻,我激动到流泪。


  • 同时有一种强烈的预感,自己也即将被它取代。


  • 我那时几乎确信 GPT-5 = AGI。


7. 我的观点发生了180度转弯,开始对任何「AGI 还很遥远」之类的论调嗤之以鼻


  • 🔗Leopold Aschenbrenner 说:AGI 可能是不连贯的,即便这个可能性只有 20%,也足以颠覆我们当的所有认知。


  • 当时的我认为这个观点荒谬至极


🔗 Leopold Aschenbrenner → https://www.forourposterity.com


8. 🔗Robert Miles 的视频让我确认:AI具有潜在的危险,Alignment 研究势在必行


🔗 We Were Right! Real Inner Misalignment (我们是对的!真实的内部错位) → https://www.youtube.com/watch?v=zkbPdEHEyEI


9. 年度最触动我的机器学习论文是 🔗Transformers are Sample-Efficient World Models。作者是 Vincent Micheli、Eloi Alonso 和 François Fleuret。


🔗 Transformers are Sample-Efficient World Models (Transformer 是样本高效的世界模型) → https://arxiv.org/abs/2209.00588


10. 12月,我记录下 🔗自己的预测:到2031年,世界将彻底改变


🔗 qualitative and quantitative predictions for AI progress (AI进展的定性与定量预测) → https://docs.google.com/document/d/1b359MmwnBwZr9PuO2c-4ggudf9iTVTVUPKIZrG7G3bo/edit?usp=sharing


作者注:


这份预测现在回看,显得非常激进。


2022年底,我预言,GPT-4 发布后我每天至少使用 30 分钟,而且会用一堆AI应用来辅助写作。


而现在,2024年中,GPT-4 已经发布了一年半,我每天使用它的时间是 0 分钟;而且,每次看到现有产品集成了 AI 功能 (如Google Docs),我都会无比烦躁。


11. 12月,理性告诉我应该投身 Alignment 研究,但内心始终难以完全接受这个选择



1. 朋友来家小住。


他不断地追问我,为什么仍然执着于基础科学研究,而不是转向 AI 或者 Alignment 研究


我不以为然。


但不可否认,这番对话让我开始动摇:实现 AGI真的需要几十年这么久吗?我一直坚信的观点会不会是错的?


2. 我请教 Boyden,他的神经学研究当下是否还有意义,以及神经网络是否正在朝着 AGI 发展。


他颇为恼火。


彼时的我认为,他不过是无法割舍研究了几十年的项目,或者是行业前辈奇怪的自尊心在作祟。



1. 这一年我基本上不再参与AI相关的讨论。


2. 🔗Yannic Kilcher 对 GPT-3 论文的批评,强化了我的观点看法:神经网络并非真正的智能。


  • Kilcher 指出,LLM 本质上是把训练数据存储在权重 (weight) 里,然后再流畅地重新组合&插值输出。[23'10'']


  • 他通过多个例子来说明,GPT-3 表面上看似乎在「思考」,但实际上只是在重复输出。而 GPT-3 论文的作者似乎忽视了这一点。


🔗 GPT-3: Language Models are Few-Shot Learners [Paper Explained] (GPT-3:语言模型是少样本学习器 [论文解读])→ https://www.youtube.com/watch?v=SY5PvZrJhLE


作者注:


2022年,我几乎已经确信 AGI 即将来临。


那时一直想再刷一遍这个视频,想用最新的观点重新审视视频里提到的内容。却一直没有行动。


为什么呢?因为内心焦虑。担心自己可能判断错误,过去错了或者当下错了。


直到2023年底,我对 AGI 已经无所谓了,才又重新打开了这个视频。


冥冥之中,自有深意。



1.初始深度学习 (Deep Learning) 。


  • 上了一门大学里的深度学习课程,乏味且没用。


  • 有次复现顶会论文时,发现作者代码与论文描述大相径庭 (哇哦◑﹏◐


  • 这次经历加深了我对机器学习 (Machine Learning) 前景的悲观预期


2. 1月,DeepMind AlphaStar 击败「星际争霸2 (StarCraft 2) 」职业玩家 MaNa;4月,OpenAI Five 击败 DOTA 冠军团队 OG。


AGI 似乎距离人类更近了一点?!


3. 然而看完 🔗Alex007 的深度分析后,我对神经网络 (Neural Network) 感到无比失望


  • 看起来,AlphaStar 有着超强的灵敏度和反应速度,因此靠微操和战术优势拿到了胜利。对于游戏战略,它几乎没有任何深层次的理解。


  • 再调研,发现 OpenAI 击败 DOTA 的方式也很类似:都是依靠技巧和超绝微操,没有任何战略深度可谈。


  • 🔗 Sherjil Ozair:即便将英雄数量限制在 17 位,即便有 (相当于) 45,000 年的训练数据,model-free RL (无模型强化学习) 也只学会了单一的机械式打法。


  • 这验证了我的观点,即 model-free RL (无模型强化学习) 难以应对复杂问题。


🔗 Unveiling AlphaStar: What Did DeepMind's Developers Hide? (揭秘AlphaStar:DeepMind的开发者隐瞒了什么?) → https://www.youtube.com/watch?v=FFJRd9l6kW4


🔗 Sherjil Ozair → https://x.com/sherjilozair/status/1119724456216276992


4. James Ough 认为神经网络不可能通向 AGI。这也一定程度上坚定了我的判断。



1. 1月份,申请了慕尼黑大学苏黎世联邦理工神经科学硕士 (Neuroscience Master)


我在申请信中写到:希望理解人类的学习和决策过程,以及智能 (intelligence) 的产生机制。


2. Marginal Revolution 网站上的 🔗一篇文章,让我更加确认自己长久以来的直觉:实现 AGI 比人们想象的要困难得多


🔗 Will truckers be automated? (卡车司机会被自动化取代吗?) → https://marginalrevolution.com/marginalrevolution/2018/02/will-truckers-automated-comments.html


我还想起了 🔗另一篇文章:现实世界非常复杂,即便是最简单的任务也包含着海量的细节。


🔗 Reality has a surprising amount of detail (现实世界有着惊人的细节) → http://johnsalvatier.org/blog/2017/reality-has-a-surprising-amount-of-detail



1这一年,我开始认真思考人工智能 (AI) 这个话题。命运的齿轮,此刻开始转动。


  • 我开始相信,VR (虚拟现实) 和AI是未来十年最重要的两项技术


  • 于是陷入思考:如果我能搞定「星际争霸2 (StarCraft 2)」问题,是不是就能构建 AGI (通用人工智能)。


2. 那时我还是 HSE University 的学生,选修了计算机系一门 Machine Learning (机器学习) 课程,很快又退课了。


因为课程里面的数学内容,也!太!多!了!


我只关心 intelligence (智能),对于怎么证明交叉熵 (Cross-Entropy) 不感兴趣。


HSE University


俄罗斯国家研究型高等经济大学,是俄罗斯顶尖的综合性大学之一→ https://www.hse.ru


3. 开始自己捣鼓 OpenAI Gym 和深度强化学习,又发觉这也不像是真正的学习过程


OpenAI Gym


OpenAI 开源项目,提供了一个工具包用于开发和比较强化学习算法 → https://github.com/openai/gym


4. 看完了 Yaser Abu-Mostafa 在加州理工开设的 🔗CS156 课程,对其中的机器学习讲座印象颇深。


但话说回来,课程里的每个概念和每项技术,都在让我确认:Machine Learning 既不关注 Machine 也不关注 Learning


🔗 CS156 → https://www.youtube.com/playlist?list=PLH5_eZVldmtVQwk1HVnsnKHCBITntIjo_


5. 我终于确信,当前所有的机器学习方法都不能实现AGI。研究者们应该转向神经学或生物学,以获得新的启发。


-我悲观地认为,人类可能需要几十年的时间才能实现 AGI。


  • 于是此后的很长一段时间,我选择在 New Science 进行生物学和基础科学研究。


New Science


独立于传统学术体系的新型研究机构,旨在支持那些在传统学术界难以进行研究的科研人员,并吸引更多人才投身基础科学研究 → https://newscience.org


文章来自于“ShowMeAI研究中心”,作者“南乔”。


关键词: AI , openai , 人工智能 , AGI
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
AI数据分析

【开源免费】DeepBI是一款AI原生的数据分析平台。DeepBI充分利用大语言模型的能力来探索、查询、可视化和共享来自任何数据源的数据。用户可以使用DeepBI洞察数据并做出数据驱动的决策。

项目地址:https://github.com/DeepInsight-AI/DeepBI?tab=readme-ov-file

本地安装:https://www.deepbi.com/

【开源免费airda(Air Data Agent)是面向数据分析的AI智能体,能够理解数据开发和数据分析需求、根据用户需要让数据可视化。

项目地址:https://github.com/hitsz-ids/airda