从2017到2024,(前) OpenAI研究员的AI观点变迁史:起落起起落落落…

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
从2017到2024,(前) OpenAI研究员的AI观点变迁史:起落起起落落落…
5941点击    2024-11-07 12:00

从2017到2024,(前) OpenAI研究员的AI观点变迁史:起落起起落落落…


从2017到2024,(前) OpenAI研究员的AI观点变迁史:起落起起落落落…


1. 今年我的重心转向了学习物理、阅读历史和写作,很少再专门思考AI话题


  • 🔗Alvaro De Menard 的书,给我留下了深刻印象。


  • 2023年末至2024年初,我曾断断续续思考过交互界面和AI产品的可能性。最终意识到我高估了 LLM 的能力。


🔗 Reading Notes: Civilization & Capitalism, 15th-18th Century, Vol. I: The Structures of Everyday Life (十五至十八世纪的物质文明、经济和资本主义) → https://fantasticanachronism.com/2020/01/30/reading-notes-civilization-capitalism


2. 一个重要观察:编程时 GPT-4 不可或缺,但其他场景几乎用不上。


3. 我赞同 🔗Max Shirokawa 的观点:LLM 具有很高的晶体智力,但流体智力很低。


🔗 Max Shirokawa → https://twitter.com/shir0kawa


南乔注 (如无特殊说明,均为编者注释):


晶体智力:是指个体通过教育和经验积累获得的知识、技能和学习的能力;随着年龄增长而增长,直到成年后期达到顶峰。


流体智力:是指个体在面对新问题时的推理能力、抽象思维能力和逻辑推理能力;在青少年时期达到顶峰,然后随着年龄增长逐渐下降。


  • 我把 LLM 形容为「🔗具备语言流畅性的数据库」。


  • 🔗The LLMentalist Effect 这篇文章解释了,为什么人类会误将 LLM 的喋喋不休视为智能。


🔗 The Many Ways that Digital Minds Can Know (数字心智的多种认知方式) → https://moultano.wordpress.com/2023/06/28/the-many-ways-that-digital-minds-can-know


🔗 The LLMentalist Effect: how chat-based Large Language Models replicate the mechanisms of a psychic's con (LLM心理术效应:基于对话的大语言模型如何复制通灵骗术的机制) → https://softwarecrisis.dev/letters/llmentalist


4🔗DeepMind 认为,可以先解决智能,再用它来解决其他问题 (solving intelligence and then using it to solve everything else)。我认为这误解了智能的本质。


  • 智能 (intelligence) 是解决特定问题的能力,必然存在于特定的环境、历史背景和目标中。


  • 解决智能 (solving intelligence) 这个目标本身没有意义的。


🔗 How Google Plans to Solve Artificial Intelligence (Google 计划如何解决人工智能问题) → https://www.technologyreview.com/2016/03/31/161234/how-google-plans-to-solve-artificial-intelligence


5. 许多 AGI 研究者声称在「解决推理问题 (solve reasoning)」。坦白说,我至今不明白这是什么。


6. 2024年中,我的 AI FOMO 症状完全消失,即使身在旧金山也无法提起兴趣。


  • AI在我眼里,与其他大型技术已经没有区别。


7. 一些让我感觉 LLM 很笨测试用例:


  • 9.11 和 9.9 哪个更大?


  • Strawberry 单词里有多少个 r?


  • 你回答中的倒数第二个词是什么?


对此,常见的分辨是:


  • 这是 tokenizer (分词器) 的问题


  • 用 chain-of-thought (思维链) 就能解决


  • 系统2推理很快就会修复


但我的结论是,神经网络的运作,本质上不是我们认为的思考或推理。


  • 将系统区分为1和2似乎毫无意义,不知道为什么这么受追捧。


  • 直白地说,神经网络难以实现 AGI,除非发生技术跃迁。


  • 基于神经网络预测 AGI 的发展,与基于经典机器学习算法预测 AGI,一样不靠谱


8. 🔗Tyler Cowen 认为,未来几十年将出现 Strong AI (强人工智能),但不会看到 AGI (通用人工智能) 。这个观点似乎有道理。


🔗 Richard Hanania on AGI risk → https://marginalrevolution.com/marginalrevolution/2023/02/richard-hanania-on-agi-risk.html


9. AI可能会减缓科学发展。


  • 例如,在经济学方向,数据和算力的突破将研究简化为数学与回归分析,并产生了大量低质量研究和文献。技术进步反而扼杀了更深入、更有想象力的经济学研究。


  • 此外,许多顶尖基础科学研究人才,陆续转向了人工智能。


  • 我对AI的总体看法是:如果还需要依赖统计,证据就依旧不够有力


从2017到2024,(前) OpenAI研究员的AI观点变迁史:起落起起落落落…


1. 1月,我彻底转变思路,投身 Alignment 研究,认定 OpenAI 是我的最终归宿


  • 我坚信必须加入 OpenAI 并致力于 Alignment 研究,以防止 AGI (通用人工智能) 和 ASI (超级人工智能) 毁灭世界


  • 我在一份 🔗文档中写道:everything that could happen will happen in 10 years。


🔗 why alexey decided against working on ai products (为什么alexey决定不从事AI产品开发) → https://docs.google.com/document/d/1I0nexvjnLVzkzMDFSFXR-SvQUUtHBtdz1dDqGft5SpI/edit?usp=sharing


2. 2月,我在推特上发表观点:


  • 不开玩笑地讲,shoggoth meme 可能是去年最大的「Alignment (对齐) 」成果。


  • 它让我们终于开始正视 LLM 的真实面目,不再将其视为屏幕上的虚拟形象。


Shoggoth 是 H.P. Lovecraft 克苏鲁神话中的一个虚构生物。它们是一群无定形、黏糊糊的生物,具有强大的力量和不可预测的行为。


meme 是指文化信息传播的单位;在互联网文化中,指那些迅速在网络社区中传播的图像、视频、文字或者流行语。它们往往带有幽默或讽刺的元素,能够引起共鸣并被广泛分享。


上面就是流传甚广的几张 Shoggoth meme 神图。


  • 半年后,我更真切地认识到,LLM 本质上是被数据训练出来的「人格模仿者」。


  • LLM 内部那些看似可怕的「shoggoth 特征」,实际上只是人类的投影。


作者注:


写文章的此刻,我更加觉得悲观。


人类的语言,更多被用作一种交流的媒介,没有很好地记录人类自身的偏好。


被这种数据训练出来的 LLM,或许并不能真正理解人类。


3. 3月,Tyler Cowen 关于「AI风险」的 🔗长文,给我留下了深刻的印象。


  • 尽管我当时已经加入 OpenAI 并全身心投入到了 Alignment 研究当中,无法改变既定方向。


  • 但必须要说,这篇文章仍然是我读过的、最精彩的、关于AI风险的概述


🔗 Existential risk, AI, and the inevitable turn in human history (潜在风险、AI和人类历史不可避免的转折) → https://marginalrevolution.com/marginalrevolution/2023/03/existential-risk-and-the-turn-in-human-history.html


4. 🔗Joel Einbinder 指出,我正在深入研究的 Alignment 毫无意义且定义模糊。


🔗 Joel Einbinder → https://joel.tools


5. 5-6月,我开始质疑 ChatGPT:反复尝试让它遵循简单的指令 (如「失败后继续尝试」),却始终无法成功。


  • 2023年的夏天,我开始意识到:LLM 根本不理解人类的指令,只是一个喋喋不休的中文房间 (Chinese Room)。


  • 至今,我仍然不解,为什么人们会将这种喋喋不休视为「意识」。


中文房间 (Chinese Room) 是美国哲学家约翰·塞尔(John Searle)在1980年提出的一个思想实验。


塞尔想象一个只会说英语的人被关在一个房间里,房间里有一些规则书(可以看作是计算机程序),以及一些中文字符。


当房间外的人通过一个滑槽递进用中文写的问题时,房间里的人可以使用这些规则书来找到合适的中文字符作为回答,然后递出去。


对于房间外的人来说,他们收到的回答似乎是理解了中文的,但实际上房间里的人并不理解中文,他们只是在机械地应用规则


68月,我不再相信短期内技术会飞速进步,甚至开始认为,所谓的 AGI/ASI 不过是一场成功的洗脑。


  • 这与早期多神教向一神教转变的过程相似,Yudkowsky 则像是典型的末日教派创始人。但 2000 多年的历史告诉我们,所有的末日预言都是错的


  • 1996年,🔗Yudkowsky 曾提出:想让某个信息 (如「奇点」) 在群体中传播,就要面向 KOL 进行特定包装。


  • 我认为,时至今日,大多数人之所以继续相信 AGI/ASI,就是因为被「洗脑」了。他们的大脑被注入了一个挥之不去的问题:如果自己有生之年真能看到 AGI / ASI 呢?


  • 从这个角度看,Yudkowsky 确实相当成功!


🔗 Yudkowsky in 1996 → https://extropians.weidai.com/extropians.96/3497.html


  • Arjun Ramani 和 Zhengdong Wang 合作的 🔗这篇文章,非常精彩。


  • 回想23年1月跟他聊天时,他的观点与文章有很多重合之处。


  • 但当时的我却决定再也不跟他说话了。(hi Zhengdong!)


🔗 Why transformative AI is really, really hard to achieve (为什么变革性AI真的、真的很难实现) → https://zhengdongwang.com/2023/06/27/why-transformative-ai-is-really-really-hard-to-achieve.html


7. 9月,我对 Alignment 和 Safety 工作完全失去兴趣。开始 🔗写文章,并在10月份发了出去。


🔗 Is AI alignment on track? Is it progressing… too fast? (AI对齐是否在正轨上?它的进展是否…太快了?) → https://guzey.com/ai/alignment-on-track


然后,作者10月份就从 OpenAI 离职了。


从2017到2024,(前) OpenAI研究员的AI观点变迁史:起落起起落落落…


1. 这一年,我开始反思,自己对机器学习 (Machine Learning) 其实知之甚少


或许,自己19年之前的观点过于武断。


或许,是时候重新审视AI了。


2. 8月,一场未来主义的会议改变了我的认知。


  • 一位AI研究员指出,现有的 Alignment 研究普遍质量堪忧。这让我开始担忧:如果 AI Alignment 失败,人类将面临灾难性的后果


  • 当与会者说出「AGI 将在 3-5 年内实现」的预测时,我不再觉得这是天方夜谭。从那时起,我开始与AI领域的研究者密切交流。


3. 同月,OpenAI DALL-E 让我震撼。


  • 我意识到,人类艺术家和人类设计师的时代,已经被AI终结了;其他行业迟早也会面临同样的命运。


  • 这成为我投身AI研究的转折点。


4. 9-10月,我进行了一些AI实验性研究。结果证明,我高估了神经网络的元学习能力和泛化能力


  • 我假设神经网络可以泛化出「优秀国际象棋手」的概念,即如果一个网络能达到 ELO (国际象棋评分系统) 1000-1200分的水平,那它应该能自然地扮演 1300 分的棋手。


  • Jacob Buckman 持相反观点。我们开展实验验证,几周后我退出,由 Jacob 完成并 🔗发表。


  • 结果证明我错了。神经网络根本没有学会「如何扮演特定 ELO 水平的棋手」这一能力


🔗 Suboptimal Data Can Bottleneck Scaling (次优数据可能成为规模化的瓶颈) → https://jacobbuckman.com/static/pdf/data_quality_bottleneck.pdf


作者注:


现在回想起来,当时应该更严肃认真地对待这个实验结果。因为它刚好印证了我2020年之前关于「神经网络对事物理解程度很低」的判断。


但我却忽略了这个研究结果。


Jacob 一直提醒我「对神经网络的信心过高」。


想达到 ASI (超级人工智能),人类对神经网络和强化学习的理解,还需要有根本性的理论突破。


5. 10月,与 Nate Sesti 合作搭建了一个基于 GPT-3 的写作界面,并开始写东西。


现在回想起来,GPT-3 最大的贡献是我文章里荒诞有趣的部分,在严肃内容上的表现则不太理想。


6. 11月,首次体验到 GPT-4 早期版本。


  • 那一刻,我激动到流泪。


  • 同时有一种强烈的预感,自己也即将被它取代。


  • 我那时几乎确信 GPT-5 = AGI。


7. 我的观点发生了180度转弯,开始对任何「AGI 还很遥远」之类的论调嗤之以鼻


  • 🔗Leopold Aschenbrenner 说:AGI 可能是不连贯的,即便这个可能性只有 20%,也足以颠覆我们当的所有认知。


  • 当时的我认为这个观点荒谬至极


🔗 Leopold Aschenbrenner → https://www.forourposterity.com


8. 🔗Robert Miles 的视频让我确认:AI具有潜在的危险,Alignment 研究势在必行


🔗 We Were Right! Real Inner Misalignment (我们是对的!真实的内部错位) → https://www.youtube.com/watch?v=zkbPdEHEyEI


9. 年度最触动我的机器学习论文是 🔗Transformers are Sample-Efficient World Models。作者是 Vincent Micheli、Eloi Alonso 和 François Fleuret。


🔗 Transformers are Sample-Efficient World Models (Transformer 是样本高效的世界模型) → https://arxiv.org/abs/2209.00588


10. 12月,我记录下 🔗自己的预测:到2031年,世界将彻底改变


🔗 qualitative and quantitative predictions for AI progress (AI进展的定性与定量预测) → https://docs.google.com/document/d/1b359MmwnBwZr9PuO2c-4ggudf9iTVTVUPKIZrG7G3bo/edit?usp=sharing


作者注:


这份预测现在回看,显得非常激进。


2022年底,我预言,GPT-4 发布后我每天至少使用 30 分钟,而且会用一堆AI应用来辅助写作。


而现在,2024年中,GPT-4 已经发布了一年半,我每天使用它的时间是 0 分钟;而且,每次看到现有产品集成了 AI 功能 (如Google Docs),我都会无比烦躁。


11. 12月,理性告诉我应该投身 Alignment 研究,但内心始终难以完全接受这个选择


从2017到2024,(前) OpenAI研究员的AI观点变迁史:起落起起落落落…


1. 朋友来家小住。


他不断地追问我,为什么仍然执着于基础科学研究,而不是转向 AI 或者 Alignment 研究


我不以为然。


但不可否认,这番对话让我开始动摇:实现 AGI真的需要几十年这么久吗?我一直坚信的观点会不会是错的?


2. 我请教 Boyden,他的神经学研究当下是否还有意义,以及神经网络是否正在朝着 AGI 发展。


他颇为恼火。


彼时的我认为,他不过是无法割舍研究了几十年的项目,或者是行业前辈奇怪的自尊心在作祟。


从2017到2024,(前) OpenAI研究员的AI观点变迁史:起落起起落落落…


1. 这一年我基本上不再参与AI相关的讨论。


2. 🔗Yannic Kilcher 对 GPT-3 论文的批评,强化了我的观点看法:神经网络并非真正的智能。


  • Kilcher 指出,LLM 本质上是把训练数据存储在权重 (weight) 里,然后再流畅地重新组合&插值输出。[23'10'']


  • 他通过多个例子来说明,GPT-3 表面上看似乎在「思考」,但实际上只是在重复输出。而 GPT-3 论文的作者似乎忽视了这一点。


🔗 GPT-3: Language Models are Few-Shot Learners [Paper Explained] (GPT-3:语言模型是少样本学习器 [论文解读])→ https://www.youtube.com/watch?v=SY5PvZrJhLE


作者注:


2022年,我几乎已经确信 AGI 即将来临。


那时一直想再刷一遍这个视频,想用最新的观点重新审视视频里提到的内容。却一直没有行动。


为什么呢?因为内心焦虑。担心自己可能判断错误,过去错了或者当下错了。


直到2023年底,我对 AGI 已经无所谓了,才又重新打开了这个视频。


冥冥之中,自有深意。


从2017到2024,(前) OpenAI研究员的AI观点变迁史:起落起起落落落…


1.初始深度学习 (Deep Learning) 。


  • 上了一门大学里的深度学习课程,乏味且没用。


  • 有次复现顶会论文时,发现作者代码与论文描述大相径庭 (哇哦◑﹏◐


  • 这次经历加深了我对机器学习 (Machine Learning) 前景的悲观预期


2. 1月,DeepMind AlphaStar 击败「星际争霸2 (StarCraft 2) 」职业玩家 MaNa;4月,OpenAI Five 击败 DOTA 冠军团队 OG。


AGI 似乎距离人类更近了一点?!


3. 然而看完 🔗Alex007 的深度分析后,我对神经网络 (Neural Network) 感到无比失望


  • 看起来,AlphaStar 有着超强的灵敏度和反应速度,因此靠微操和战术优势拿到了胜利。对于游戏战略,它几乎没有任何深层次的理解。


  • 再调研,发现 OpenAI 击败 DOTA 的方式也很类似:都是依靠技巧和超绝微操,没有任何战略深度可谈。


  • 🔗 Sherjil Ozair:即便将英雄数量限制在 17 位,即便有 (相当于) 45,000 年的训练数据,model-free RL (无模型强化学习) 也只学会了单一的机械式打法。


  • 这验证了我的观点,即 model-free RL (无模型强化学习) 难以应对复杂问题。


🔗 Unveiling AlphaStar: What Did DeepMind's Developers Hide? (揭秘AlphaStar:DeepMind的开发者隐瞒了什么?) → https://www.youtube.com/watch?v=FFJRd9l6kW4


🔗 Sherjil Ozair → https://x.com/sherjilozair/status/1119724456216276992


4. James Ough 认为神经网络不可能通向 AGI。这也一定程度上坚定了我的判断。


从2017到2024,(前) OpenAI研究员的AI观点变迁史:起落起起落落落…


1. 1月份,申请了慕尼黑大学苏黎世联邦理工神经科学硕士 (Neuroscience Master)


我在申请信中写到:希望理解人类的学习和决策过程,以及智能 (intelligence) 的产生机制。


2. Marginal Revolution 网站上的 🔗一篇文章,让我更加确认自己长久以来的直觉:实现 AGI 比人们想象的要困难得多


🔗 Will truckers be automated? (卡车司机会被自动化取代吗?) → https://marginalrevolution.com/marginalrevolution/2018/02/will-truckers-automated-comments.html


我还想起了 🔗另一篇文章:现实世界非常复杂,即便是最简单的任务也包含着海量的细节。


🔗 Reality has a surprising amount of detail (现实世界有着惊人的细节) → http://johnsalvatier.org/blog/2017/reality-has-a-surprising-amount-of-detail


从2017到2024,(前) OpenAI研究员的AI观点变迁史:起落起起落落落…


1这一年,我开始认真思考人工智能 (AI) 这个话题。命运的齿轮,此刻开始转动。


  • 我开始相信,VR (虚拟现实) 和AI是未来十年最重要的两项技术


  • 于是陷入思考:如果我能搞定「星际争霸2 (StarCraft 2)」问题,是不是就能构建 AGI (通用人工智能)。


2. 那时我还是 HSE University 的学生,选修了计算机系一门 Machine Learning (机器学习) 课程,很快又退课了。


因为课程里面的数学内容,也!太!多!了!


我只关心 intelligence (智能),对于怎么证明交叉熵 (Cross-Entropy) 不感兴趣。


HSE University


俄罗斯国家研究型高等经济大学,是俄罗斯顶尖的综合性大学之一→ https://www.hse.ru


3. 开始自己捣鼓 OpenAI Gym 和深度强化学习,又发觉这也不像是真正的学习过程


OpenAI Gym


OpenAI 开源项目,提供了一个工具包用于开发和比较强化学习算法 → https://github.com/openai/gym


4. 看完了 Yaser Abu-Mostafa 在加州理工开设的 🔗CS156 课程,对其中的机器学习讲座印象颇深。


但话说回来,课程里的每个概念和每项技术,都在让我确认:Machine Learning 既不关注 Machine 也不关注 Learning


🔗 CS156 → https://www.youtube.com/playlist?list=PLH5_eZVldmtVQwk1HVnsnKHCBITntIjo_


5. 我终于确信,当前所有的机器学习方法都不能实现AGI。研究者们应该转向神经学或生物学,以获得新的启发。


-我悲观地认为,人类可能需要几十年的时间才能实现 AGI。


  • 于是此后的很长一段时间,我选择在 New Science 进行生物学和基础科学研究。


New Science


独立于传统学术体系的新型研究机构,旨在支持那些在传统学术界难以进行研究的科研人员,并吸引更多人才投身基础科学研究 → https://newscience.org


文章来自于“ShowMeAI研究中心”,作者“南乔”。


从2017到2024,(前) OpenAI研究员的AI观点变迁史:起落起起落落落…

关键词: AI , openai , 人工智能 , AGI
AITNT-国内领先的一站式人工智能新闻资讯网站
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
AI数据分析

【开源免费】DeepBI是一款AI原生的数据分析平台。DeepBI充分利用大语言模型的能力来探索、查询、可视化和共享来自任何数据源的数据。用户可以使用DeepBI洞察数据并做出数据驱动的决策。

项目地址:https://github.com/DeepInsight-AI/DeepBI?tab=readme-ov-file

本地安装:https://www.deepbi.com/

【开源免费airda(Air Data Agent)是面向数据分析的AI智能体,能够理解数据开发和数据分析需求、根据用户需要让数据可视化。

项目地址:https://github.com/hitsz-ids/airda