ChatGPT 人工智能 GPT4 伦理 生成式 医疗 监管 安全 机器学习 深度学习 神经网络 计算机视觉 强化学习 模型 算法 应用 开发 研究 工具 平台 框架 数据集 训练 部署 安全 合规 培训 投资 LLM,llm AI,ai,Ai 大模型 大语言模型 制图 生图 绘图 文生图 文生视频 生成式AI AGI 世界模型 sora chatGPT,chatgpt,ChatGpt claude openai Llama deepseek midjourney 红熊猫模型 Red panda,panda Stable Diffusion,StableDiffusion,stable DALL- E 3 DALL E DALL Flux,flux 扩散模型 混元大模型 文心一言 通义千问 可灵 Pika PixelDance 豆包 月之暗面 零一万物 阶跃星辰 搜索增强 MiniMax Talkie Agent prompt fastai LangChain TTS 微调 提示词 知识库 智能体
# 热门搜索 #
搜索
为什么大家都不关心OpenAI了?
5742点击    2024-09-26 11:30

赚钱要紧


昨天,OpenAI CEO 山姆阿尔特曼在新开的博客主页发了一篇长文《智能时代》。全文大致内容是:随着深度学习的发展,超级人工智能将在几千天后到来,到时候 AI 会改变人们的方方面面,人类也将进入智能时代。


这样的愿景从 ChatGPT 之父口中说出来,毫无疑问引起巨大关注。但和以往,网友们一边倒的称赞 GPT 的能力支持 OpenAI 不同。在长文下面,有网友吐槽山姆阿尔特曼又在画饼了。


比如有网友认为阿尔特曼在玩文字游戏:他预测几千天后超级人工智能就会到来,但这个几千天是 1000 天还是 9999 天,谁也不知道,这其中可是能相差个 2、30 年的。


这其实也从侧面反映了 OpenAI 的处境:不再是人工智能领域“真神”,正在被质疑淹没。



ChatGPT 刚发布时,OpenAI 是人工智能是“唯一答案”,而如今,OpenAI 的模型、盈利能力、团队、安全等,都在被质疑。


首先就是OpenAI 前几天发布的新模型 o1,被网友们认为没有新的突破。


OpenAI 表示,o1 模型会像人一样思考,在给出答案之前,会经历复杂内部推理阶段。这个过程中,模型会构建一个详尽且深入的思维链,而且还能不断完善自己的思维路径,识别并纠正自身错误。


o1 在复杂推理任务上表现的确出色,像 GPT-4 哦难以处理的编程、数学问题,o1 都能做的不错。


在Codeforces编程竞赛中,o1超过了89%的参赛者,在物理、生物和化学问题的基准测试中超越了人类博士水平的准确率。



但是,o1 仍然无法判断像 9.9 和 9.11 哪个更大的简单问题。有网友分析,o1 并没有在模型层次有明显优化,更像是一个工程层次的改进。甚至有人猜测:o1 就是 GPT-4o 微调后的 agent。


而且,OpenAI o1 也特别昂贵。与传统模型不同,o1 会在每个推理步骤生成多个候选项,并对它们进行评分,而这些隐藏的思考过程是要耗费tokens的,也就是要花钱。这意味着 100 tokens 的内容输出,可能会被按 1000 tokens 计费。


OpenAI第二个被质疑的地方,就是领导团队的稳定性。


在经历去年11月,OpenAI“逼宫事件”,展现在网友面前的OpenAI,是一个为了人工智能发展,团结一众的团队。


尤其是阿尔特曼被解雇后,700 余名 OpenAI 员工(超过全公司人数 90%)一起向董事会递交了一封公开信。他们坚持称,如果不让 Altman 回到公司,他们将集体辞职。



然而前几个月的离职风波,彻底打破了OpenAI团队滤镜。


今年2月,联合创始人Andrej Karpathy离职,并创办一家AI+教育公司Eureka Labs。今年5月,超级对齐团队负责人Jan Leike,首席科学家Ilya Sutskever等高层的相继离职。


到了8月OpenAI联合创始人的John Schulman在社交媒体上宣布离职,并且直接跳槽到Anthropi,OpenAI的直接竞争对手。


目前,11位联合创始人,仅仅剩下3人,OpenAI的公司高层频繁变动未能稳定,势必对OpenAI的发展产生影响。



除了高层变动外,OpenAI对于普通员工的利益保护也受到质疑。


今年6月,据Vox报道,OpenAI会让员工在离职时签署带有非贬低条款的协议,不然就会损失一大笔钱。


而今年因为“泄密”而遭到解雇的Aschenbrenner,认为OpenAI解雇自己的真正原因是他写了一份关于 OpenAI 安全性内部备忘录。



OpenAI团队不稳定的重要因素,就是关于OpenAI该如何平衡安全性和商业化。而这背后则是大家一直再质疑的:OpenAI作为一个非营利性机构,能否担负起“通用人工智能造福全人类”的重任?


尤其是,从目前的技术路径看来,实现造福全人类的AGI花的钱绝对不是非营利机构可以承担的。


最初,OpenAI 是在2015年以非营利组织的形式成立,目标是推进安全且有益的人工智能(AI)发展。但发起人承诺的10亿美元并未如期到位,OpenAI的资金很快就消耗殆尽。OpenAI不得不在2019年发起成立了OpenAI Global,LLC(OpenAI成立的具有盈利性质的公司)。


而且,随着scaling law持续发挥作用,OpenAI在GPT4、GPT5上的投入资源将会呈指数上涨。可以认为,如果没有微软持续不断的给OpenAI砸钱,连GPT4都可能要延迟好几年。但微软是一家上市公司,根本目的是要赚钱的。


这也就引发人们对于OpenAI和微软关系的怀疑:OpenAI还是不是一家独立公司;微软能不能通过OpenAI的技术来垄断盈利等等。


随着OpenAI接连被爆出资金缺口巨大,正在寻求更多融资。结合OpenAI的种种动作,可以猜测山姆阿尔特曼想让OpenAI上市。



今年 6 月份,媒体透露山姆阿尔特曼告诉一些股东,正在考虑将 OpenAI 治理结构转变为一家营利性企业。同月,OpenAI 还聘任了曾以 CFO 身份带领 Square 成功 IPO 的 Sarah Friar 作为新任 CFO。


无论OpenAI最终会上市还是继续保持非营利,但总不能打着OpenAI的旗号,做着CloseAI的事情。



最后,其实也是所有质疑的导火索:OpenAI产品越发越慢,饼越画越大。


GPT5迟迟没有动静(也许已经被o1替代),sora何时开放而不是仅仅活在论文里。


开博客写长文只是画饼的其中一招。他还蹭高调宣布OpenAI将要融资7万亿美元造芯片,重塑全球半导体行业。


时不时在社交平台展望一下AGI,顺便cue一下自家的产品。


o1发布时,拍了一系列短视频,搞得和综艺节目一样。


面对质疑,山姆阿尔特曼为了保持OpenAI的领先地位,不得不画更多的饼。


而更多的饼,却引来了更多的质疑。


文章来源“新硅NewGeek”,作者“董道力”


关键词: openai , AI , 大模型 , 人工智能
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
智能体

【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。

项目地址:https://github.com/Significant-Gravitas/AutoGPT


【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。

项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md

2
免费使用GPT-4o

【免费】ffa.chat是一个完全免费的GPT-4o镜像站点,无需魔法付费,即可无限制使用GPT-4o等多个海外模型产品。

在线使用:https://ffa.chat/

3
微调

【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。

项目地址:https://github.com/InternLM/xtuner