# 热门搜索 #
搜索
月入7亿!OpenAI首次披露商业化能力,CEO:营收年化超95亿!2月内涨30%
7582点击    2023-10-15 00:48

风头正盛的OpenAI今年能进账多少钱?


奥特曼先给员工们透了个底。


年化营收达13亿美元(折合人民币近95亿)。



这是OpenAI年化营收数字的再一次“修改”。


6月份,有方面预估OpenAI今年营收将达2亿美元,当时已经震惊了一遍科技圈,要知道去年OpenAI进账只有2800万美元。


但还是保守了。


8月底,The Information认为未来12个月,OpenAI能营收超10亿美元。


奥特曼的最新消息算是肯定了这一分析。而且间接透露出了一个事实:OpenAI现在每月营收已经超过1亿美元(折合人民币约7亿元)。


对比来看,其最强竞争对手Anthroic的年化营收为1亿美元。


看来,有网友在2月份时分析OpenAI月流水能比肩王者荣耀,还真不是开玩笑。



营收暴增服务还便宜


那么问题来了,OpenAI暴增的营收来自哪?


最明面的当然是ChatGPT Plus带来的收入。



还有另一个主要方面是微软的Azure OpenAI服务。


今年1月微软宣布Azure全球版企业客户可以在云平台上直接调用OpenAI模型,包括GPT-4、CodeX和Dall-E。目前还不知道OpenAI从中获得收入的比例。


不过,在OpenAI营收数字不断刷新纪录的同时,外界担心可一点都没减少,还有声音认为OpenAI有可能崩溃。



原因主要在于,各种披露的数据,都只谈营收但没说盈利。


有人猜测可能现在还没赚到钱。


但实现盈利也不难,毕竟软件服务增速这么快。



加之最近有消息传出,这波大模型趋势里,哪怕是微软都还没赚到钱呢。


用户量高达150万的AI编程工具GitHub Copilot,平均每个月在每个用户身上都要倒贴20美元,最高能达80美元。


换算一下,微软自做出Copilot以来,光是一个月在它上面亏损就高达3000万美元,一年下来亏损直接过亿。


而且和各家对比来看,OpenAI家的服务还是便宜那一挂里的。



有人计算了下,他们团队自己的项目在GPT-3.5上微调一次需要花费4-12美元,大约需要1-1.5个小时微调100万个token。


如果在亚马逊云(AWS)上,一个单独的p4d.24xlarge每小时售价为32.77美元,如果订阅一年价格为19.22美元。


假如OpenAI的GPT-3.5微调只调用8个GPU,那么对比来看,在AWS上用p4d.24xlarge的价格差不多是OpenAI的3-8倍。


由此也就不难理解为啥有人会开始担忧。


不过换个角度来看,这可能也是OpenAI战略的一环。


有人给出了中肯的分析:OpenAI便宜,因为现在它必须便宜,这样能快速抢占市场。


这场AI竞赛里的赢家不会是拥有最先进技术的公司,而是能带来出色用户体验、打开大众知名度且产品有护城河的公司。



以及今年以来,OpenAI吸金无数,CEO奥特曼也表现出了出色的“搞钱能力”。


今年1月微软再向OpenAI加注100亿美元;4月OpenAI拿下超3亿美元融资。


如今OpenAI被曝的最新估值,很可能达到800-900亿美元。


消息称公司正在组织一轮要约收购,外部投资者能借此机会从一些员工中购买股份,这是OpenAI今年举行的第二次类似要约收购。


而这还没达到奥特曼的期望。知情人士透露,他曾暗示OpenAI未来几年会尝试筹集1000亿美元资金。市场预计OpenAI最快在今年内还将筹集另一轮大笔资金。


有人便表示,OpenAI如今能在AI领域称霸,不只依靠其技术的领先性,也要看它财务方面的快速增长。



参考链接:

[1]https://readwrite.com/openais-financial-ascent-from-28-million-to-1-3-billion-in-yearly-revenue/

[2]https://news.ycombinator.com/item?id=37860819

[3]https://twitter.com/binarybits/status/1712488613844246787

[4]https://twitter.com/dotey/status/1712657913284587556



文章转载自微信公众号”量子位“,作者 明敏




关键词: OpenAI , chatGPT
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
微调

【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。

项目地址:https://github.com/InternLM/xtuner