就在刚刚,创业成功的27岁亿万富翁Alexandr Wang宣布——
Scale AI的年化收入,几乎达到了10亿美元!
这个数字,足够震惊整个硅谷的。
相比之下,OpenAI预估的年收入也只是35-45亿美元而已。再减去85亿美元的成本,OpenAI今年可能会血亏50亿。
这Scale AI是什么来头,能在营收上取得如此惊人的成绩?
原来,它主攻的就是如今AI模型的一大软肋——对数据的巨大需求。
我们正在进入LLM开发的第三阶段。
第一阶段是早期的试验,从Transformer到GPT-3
第二阶段是规模扩展
第三阶段是创新阶段:除了o1之外,还需要哪些突破性进展才能让我们达到新的proto-AGI范式
Scaling Law的存在意味着,随着模型变大,对数据的需求也呈现指数级增长,越来越多的人担心大模型会耗尽可用数据。
Scale AI的主营业务——做AI模型的「数据工厂」,恰好处于这个风口之上。
如果能攻克「数据墙」这个AI进步的巨大瓶颈,Alexandr Wang理所当然会赚得盆满钵满。
生意能做这么大,源于Scale AI越做越成功的一项大业务。
在AI生态圈中,为大公司提供基础设施或服务支持的业务,市场需求巨大。
Scale AI做的就是后者——为这些公司提供人工数据标注员。帮AI公司提高LLM的准确性。Meta、谷歌等大公司,都是它的客户。
而且,今年Scale AI的生意越做越红火了。
跟去年同期相比,它今年上半年的销售额增长了近4倍,已经接近4亿美元。
可以肯定地说,Scale AI是从AI热潮中受益最多的私营企业之一。
投资者们当然也看到了这一点。
今年5月,Scale AI以138亿美元的估值,进行了新一轮融资。
投资者包括Accel、Founders Fund、Index Ventures、Thrive Capital和Greenoaks Capital等。
并且,除了亚马逊和Meta之外,Scale AI还吸引了各种各样的新投资者:思科、英特尔、AMD等风险投资部门参与其中,而且很多注资过的公司也回归了,包括英伟达、Coatue、Y Combinator等等。
就在近期,Wang手下的高管团队,再度进行了调整。
首席技术官Arun Murthy将离开公司,而去年离开风投公司Benchmark的前优步高管Jason Droege将加入公司担任首席战略官,直接向Wang汇报。
首席策略官Jason Droege解释自己为什么要加入Scale AI:这让我有机会参与到我一生中技术领域最根本的变革中
在Droege看来,Scale解决了人工智能中最困难的挑战之一:通过数据改进模型。做到这一点需要卓越的人才、复杂的运营和对AI未来发展的强烈愿景。虽然团队迄今已经取得了瞩目成就,但仍处于起步阶段。
这家成立8年的初创公司,一直负责合同工的招聘和培训,但尚未实现盈利。
然而就在今年上半年,它成功改善了运营的毛利率——每产生1美元收入,只需要花费约1.2美元,而在去年上半年,这一数字为1.5美元。
如今仅考虑业务成本(比如合同工的工资),Scale AI保留的收入只有一半。毛利率这一财务指标,略低于50%。比起2022年上半年约57%的毛利率,这个数字有所下降。
这一水平,大大低于科技投资者对软件公司的期望。
但尽管如此,5月份的融资还是为Scale AI提供了雄厚的资金实力。截至上半年末,公司还有约9.8亿美元的现金。
从去年上半年开始,公司收入就开始激增。因为构建LLM的客户需要很多合同工,通过向聊天机器人提交问题、撰写答案,来训练AI模型。
在给投资者的PPT上,Scale AI自称是「一个人机混合系统,以低成本生产高质量数据」。
根据外媒消息,它还通过一家名为Outlier的子公司,雇佣了数十万个小时工,来进行数据微调。
显然,Scale AI选择聚焦LLM客户,是一种战略转型。
此前,它还有一项类似业务,主要是利用菲律宾和肯尼亚的低成本劳动力,为自动驾驶汽车公司标注数据。但近年来,这项业务的增长已经放缓。
现在,即使雇佣薪酬更高、更专业的合同工,Scale AI的收入也依然能提高,因为它可以将这些更高的成本转移给客户。
当然,现在Scale AI也并非硅谷投资者眼中稳赚不赔的投资。投资者担忧的问题,包括公司较低的毛利率,以及过度依赖少数几个大客户的问题。
Scale AI由Alexandr Wang和Lucy Guo于2016年创立,由著名创业孵化器Y Combinator投资。客户包括Meta、微软、英伟达、OpenAI、丰田和哈佛医学院。
2019年,Scale AI成为独角兽。
2022年,Alexandr Wang成为全球最年轻的白手起家的亿万富翁。
Wang于1997年出生于新墨西哥州,父母都是在新墨西哥州洛斯阿拉莫斯国家实验室的物理学家。
高中阶段,他开始通过网络自学编程,开始参加世界级编程大赛,如美国计算机奥林匹克竞赛(USACO)。
17岁,他成为美国知名问答网站Quora的全职码农;18岁,考入麻省理工学院攻读机器学习;在MIT大一刚结束后的暑假,他就和Guo一起创办了Scale,并且拿到了Y Combinator的投资。
Wang跟爸妈说,「这就是我夏天随便玩玩的事。」
Scale AI刚起步时,有些人确实觉得这就是一个笑话,毕竟公司当时只有三名员工。
不过,在不断地融资和发展之下,Scale AI发展飞速,到2021年已经成长为价值73亿美元的独角兽企业,2023年初公司规模也扩展到了700人。
Wang透露,随着企业客户竞相训练生成式AI模型,Scale AI的这方面业务快速增长。
2023年,公司年度经常性收入增加了两倍,预计2024年底将达到14亿美元。
由于Scale AI的惊人成就,Alexandr Wang已经被硅谷公认为「下一个扎克伯格」。
AI领域公认的三个基本支柱——数据、算法和算力。
算法领域,前有谷歌、微软的大型研究院,后有推出过Sora和GPT系列模型的OpenAI;算力领域有供货全球的英伟达,但在Scale AI还未诞生的2016年,数据领域仍处于空白。
19岁的Alexandr Wang在看到这一点后,做出了辍学创业的决定,「我创办Scale的原因是为了解决人工智能中的数据问题」。
大部分数据都是非结构化的,AI很难直接学习这些数据;而且大型数据集的标注一项资源密集型工作,因此,「数据」被很多人认为是科技领域最辛苦、最卑微的部分。
但Scale AI却在短时间内就获得了巨大成功。他们可以为不同行业的企业客户量身定制数据服务。
在自动驾驶领域,Cruise和Waymo等公司通过摄像头和传感器收集了大量数据,Scale AI将机器学习与「人机回路」监督相结合,管理和标注这些数据。
他们曾经开发的「自治数据引擎」,甚至推动了L4级自动驾驶的发展。
Wang表示,Scale AI将自己定位为整个AI生态的基础设施供应商,构建「数据铸造厂」,而不仅仅是在子公司Remotasks中雇佣大量的合同工进行人工标注。
他强调,来自专家的、包含复杂推理的数据是未来人工智能的必备条件。
传统的数据来源,比如从Reddit等社区的评论中抓取数据存在局限性。Scale AI构建了一些流程,模型先输出一些内容,例如撰写研究论文,在此基础上,人类专家可以改进这些内容,从而改进模型的输出。
「虽然人工智能生成的数据很重要,但想要获得有一定质量和准确性的数据,唯一方法是通过人类专家的验证。」
Alexandr Wang在Scale AI的官网上这样写道,「数据丰富不是默认情况,而是一种选择,它需要汇集工程、运营和AI方面最优秀的人才」。
Scale AI的愿景之一是「数据丰富」,从而将前沿LLM扩展到更大数量级,「为通向AGI铺平道路。在达到GPT-10的过程中,我们不应该受到数据的限制」。
Scale AI对业界所做的贡献,不仅是数据标注这么简单。
今年5月,Scale AI重磅推出了全新LLM排行榜——SEAL,开始对前沿模型开展专业性评估。
对于这个榜单,Jim Fan大加赞赏。他认为SEAL是LMSys的非常好的补充和参照,提供公开模型的私密、安全、可信的第三方评估。
对此,Andrej Karpathy也深以为然。
随着OpenAI最强模型——o1的推出,SEAL排行榜也第一时间进行了评测。
除了在高级编程、数学和科学等领域表现出色之外,o1系列也为「prompt engineering」(提示工程)引入了新的变化。
在工具使用和指令跟随方面,o1-preview表现出色。而在编程能力方面,o1-mini夺得榜首,o1-preview紧随其后位居第二。
在SEAL编程排行榜上,o1-mini以1271分的成绩领跑,紧随其后的是o1-preview,得分为1198。
评估数据集使用了1000个提示词,用于测试各种编程任务,涵盖从代码生成到优化和文档创建等多个方面。
过程中,每个模型的响应都会从正确性、性能和可读性三个维度进行评估,综合运用人工审核和代码执行测试的方法。
在对精确指令跟随能力的评估中,o1-preview以87.27 分的成绩领先,超越了知名Claude 3.5 Sonnet和Llama 3.1 405B Instruct。
评估数据集包含1054个跨领域的提示词,涉及文本生成、头脑风暴和教育支持等多个方面。
与我们熟悉的GPT、Gemini或Claude等模型相比,o1模型的提示词使用和可操控性明显不同。
根据OpenAI的建议,简单直接的指令有助于充分发挥o1的潜力。
与之前的模型不同,用户应避免要求模型进行思维链推理。他们还指出,提示词中的无关上下文对o1模型的干扰可能比之前的GPT系列更大,因此在检索增强生成(RAG)提示中加入一些示例很重要。
Cognition Labs发现,要求模型「think out loud」(大声思考)实际上会损害性能,而只要求给出最终答案反而会提高性能,因为o1模型无论如何都会产生内部的思维链。他们还指出,冗长或重复的指令会损害性能,而过于具体的指示似乎会影响模型的推理能力。
虽然o1在基准测试中取得了出色的结果,但让它完成你自己的具体任务似乎需要更多努力——它们往往会忽视明确(甚至是强调的)关于如何解决问题的指令。
由此可见,现实世界的提示和基准测试中使用的提示之间,实际上存在着不小的差距:后者旨在只包含明确的、自包含的、最小呈现的问题,没有关于如何解决它们的建议或意见。
需要注意的是,o1-preview响应的延迟,特别是其「首个token的时间」,明显高于GPT-4o。不过,o1-mini用更快的token推理速度弥补了「思考」的时间。
在官方示例中,o1在臭名昭著的「strawberry这个词中有多少个R?」等「陷阱」任务上,有着不小的改进。
为了验证这一点,我们向o1-preview提出了一个新编写的谜语:
「说出一个拉丁语源的英语形容词,它以相同的字母开头和结尾,总共有十一个字母,并且词中所有元音按字母顺序排列。」
在第一次尝试中,模型成功解决了这个谜语,答案是:sententious。
但如果反复提问同一个,o1却并不能次次做对:
sententious ✅
facetiously ❌
transparent ✅
abstentious ❌
facetiously ❌
同样令人深刻的,还有一个解码复杂密码的例子。
类似的,我们也尝试了这个提示词的各种变体,包括ROT13密码、Atbash密码、Base64编码、反转字符串等各种组合。
然而,大多数测试都不成功——在7次尝试中,o1-preview只有2次能够解码给出的加密信息(《沙丘》中的「迎恐祷词」(the Litany Against Fear))。
在每个prompt中,o1都被要求从OpenAI给出的示例中推断出一种编码方式。
在以下每个测试中,o1都未能在一次尝试中解码目标消息:
ROT13密码 → 反转字符串 → Base64编码 → 反转字符串
ROT13密码 → Base64编码 → ROT13密码 → 反转字符串
ROT13密码 → Base64编码 → ROT13密码
ROT13密码 → Base64编码 → Atbash密码
ROT13密码 → Base58编码
在第一次尝试中成功解码的两个测试是:
Atbash密码 → Base64编码
ROT13密码 → Base64编码
这里展示了第一个成功的例子——其他测试除了使用的编码不同外,都是相同的:
总结来看,OpenAI的o1模型在推理能力方面都取得了重大突破,在AIME、Codeforces、Scale的SEAL排行榜等关键基准测试中表现出色。
这些结果表明,o1-preview和o1-mini是解决复杂推理问题的强大工具。然而,要充分发挥这些模型的潜力,可能需要比用户习惯的其他模型发布更多的实验和尝试。
参考资料:
https://www.theinformation.com/articles/scale-ais-sales-nearly-quadrupled-in-first-half?rc=epv9gi
https://scale.com/blog/first-impression-openai-o1?utm_offer=blog
文章来自于微信公众号“新智元”
【开源免费】graphrag是微软推出的RAG项目,与传统的通过 RAG 方法使用向量相似性作为搜索技术不同,GraphRAG是使用知识图谱在推理复杂信息时大幅提高问答性能。
项目地址:https://github.com/microsoft/graphrag
【开源免费】Dify是最早一批实现RAG,Agent,模型管理等一站式AI开发的工具平台,并且项目方一直持续维护。其中在任务编排方面相对领先对手,可以帮助研发实现像字节扣子那样的功能。
项目地址:https://github.com/langgenius/dify
【开源免费】RAGFlow是和Dify类似的开源项目,该项目在大文件解析方面做的更出色,拓展编排方面相对弱一些。
项目地址:https://github.com/infiniflow/ragflow/tree/main
【开源免费】phidata是一个可以实现将数据转化成向量存储,并通过AI实现RAG功能的项目
项目地址:https://github.com/phidatahq/phidata
【开源免费】TaskingAI 是一个提供RAG,Agent,大模型管理等AI项目开发的工具平台,比LangChain更强大的中间件AI平台工具。
项目地址:https://github.com/TaskingAI/TaskingAI
【免费】ffa.chat是一个完全免费的GPT-4o镜像站点,无需魔法付费,即可无限制使用GPT-4o等多个海外模型产品。
在线使用:https://ffa.chat/
【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。
项目地址:https://github.com/InternLM/xtuner
【开源免费】LangGPT 是一个通过结构化和模板化的方法,编写高质量的AI提示词的开源项目。它可以让任何非专业的用户轻松创建高水平的提示词,进而高质量的帮助用户通过AI解决问题。
项目地址:https://github.com/langgptai/LangGPT/blob/main/README_zh.md
在线使用:https://kimi.moonshot.cn/kimiplus/conpg00t7lagbbsfqkq0