# 热门搜索 #
搜索
10人团队融了10亿美元,Ilya最新访谈:Scalling Law并非一成不变
4379点击    2024-09-07 17:14

公司刚10人,种子轮融资就融了10亿美元


这种惊掉人下巴的事儿,也只有发生Ilya Sutskever身上,才稍显“正常”。


Ilya,在大模型席卷全球的当下,他的贡献被公认为达到了改变世界的级别:


他是AlexNet三位作者之一,和恩师Hinton一起被挖到谷歌之后,又深度参与了震惊世界的AlphaGo项目。


2015年,他参与了OpenAI的创立,出任首席科学家。ChatGPT再次改变世界,他被认为是背后最关键的人物之一。



从去年11月至今,Ilya的一举一动更是被推到台前,受到全球科技圈的瞩目:


由他发动的OpenAI董事会内讧揭开大模型发展路线之争,而他在今年5月与OpenAI彻底分道扬镳之后,所有人都在等待他的下一步创业动向。


现在,尘埃初定。一向低调的Ilya本人,也在这个时间点上,同外界分享了更多有关他的公司SSI,以及他本人对AGI思考的信息。


在与路透社的交流中,Ilya回答了关键的6个问题。以下,原文奉上:


为什么创立SSI?


我们已经发现了一座与我之前的工作有些不同的“大山”……一旦你登上这座山的顶峰,范式就会改变……我们所知的关于人工智能的一切都将再次改变。


到那时,超级智能安全工作会变得非常关键。


我们的第一个产品将会是安全的超级智能。


在超级智能之前,会发布和人类一样智能的AI吗?


我认为关键在于:它是否安全?它是否是世界上一股向善的力量?我认为,当我们做到这一点时,世界将会发生很大的变化。因此现在就给出“我们将要做什么”的明确计划是相当困难的。


我可以告诉你的是,世界将会变得非常不同。外界对AI领域正在发生的事情的看法将会发生巨大变化,并且很难理解。这将是一场更加激烈的对话。这可能不仅取决于我们的决定。



SSI如何判定何为安全的人工智能?


要回答这个问题,我们需要开展一些重要的研究。特别是如果你和我们一样,认为事情会发生很大变化……很多伟大的想法正在被发现。


很多人都在思考,当AI变得更加强大时,需要对其采取哪些测试?这有点棘手,还有很多研究要做。


我不想说现在已经有了明确的答案。但这是我们要弄清楚的事情之一。


关于尺度假设和AI安全


每个人都在说“尺度假设”,但每个人都忽略了一个问题:我们在scaling什么?


过去十年深度学习的巨大突破,是一个关于尺度假设的特定公式。但它会改变……随着它的改变,系统的能力将会增强,安全问题将变得最为紧迫,这就是我们需要解决的问题。



SSI会开源吗?


目前,所有人工智能公司都没有开源他们的主要工作,我们也是如此。但我觉得,取决于某些因素,会有很多机会去开源超级智能安全工作。也许不是全部,但肯定会有一些。


对其他AI公司安全研究工作的看法


实际上,我对业界有很高的评价。我认为,随着人们继续取得进展,所有公司都会意识到——可能是在不同的时间点——他们所面临的挑战的本质。因此,我们并不是认为其他人都做不到,而是说,我们认为我们可以做出贡献。


10亿美元用来干什么


最后,补充一些Ilya话外的背景信息。


SSI的消息最早在今年6月释出,目标很明确,搞Ilya在OpenAI没干成的事:构建安全超级智能。


目前SSI只有10名员工,融完资后,计划利用这笔资金买算力并聘请顶尖人才——


认同他们的理念,已经做好AI有一天会超越人类智能的心理准备的那种。


联合创始人Daniel Gross还透露,他们并不过分看重资历和经验,反而会花好几个小时审查候选人是否具有“良好的品格”。


算力方面,SSI计划和云厂商及芯片公司开展合作,具体和哪些公司合作、怎么合作尚未明确。


除了Ilya本人之外,SSI的联创还有Daniel Gross和Daniel Levy。


△左:Daniel Gross;右:Daniel Levy


Daniel Gross毕业于哈佛大学计算机系,此前也是Y Combinator的合伙人之一,也曾创办或参与创办了多家公司,包括Citrus Lane、WriteLaTeX(后更名为Overleaf)等。


他被《时代100》杂志列为“人工智能领域最具影响力的人物”之一。


Daniel Levy则毕业于斯坦福计算机系,此前是OpenAI优化团队的负责人。


—  —


文章来源“量子位”,作者“鱼羊”


关键词: Scalling Law , AI , AI访谈 , Ilya