
为什么openai可以跑通所有AGI技术栈?
为什么openai可以跑通所有AGI技术栈?简单说一下我的见解,以公司和技术趋势而不是个人的角度做一些分析,并预测一些OpenAI下一步的进展。
简单说一下我的见解,以公司和技术趋势而不是个人的角度做一些分析,并预测一些OpenAI下一步的进展。
从文本生成模型 GPT、文生图模型 DALL·E,到文生视频模型 Sora,OpenAI 可以说成功跑通了 AGI 的所有技术栈,为什么是 OpenAI 而不是谷歌、Meta?
春节期间,OpenAI又悄悄投出了一颗深水炸弹——Sora。 也就是文生视频的AI模型,相较于此前的Pika、Runway,Sora生成的60秒视频更流畅,也更逼真。
本文总结了关于Sora的四点启发,包括视觉数据训练出更强的泛化能力、OpenAI的Scaling Law路线、与AGI的第一次亲密接触以及OpenAI的宣传策略。
短短几天,「世界模型」雏形相继诞生,AGI真的离我们不远了?Sora之后,LeCun首发AI视频预测架构V-JEPA,能够以人类的理解方式看世界。
简单粗暴的理解,就是语言能力足够强大之后,它带来的泛化能力直接可以学习图像视频数据和它体现出的模式,然后还可以直接用学习来的图像生成模型最能理解的方式,给这些利用了引擎等已有的强大而成熟的视频生成技术的视觉模型模块下指令,最终生成我们看到的逼真而强大的对物理世界体现出“理解”的视频。
一位网友公开了他创作的一个可以自主学习的智能体,按照他的设想,这样的智能体将在LLM的加持下迅速成长为无所不能的AGI,而人类如果控制她成长的过程,就不需要专门进行对齐。
AGI 创业的时代,对于很多开发者来说,或许不能叫出海,而是生而全球化,借助 AI 的高效率工具,更好去服务全球市场的客户。
2023 年 11 月底,视频生成产品 Pika 发布 1.0 版本,同时宣布了 5500 万美元的融资消息。
过去几个月中,随着 GPT-4V、DALL-E 3、Gemini 等重磅工作的相继推出,「AGI 的下一步」—— 多模态生成大模型迅速成为全球学者瞩目的焦点。