
Transformer八周年!Attention Is All You Need被引破18万封神
Transformer八周年!Attention Is All You Need被引破18万封神Transformer已满8岁,革命性论文《Attention Is All You Need》被引超18万次,掀起生成式AI革命。Transformer催生了ChatGPT、Gemini、Claude等诸多前沿产品。更重要的是,它让人类真正跨入了生成式AI时代。
Transformer已满8岁,革命性论文《Attention Is All You Need》被引超18万次,掀起生成式AI革命。Transformer催生了ChatGPT、Gemini、Claude等诸多前沿产品。更重要的是,它让人类真正跨入了生成式AI时代。
据 The Information 报道,有消息称 Meta 将以 148 亿美元收购 Scale AI 49% 的股权,而作为交易的一部分,Scale AI CEO Alexandr Wang 将在 Meta 内部担任高级职位,领导一个新的「超级智能(Superintelligence)」实验室。
6月10日,AI制药上市公司Recursion宣布裁员20%,就在不久前,公司称要精简部分药物管线,在研发上更加聚焦。
6 月 12 日消息,科技媒体 404Media 昨日(6 月 11 日)发布博文,报道称在维基百科编辑们的强烈反对下,维基媒体基金会(Wikimedia Foundation)宣布暂停测试 AI 文章摘要功能。
在A100上用310M模型,实现每秒超30帧自回归视频生成,同时画面还保持高质量!
端到端多模态GUI智能体有了“自我反思”能力!南洋理工大学MMLab团队提出框架GUI-Reflection。
当OpenAI以65亿美元估值收购前苹果传奇设计师乔纳森·伊夫(Jony Ive)的AI硬件初创公司io时,AI行业对大模型公司的生态战略产生了热议。
测试时扩展(Test-Time Scaling)极大提升了大语言模型的性能,涌现出了如 OpenAI o 系列模型和 DeepSeek R1 等众多爆款。那么,什么是视觉领域的 test-time scaling?又该如何定义?
6月6日,麻省理工学院与Recursion共同宣布推出一款突破性的AI+药物研发模型Boltz-2,用于预测药物靶标 3D 结构,以及结合亲和力。
当前,强化学习(RL)在提升大语言模型(LLM)推理能力方面展现出巨大潜力。DeepSeek R1、Kimi K1.5 和 Qwen 3 等模型充分证明了 RL 在增强 LLM 复杂推理能力方面的有效性。