
无需CUDA代码给H100加速33%-50%,Flash Attention作者新作火了
无需CUDA代码给H100加速33%-50%,Flash Attention作者新作火了无需CUDA代码,给H100加速33%-50%! Flash Attention、Mamba作者之一Tri Dao的新作火了。
无需CUDA代码,给H100加速33%-50%! Flash Attention、Mamba作者之一Tri Dao的新作火了。
刚刚,全球首个通用生物医学AI智能体Biomni正式开源,相关代码及文件已经在Github发布,现已斩获超过700星,任何人都可以进行本地部署。
谁说扩散模型只能生成图像和视频?现在它们能高质量地写代码了,速度还比传统大模型更快!Inception Labs推出基于扩散技术的全新商业级大语言模型——Mercury。
今天咱们再聊聊TTS(文本转语音)这个话题。4月份给大家分享了MiniMax的TTS平台:MiniMax Audio当时我直呼它是最强中文TTS,那篇反响还不错,主要他们Speech-02-HD的效果确实NB
汪渊 Raymond 已经重新开始创业,而且方向是当红的 AI 应用,公司名叫:Orion Arm,主体注册在新加坡,主做海外市场。Orion Arm 最近刚刚完成一笔 1100 万美元融资,投后估值 1 亿美元。有趣的是,他们做的不是 Agent,不是当前热门的那些领域,而是纯粹的工具Orion Arm 发布了两款 AI 工具:日程管理类的 Toki 和新闻聚合类的 Syft。
「Tokenization(分词)是 Transformer 模型为弥补自身缺陷不得不戴上的枷锁。」
来自加州大学河滨分校(UC Riverside)、密歇根大学(University of Michigan)、威斯康星大学麦迪逊分校(University of Wisconsin–Madison)、德州农工大学(Texas A&M University)的团队在 ICCV 2025 发表首个面向自动驾驶语义占用栅格构造或预测任务的统一基准框架 UniOcc。
最新调查称,全球仅有8%的人愿意为AI买单!然而,科技巨头们正以「创新」之名,将AI硬塞进日常软件中。一位外国小哥Ted Gioia发文吐槽自己被微软AI全家桶绑架,每月不得不花冤枉钱。
清华大学朱军教授团队提出SageAttention3,利用FP4量化实现推理加速,比FlashAttention快5倍,同时探索了8比特注意力用于训练任务的可行性,在微调中实现了无损性能。
据The Information报道,微软正在重绘其自研人工智能服务器芯片的产品路线图,将在未来几年内专注于推出设计更保守、开发难度更低的芯片版本,目标是在2028年前克服当前导致研发延迟的一系列问题。