AI资讯新闻榜单内容搜索-OTA

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: OTA
字节Seed首次开源代码模型,拿下同规模多个SOTA,提出用小模型管理数据范式

字节Seed首次开源代码模型,拿下同规模多个SOTA,提出用小模型管理数据范式

字节Seed首次开源代码模型,拿下同规模多个SOTA,提出用小模型管理数据范式

字节Seed首次开源代码模型!Seed-Coder,8B规模,超越Qwen3,拿下多个SOTA。它证明“只需极少人工参与,LLM就能自行管理代码训练数据”。通过自身生成和筛选高质量训练数据,可大幅提升模型代码生成能力。

来自主题: AI资讯
8154 点击    2025-05-11 15:18
字节开源图像编辑黑科技!1/30参数1/13数据,性能提升9.19%

字节开源图像编辑黑科技!1/30参数1/13数据,性能提升9.19%

字节开源图像编辑黑科技!1/30参数1/13数据,性能提升9.19%

字节开源图像编辑新方法,比当前SOTA方法提高9.19%的性能,只用了1/30的训练数据和1/13参数规模的模型。

来自主题: AI技术研报
7071 点击    2025-05-08 09:52
56.6亿营收背后的AIGC狂飙,中国AI行业有了“爆款生产”新样本

56.6亿营收背后的AIGC狂飙,中国AI行业有了“爆款生产”新样本

56.6亿营收背后的AIGC狂飙,中国AI行业有了“爆款生产”新样本

昆仑自研的AI模型(SOTA)就像是“最好的锄头”,正在助力公司开采AIGC领域那片“最肥沃的金矿”。

来自主题: AI商业项目
9445 点击    2025-05-02 14:47
400万token新SOTA!英伟达UIUC联手:兼顾长短上下文顶尖性能

400万token新SOTA!英伟达UIUC联手:兼顾长短上下文顶尖性能

400万token新SOTA!英伟达UIUC联手:兼顾长短上下文顶尖性能

来自英伟达和UIUC的华人团队提出一种高效训练方法,将LLM上下文长度从128K扩展至惊人的400万token SOTA纪录!基于Llama3.1-Instruct打造的UltraLong-8B模型,不仅在长上下文基准测试中表现卓越,还在标准任务中保持顶尖竞争力。

来自主题: AI技术研报
7100 点击    2025-05-01 13:54
阶跃星辰开源图像编辑模型Step1X-Edit:一键改图大师,性能达到开源SOTA

阶跃星辰开源图像编辑模型Step1X-Edit:一键改图大师,性能达到开源SOTA

阶跃星辰开源图像编辑模型Step1X-Edit:一键改图大师,性能达到开源SOTA

阶跃星辰正式发布并开源图像编辑大模型 Step1X-Edit,性能达到开源 SOTA。该模型总参数量为 19B (7B MLLM + 12B DiT),具备语义精准解析、身份一致性保持、高精度区域级控制三项关键能力;支持 11 类高频图像编辑任务类型,如文字替换、风格迁移、材质变换、人物修图等。

来自主题: AI资讯
8342 点击    2025-04-27 15:29
迈向长上下文视频生成!NUS团队新作FAR同时实现短视频和长视频预测SOTA,代码已开源

迈向长上下文视频生成!NUS团队新作FAR同时实现短视频和长视频预测SOTA,代码已开源

迈向长上下文视频生成!NUS团队新作FAR同时实现短视频和长视频预测SOTA,代码已开源

目前的视频生成技术大多是在短视频数据上训练,推理时则通过滑动窗口等策略,逐步扩展生成的视频长度。然而,这种方式无法充分利用视频的长时上下文信息,容易导致生成内容在时序上出现潜在的不一致性。

来自主题: AI技术研报
5942 点击    2025-04-23 14:19
4K分辨率视觉预训练首次实现!伯克利&英伟达多模态新SOTA,更准且3倍加速处理

4K分辨率视觉预训练首次实现!伯克利&英伟达多模态新SOTA,更准且3倍加速处理

4K分辨率视觉预训练首次实现!伯克利&英伟达多模态新SOTA,更准且3倍加速处理

当前,所有主流的视觉基础模型(如 SigLIP、DINOv2 等)都仍然在低分辨率(如 384 * 384 分辨率)下进行预训练。对比人类视觉系统可以轻松达到 10K 等效分辨率,这种低分辨率预训练极大地限制了视觉模型对于高清细节的理解能力。

来自主题: AI技术研报
6137 点击    2025-04-17 13:54