AI资讯新闻榜单内容搜索-ima

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: ima
刚刚,MiniMax直接让龙虾学会自我进化,也认识「马嘉祺」了

刚刚,MiniMax直接让龙虾学会自我进化,也认识「马嘉祺」了

刚刚,MiniMax直接让龙虾学会自我进化,也认识「马嘉祺」了

谁能料到,OpenClaw 的热度从年初延续到了今天。除了专业工程师,很多普通人也在 FOMO(错失恐惧)情绪驱动下,开始了对「养龙虾」的追捧。

来自主题: AI技术研报
6984 点击    2026-03-19 10:49
MiniMax M2.7: 开启模型的自我进化

MiniMax M2.7: 开启模型的自我进化

MiniMax M2.7: 开启模型的自我进化

在 M2 系列模型发布后的几个月,我们收到了大量热心用户的反馈和建议,这促使我们进一步加速模型的迭代效率。除了更加认真工作之外,我们能找到的唯一途径就是开启模型和组织的自我进化。MiniMax M2.7 是我们第一个模型深度参与迭代自己的模型。

来自主题: AI资讯
9089 点击    2026-03-18 15:12
挺搞笑,MiniMax模型就是不认识「马嘉祺」

挺搞笑,MiniMax模型就是不认识「马嘉祺」

挺搞笑,MiniMax模型就是不认识「马嘉祺」

最近,有网友发现了一个很有意思的 bug:MiniMax 的模型似乎不认识「马嘉祺」这三个字。

来自主题: AI技术研报
8029 点击    2026-03-17 14:35
MiniMax市值超越百度,一个时代轰然倒塌

MiniMax市值超越百度,一个时代轰然倒塌

MiniMax市值超越百度,一个时代轰然倒塌

百度再一次沦为了计量单位!

来自主题: AI资讯
8255 点击    2026-03-13 09:58
基础模型又一关键拼图,腾讯混元发布训练新范式「无相」:引入功能性记忆,打破静态权重枷锁

基础模型又一关键拼图,腾讯混元发布训练新范式「无相」:引入功能性记忆,打破静态权重枷锁

基础模型又一关键拼图,腾讯混元发布训练新范式「无相」:引入功能性记忆,打破静态权重枷锁

3月6日,腾讯混元发布了一篇名为“HY-WU (Part I): An Extensible Functional Neural Memory Framework and An Instantiation in Text-Guided Image Editing”的技术报告。提出了一种崭新的功能性记忆(functional neural memory)范式(weight unleashing),

来自主题: AI技术研报
8788 点击    2026-03-07 11:08
黑马图像模型被Nano Banana技术负责人点赞!15人华人小队,DDIM之父&CVPR最佳论文作者带队

黑马图像模型被Nano Banana技术负责人点赞!15人华人小队,DDIM之父&CVPR最佳论文作者带队

黑马图像模型被Nano Banana技术负责人点赞!15人华人小队,DDIM之父&CVPR最佳论文作者带队

刚刚,Luma AI甩出全新模型Uni-1,正面对标谷歌Nano Banana Pro和GPT Image 1.5。Uni-1是一个统一的图像理解与生成模型。在官方展示中,Uni-1具备角色姿态迁移、故事板生成、草稿+材质结合参考生成、草稿转漫画、多参考图场景合成、草稿引导的照片编辑、UV贴图生成、带有文字的贺卡海报生成等诸多能力。

来自主题: AI资讯
9357 点击    2026-03-06 15:41
数据邪修大法好:仅用文本数据就能预训练多模态大模型

数据邪修大法好:仅用文本数据就能预训练多模态大模型

数据邪修大法好:仅用文本数据就能预训练多模态大模型

没有图片,也能预训练多模态大模型?在多模态大模型(MLLM)的研发中,行业内长期遵循着一个昂贵的共识:没有图文对(Image-Text Pairs),就没有多模态能力。

来自主题: AI技术研报
8465 点击    2026-03-03 14:25
MiniMax 财报发布:首份大模型成绩单

MiniMax 财报发布:首份大模型成绩单

MiniMax 财报发布:首份大模型成绩单

今天(3月2日),MiniMax(00100.HK)发布了2025年全年业绩。这是全球第一份来自独立大模型创业公司的年报,数字先给:总收入 $7,904万,同比 +158.9%,毛利率 25.4%,净亏损(经过调整) $2.51亿,去年同期 $2.44亿,变化不大

来自主题: AI资讯
9149 点击    2026-03-02 19:57
西湖大学破解Rectified Flow反演不稳定难题,实现零成本稳定增强|ICLR'26

西湖大学破解Rectified Flow反演不稳定难题,实现零成本稳定增强|ICLR'26

西湖大学破解Rectified Flow反演不稳定难题,实现零成本稳定增强|ICLR'26

现有Rectified Flow(RF)模型在反演阶段面临的核心挑战,是逆向ODE对微小误差高度敏感,容易沿着数值不稳定方向偏离前向流形,导致轨迹发散、重建不一致、编辑不可控。为解决这一问题,团队提出PMI(Prox-Mean-Inversion),一种针对RF反演稳定性的轻量化修正机制。

来自主题: AI技术研报
8807 点击    2026-03-02 09:59