AI资讯新闻榜单内容搜索-模型

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 模型
故意“装菜”答错问题,AI已能识别自己“正在被测试”丨OpenAI新研究

故意“装菜”答错问题,AI已能识别自己“正在被测试”丨OpenAI新研究

故意“装菜”答错问题,AI已能识别自己“正在被测试”丨OpenAI新研究

OpenAI携手APOLLO的新研究发现,大模型会对指令阳奉阴违,为了达成目的故意答错问题、暗中修改数据或者操作记录来掩盖自己的违规行为……比如,o3模型在化学测试中,通过推理得出如果正确率超过50%将不会被部署的结论后,

来自主题: AI技术研报
9878 点击    2025-09-23 16:34
阿里一夜扔出三个开源王炸!猛刷32项开源SOTA

阿里一夜扔出三个开源王炸!猛刷32项开源SOTA

阿里一夜扔出三个开源王炸!猛刷32项开源SOTA

深夜,阿里通义大模型团队连放三个大招:开源原生全模态大模型Qwen3-Omni、语音生成模型Qwen3-TTS、图像编辑模型Qwen-Image-Edit-2509更新。Qwen3-Omni能无缝处理文本、图像、音频和视频等多种输入形式,并通过实时流式响应同时生成文本与自然语音输出。

来自主题: AI资讯
9077 点击    2025-09-23 16:33
EMNLP2025 | SFT与RL的结合,vivo AI Lab提出新的后训练方法

EMNLP2025 | SFT与RL的结合,vivo AI Lab提出新的后训练方法

EMNLP2025 | SFT与RL的结合,vivo AI Lab提出新的后训练方法

监督微调(SFT)和强化学习(RL)微调是大模型后训练常见的两种手段。通过强化学习微调大模型在众多 NLP 场景都取得了较好的进展,但是在文本分类场景,强化学习未取得较大的进展,其表现往往不如监督学习。

来自主题: AI技术研报
8172 点击    2025-09-23 14:59
实测可灵AI的新视频模型,它生成的动作戏酷到封神。

实测可灵AI的新视频模型,它生成的动作戏酷到封神。

实测可灵AI的新视频模型,它生成的动作戏酷到封神。

可灵2.5,来了。 不仅已经对可灵的超级创作者们正式进行灰度内测,还在这个周末,登上了釜山国际电影节。

来自主题: AI产品测评
8782 点击    2025-09-23 14:52
平台热捧 AIGC,大赛之后谁来买单?

平台热捧 AIGC,大赛之后谁来买单?

平台热捧 AIGC,大赛之后谁来买单?

AIGC正在迎来平台层面的集体热捧。 9月16日,腾讯视频官宣首届AI短片创作大赛,面向全球创作者征集AI短片。而事实上,今年以来,爱奇艺、快手、抖音等多个平台均纷纷加码AIGC相关扶持与创投计划。相较去年偏重于“创意尝鲜”,平台今年的重点已明显转向“商业落地”的探索。

来自主题: AI资讯
8727 点击    2025-09-23 14:33
快手解密「AI印钞机」,首提生成式强化学习出价技术,为平台实现超过3%的广告收入提升

快手解密「AI印钞机」,首提生成式强化学习出价技术,为平台实现超过3%的广告收入提升

快手解密「AI印钞机」,首提生成式强化学习出价技术,为平台实现超过3%的广告收入提升

CBD 算法则是快手商业化算法团队在本月初公布的新方法,全名 Causal auto-Bidding method based on Diffusion completer-aligner,即基于扩散式补全器-对齐器的因果自动出价方法。

来自主题: AI技术研报
7345 点击    2025-09-23 13:29
国内首个大模型“体检”结果发布,这样问AI很危险!

国内首个大模型“体检”结果发布,这样问AI很危险!

国内首个大模型“体检”结果发布,这样问AI很危险!

近日,国内首次针对AI大模型的实网众测结果正式公布,一场大型“安全体检”透露出不容忽视的信号:本次活动累计发现安全漏洞281个,其中大模型特有漏洞高达177个,占比超过六成,这组数据表明,AI正面临着超出传统安全范畴的新型威胁。

来自主题: AI资讯
7310 点击    2025-09-23 10:27
LeCun力荐的JEPA杀入LLM,用CV的思路训练LLM,性能鲁棒性双丰收

LeCun力荐的JEPA杀入LLM,用CV的思路训练LLM,性能鲁棒性双丰收

LeCun力荐的JEPA杀入LLM,用CV的思路训练LLM,性能鲁棒性双丰收

LeCun 这次不是批评 LLM,而是亲自改造。当前 LLM 的训练(包括预训练、微调和评估)主要依赖于在「输入空间」进行重构与生成,例如预测下一个词。 而在 CV 领域,基于「嵌入空间」的训练目标,如联合嵌入预测架构(JEPA),已被证明远优于在输入空间操作的同类方法。

来自主题: AI技术研报
8083 点击    2025-09-23 10:12
突破后训练瓶颈?Meta超级智能实验室又一力作:CaT解决RL监督难题

突破后训练瓶颈?Meta超级智能实验室又一力作:CaT解决RL监督难题

突破后训练瓶颈?Meta超级智能实验室又一力作:CaT解决RL监督难题

为了回答这一问题,来自牛津大学、Meta 超级智能实验室等机构的研究者提出设想:推理计算是否可以替代缺失的监督?本文认为答案是肯定的,他们提出了一种名为 CaT(Compute as Teacher)的方法,核心思想是把推理时的额外计算当作教师信号,在缺乏人工标注或可验证答案时,也能为大模型提供监督信号。

来自主题: AI技术研报
6053 点击    2025-09-23 10:09