AI资讯新闻榜单内容搜索-模型训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 模型训练
ACM Computing Surveys | 港大等基于可靠性视角的深度伪造检测综述,覆盖主流基准库、模型

ACM Computing Surveys | 港大等基于可靠性视角的深度伪造检测综述,覆盖主流基准库、模型

ACM Computing Surveys | 港大等基于可靠性视角的深度伪造检测综述,覆盖主流基准库、模型

基于深度神经网络对人脸图像进行编辑和篡改,深度伪造的发展为人们的生活带来了便利,但对其错误的应用也同时危害着人们的隐私和信息安全。

来自主题: AI技术研报
7157 点击    2025-01-12 16:38
GAN已死?GAN万岁!布朗康奈尔新作爆火,一夜碾压扩散模型

GAN已死?GAN万岁!布朗康奈尔新作爆火,一夜碾压扩散模型

GAN已死?GAN万岁!布朗康奈尔新作爆火,一夜碾压扩散模型

GAN已死?不,它卷土重来了!布朗大学和康奈尔大学的研究者刚刚提出了R3GAN,充分利用现代架构设计,彻底摒弃临时技巧,一半参数就能碾压扩散模型。网友惊呼:游戏规则要改变了!

来自主题: AI技术研报
5708 点击    2025-01-12 11:04
不停PUA大模型「写更好点」,无需其它花哨技术就能让AI代码水平暴增

不停PUA大模型「写更好点」,无需其它花哨技术就能让AI代码水平暴增

不停PUA大模型「写更好点」,无需其它花哨技术就能让AI代码水平暴增

AI 的编程能力已经得到了证明,但还并不完美。近日,BuzzFeed 的资深数据科学家 Max Woolf 发现,如果通过提示词不断要求模型写更好的代码(write better code),AI 模型还真能写出更好的代码!

来自主题: AI资讯
7655 点击    2025-01-12 10:51
突破瓶颈!北航ETH等首次将扩散模型完全量化至1bit,28倍存储节省+52.7倍效率提升

突破瓶颈!北航ETH等首次将扩散模型完全量化至1bit,28倍存储节省+52.7倍效率提升

突破瓶颈!北航ETH等首次将扩散模型完全量化至1bit,28倍存储节省+52.7倍效率提升

将扩散模型量化到1比特极限,又有新SOTA了! 来自北航、ETH等机构的研究人员提出了一种名为BiDM的新方法,首次将扩散模型(DMs)的权重和激活完全二值化。

来自主题: AI技术研报
7585 点击    2025-01-12 10:42
LLM带来了「编程末日」?哥本哈根大学CS教授:别做梦了!

LLM带来了「编程末日」?哥本哈根大学CS教授:别做梦了!

LLM带来了「编程末日」?哥本哈根大学CS教授:别做梦了!

LLM会把编程淘汰吗?近日,哥本哈根大学的计算机教授,通过分析计算理论中的定理所施加的基本限制,得出结论:距离编程的终结还远得很。

来自主题: AI资讯
5934 点击    2025-01-12 10:17
迈向System 2推理,100页论文硬核讲述Meta-CoT

迈向System 2推理,100页论文硬核讲述Meta-CoT

迈向System 2推理,100页论文硬核讲述Meta-CoT

Meta-CoT 通过显式建模生成特定思维链(CoT)所需的底层推理过程,扩展了传统的思维链方法。

来自主题: AI资讯
6590 点击    2025-01-12 10:08
一行代码Post-Train任意长序列!360智脑开源360-LLaMA-Factory

一行代码Post-Train任意长序列!360智脑开源360-LLaMA-Factory

一行代码Post-Train任意长序列!360智脑开源360-LLaMA-Factory

大模型长序列的处理能力已越来越重要,像复杂长文本任务、多帧视频理解任务、以及 OpenAI 近期发布的 o1、o3 系列模型的高计算量模式,需要处理的输入 + 输出总 token 数从几万量级上升到了几百万量级。

来自主题: AI技术研报
7432 点击    2025-01-11 13:45
AMD把o1炼成了实验室助手,自动科研经费节省84%

AMD把o1炼成了实验室助手,自动科研经费节省84%

AMD把o1炼成了实验室助手,自动科研经费节省84%

芯片强者AMD最新推出科研AI,o1-preview竟成天选打工人?! 注意看,只需将科研idea和相关笔记一股脑丢给AI,研究报告甚至是代码就能立马出炉了。

来自主题: AI技术研报
7674 点击    2025-01-10 16:25
超越KL!大连理工发布Wasserstein距离知识蒸馏新方法|NeurIPS 2024

超越KL!大连理工发布Wasserstein距离知识蒸馏新方法|NeurIPS 2024

超越KL!大连理工发布Wasserstein距离知识蒸馏新方法|NeurIPS 2024

大连理工大学的研究人员提出了一种基于Wasserstein距离的知识蒸馏方法,克服了传统KL散度在Logit和Feature知识迁移中的局限性,在图像分类和目标检测任务上表现更好。

来自主题: AI技术研报
5149 点击    2025-01-10 16:00