AI资讯新闻榜单内容搜索-模型

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 模型
ACM Computing Surveys | 港大等基于可靠性视角的深度伪造检测综述,覆盖主流基准库、模型

ACM Computing Surveys | 港大等基于可靠性视角的深度伪造检测综述,覆盖主流基准库、模型

ACM Computing Surveys | 港大等基于可靠性视角的深度伪造检测综述,覆盖主流基准库、模型

基于深度神经网络对人脸图像进行编辑和篡改,深度伪造的发展为人们的生活带来了便利,但对其错误的应用也同时危害着人们的隐私和信息安全。

来自主题: AI技术研报
8744 点击    2025-01-12 16:38
GAN已死?GAN万岁!布朗康奈尔新作爆火,一夜碾压扩散模型

GAN已死?GAN万岁!布朗康奈尔新作爆火,一夜碾压扩散模型

GAN已死?GAN万岁!布朗康奈尔新作爆火,一夜碾压扩散模型

GAN已死?不,它卷土重来了!布朗大学和康奈尔大学的研究者刚刚提出了R3GAN,充分利用现代架构设计,彻底摒弃临时技巧,一半参数就能碾压扩散模型。网友惊呼:游戏规则要改变了!

来自主题: AI技术研报
7012 点击    2025-01-12 11:04
不停PUA大模型「写更好点」,无需其它花哨技术就能让AI代码水平暴增

不停PUA大模型「写更好点」,无需其它花哨技术就能让AI代码水平暴增

不停PUA大模型「写更好点」,无需其它花哨技术就能让AI代码水平暴增

AI 的编程能力已经得到了证明,但还并不完美。近日,BuzzFeed 的资深数据科学家 Max Woolf 发现,如果通过提示词不断要求模型写更好的代码(write better code),AI 模型还真能写出更好的代码!

来自主题: AI资讯
9310 点击    2025-01-12 10:51
突破瓶颈!北航ETH等首次将扩散模型完全量化至1bit,28倍存储节省+52.7倍效率提升

突破瓶颈!北航ETH等首次将扩散模型完全量化至1bit,28倍存储节省+52.7倍效率提升

突破瓶颈!北航ETH等首次将扩散模型完全量化至1bit,28倍存储节省+52.7倍效率提升

将扩散模型量化到1比特极限,又有新SOTA了! 来自北航、ETH等机构的研究人员提出了一种名为BiDM的新方法,首次将扩散模型(DMs)的权重和激活完全二值化。

来自主题: AI技术研报
8916 点击    2025-01-12 10:42
大规模筛查一周「看病」三千人,AI眼科大模型讲出了新故事

大规模筛查一周「看病」三千人,AI眼科大模型讲出了新故事

大规模筛查一周「看病」三千人,AI眼科大模型讲出了新故事

眼病诊疗,会迈上怎样的台阶? 用“手机看病”,这个听起来颇为科幻的场景,其实已经走进了现实。

来自主题: AI资讯
8469 点击    2025-01-12 10:27
LLM带来了「编程末日」?哥本哈根大学CS教授:别做梦了!

LLM带来了「编程末日」?哥本哈根大学CS教授:别做梦了!

LLM带来了「编程末日」?哥本哈根大学CS教授:别做梦了!

LLM会把编程淘汰吗?近日,哥本哈根大学的计算机教授,通过分析计算理论中的定理所施加的基本限制,得出结论:距离编程的终结还远得很。

来自主题: AI资讯
6506 点击    2025-01-12 10:17
迈向System 2推理,100页论文硬核讲述Meta-CoT

迈向System 2推理,100页论文硬核讲述Meta-CoT

迈向System 2推理,100页论文硬核讲述Meta-CoT

Meta-CoT 通过显式建模生成特定思维链(CoT)所需的底层推理过程,扩展了传统的思维链方法。

来自主题: AI资讯
7615 点击    2025-01-12 10:08
回望AI元年,世界看到的中国产品

回望AI元年,世界看到的中国产品

回望AI元年,世界看到的中国产品

2025年1月7日上午,在CES大会开幕式上,身穿黑皮衣的英伟达创始人黄仁勋,用一番激情演讲,拉开了新一年AI的大幕——英伟达不仅推出了新一代基于Blackwell架构的GPU RTX 5090,还发布了开源可商用的世界基础模型Cosmos。两项产品,为AI应用的变革提供了全新的“基础设施”。

来自主题: AI资讯
9295 点击    2025-01-12 09:59
一行代码Post-Train任意长序列!360智脑开源360-LLaMA-Factory

一行代码Post-Train任意长序列!360智脑开源360-LLaMA-Factory

一行代码Post-Train任意长序列!360智脑开源360-LLaMA-Factory

大模型长序列的处理能力已越来越重要,像复杂长文本任务、多帧视频理解任务、以及 OpenAI 近期发布的 o1、o3 系列模型的高计算量模式,需要处理的输入 + 输出总 token 数从几万量级上升到了几百万量级。

来自主题: AI技术研报
9656 点击    2025-01-11 13:45