AI资讯新闻榜单内容搜索-机器学习

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 机器学习
谷歌的两个5天课程都讲了什么,介绍一下这9+N份白皮书 |最新

谷歌的两个5天课程都讲了什么,介绍一下这9+N份白皮书 |最新

谷歌的两个5天课程都讲了什么,介绍一下这9+N份白皮书 |最新

2025年末,谷歌通过Kaggle平台,以前所未有的力度,连续推出了两个为期五天的线上强化课程。这不仅仅是两次普通的线上分享,更像是一场由谷歌顶级机器学习(ML)研究员和工程师亲自引领的、深入探索生成式AI及其前沿应用——AI Agents(人工智能代理)的集训。

来自主题: AI技术研报
9178 点击    2025-11-12 10:21
突破LLM遗忘瓶颈,谷歌「嵌套学习」让AI像人脑一样持续进化

突破LLM遗忘瓶颈,谷歌「嵌套学习」让AI像人脑一样持续进化

突破LLM遗忘瓶颈,谷歌「嵌套学习」让AI像人脑一样持续进化

近日,谷歌推出了一种全新的用于持续学习的机器学习范式 —— 嵌套学习,模型不再采用静态的训练周期,而是以不同的更新速度在嵌套层中进行学习,即将模型视为一系列嵌套问题的堆叠,使其能够不断学习新技能,同时又不会遗忘旧技能。

来自主题: AI技术研报
8079 点击    2025-11-09 10:25
牛津VGG、港大、上交发布ELIP:超越CLIP等,多模态图片检索的增强视觉语言大模型预训练

牛津VGG、港大、上交发布ELIP:超越CLIP等,多模态图片检索的增强视觉语言大模型预训练

牛津VGG、港大、上交发布ELIP:超越CLIP等,多模态图片检索的增强视觉语言大模型预训练

多模态图片检索是计算机视觉和多模态机器学习领域很重要的一个任务。现在大家做多模态图片检索一般会用 CLIP/SigLIP 这种视觉语言大模型,因为他们经过了大规模的预训练,所以 zero-shot 的能力比较强。

来自主题: AI技术研报
6025 点击    2025-10-30 10:42
推理效率狂飙60倍:DiDi-Instruct让扩散大模型16步超越千步GPT

推理效率狂飙60倍:DiDi-Instruct让扩散大模型16步超越千步GPT

推理效率狂飙60倍:DiDi-Instruct让扩散大模型16步超越千步GPT

近日,来自普渡大学、德克萨斯大学、新加坡国立大学、摩根士丹利机器学习研究、小红书 hi-lab 的研究者联合提出了一种对离散扩散大语言模型的后训练方法 —— Discrete Diffusion Divergence Instruct (DiDi-Instruct)。经过 DiDi-Instruct 后训练的扩散大语言模型可以以 60 倍的加速超越传统的 GPT 模型和扩散大语言模型。

来自主题: AI技术研报
8560 点击    2025-10-28 09:40
清华大学x生数科技:从波形到隐空间,AudioLBM引领音频超分新范式

清华大学x生数科技:从波形到隐空间,AudioLBM引领音频超分新范式

清华大学x生数科技:从波形到隐空间,AudioLBM引领音频超分新范式

在这一背景下,清华大学与生数科技(Shengshu AI)团队围绕桥类生成模型与音频超分任务展开系统研究,先后在语音领域顶级会议ICASSP 2025和机器学习顶级会议NeurIPS 2025发表了两项连续成果:

来自主题: AI技术研报
7930 点击    2025-10-13 10:30
拒绝小扎15亿美元offer的大佬,还是加入Meta了

拒绝小扎15亿美元offer的大佬,还是加入Meta了

拒绝小扎15亿美元offer的大佬,还是加入Meta了

那个拒绝了小扎15亿美元薪酬包的机器学习大神,还是加入Meta了。OpenAI前CTO Mira Murati创业公司Thinking Machines Lab证实,联创、首席架构师Andrew Tulloch已经离职去了Meta。

来自主题: AI资讯
7295 点击    2025-10-12 10:48
吴恩达执教的深度学习课程CS230秋季上新,新增GPT-5专题

吴恩达执教的深度学习课程CS230秋季上新,新增GPT-5专题

吴恩达执教的深度学习课程CS230秋季上新,新增GPT-5专题

吴恩达 (Andrew Ng) 执教的斯坦福 CS230 深度学习旗舰课程已更新至 2025 秋季版,首讲视频现已公开!课程采用翻转课堂模式,学生需提前观看 Coursera 上的 deeplearning.ai 专项课程视频(包括神经网络基础、超参数调优、结构化机器学习项目等模块),然后参加线下课程。

来自主题: AI资讯
8912 点击    2025-10-08 11:49
Thinking Machines曝LoRA终极指南:10倍学习率,媲美全参微调

Thinking Machines曝LoRA终极指南:10倍学习率,媲美全参微调

Thinking Machines曝LoRA终极指南:10倍学习率,媲美全参微调

LoRA能否与全参微调性能相当?在Thinking Machines的最新论文中,他们研究了LoRA与FullFT达到相近表现的条件。Thinking Machines关注LoRA,旨在推动其更广泛地应用于各种按需定制的场景,同时也有助于我们更深入审视机器学习中的一些基本问题。

来自主题: AI技术研报
8606 点击    2025-10-01 11:42
从少样本到千样本!MachineLearningLM给大模型上下文学习装上「机器学习引擎」

从少样本到千样本!MachineLearningLM给大模型上下文学习装上「机器学习引擎」

从少样本到千样本!MachineLearningLM给大模型上下文学习装上「机器学习引擎」

这项名为 MachineLearningLM 的新研究突破了这一瓶颈。该研究提出了一种轻量且可移植的「继续预训练」框架,无需下游微调即可直接通过上下文学习上千条示例,在金融、健康、生物信息、物理等等多个领域的二分类 / 多分类任务中的准确率显著超越基准模型(Qwen-2.5-7B-Instruct)以及最新发布的 GPT-5-mini。

来自主题: AI技术研报
8037 点击    2025-09-17 09:30