AI技术研报-这里有最前沿的人工智能技术解读

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
如何看待Anthropic公司在ChatGPT4.5推出前,宣布推出Claude 3?

如何看待Anthropic公司在ChatGPT4.5推出前,宣布推出Claude 3?

如何看待Anthropic公司在ChatGPT4.5推出前,宣布推出Claude 3?

已经第一时间氪金到了 claude 3 Pro,准备接下来停用GPT-4(直到GPT-4.5出来),日常工作完全用Claude 3 Opus。

来自主题: AI技术研报
10254 点击    2024-03-06 10:50
国内的这两支队伍,正在尝试开源Sora!

国内的这两支队伍,正在尝试开源Sora!

国内的这两支队伍,正在尝试开源Sora!

在2024年2月份,OpenAI推出了一项创新的文本转视频模型,名为Sora。这一模型标志着视频生成技术取得了显著的进步。Sora具备将简短文本描述转化为长达一分钟的详尽且高清晰度视频片段的能力。

来自主题: AI技术研报
8266 点击    2024-03-05 14:43
ICLR 2024 Oral:长视频中噪声关联学习,单卡训练仅需1天

ICLR 2024 Oral:长视频中噪声关联学习,单卡训练仅需1天

ICLR 2024 Oral:长视频中噪声关联学习,单卡训练仅需1天

在 2024 世界经济论坛的一次会谈中,图灵奖得主 Yann LeCun 提出用来处理视频的模型应该学会在抽象的表征空间中进行预测,而不是具体的像素空间 [1]。借助文本信息的多模态视频表征学习可抽取利于视频理解或内容生成的特征,

来自主题: AI技术研报
11001 点击    2024-03-05 14:36
0.5秒,无需GPU,Stability AI与华人团队VAST开源单图生成3D模型TripoSR

0.5秒,无需GPU,Stability AI与华人团队VAST开源单图生成3D模型TripoSR

0.5秒,无需GPU,Stability AI与华人团队VAST开源单图生成3D模型TripoSR

最近,文生视频模型 Sora 掀起了新一轮生成式 AI 模型浪潮,模型的多模态能力引起广泛关注。

来自主题: AI技术研报
6701 点击    2024-03-05 14:30
谷歌发布最新「读屏」AI!PaLM 2-S自动生成数据,多项理解任务刷新SOTA

谷歌发布最新「读屏」AI!PaLM 2-S自动生成数据,多项理解任务刷新SOTA

谷歌发布最新「读屏」AI!PaLM 2-S自动生成数据,多项理解任务刷新SOTA

谷歌在语言和声控计算机界面的漫长道路上又迈出了重要一步。最新ScreenAI视觉语言模型,能够完成各种屏幕QA问答、总结摘要等任务。

来自主题: AI技术研报
10123 点击    2024-03-05 10:35
RNN效率媲美Transformer,谷歌新架构两连发:同等规模强于Mamba

RNN效率媲美Transformer,谷歌新架构两连发:同等规模强于Mamba

RNN效率媲美Transformer,谷歌新架构两连发:同等规模强于Mamba

去年 12 月,新架构 Mamba 引爆了 AI 圈,向屹立不倒的 Transformer 发起了挑战。如今,谷歌 DeepMind「Hawk 」和「Griffin 」的推出为 AI 圈提供了新的选择。

来自主题: AI技术研报
6219 点击    2024-03-03 18:10
大视频模型是世界模型?DeepMind/UC伯克利华人一作:预测下一帧就能改变世界

大视频模型是世界模型?DeepMind/UC伯克利华人一作:预测下一帧就能改变世界

大视频模型是世界模型?DeepMind/UC伯克利华人一作:预测下一帧就能改变世界

谷歌DeepMind、UC伯克利和MIT的研究人员认为,如果用大语言模型的思路来做大视频模型,能解决很多语言模型不擅长的问题,可能能更进一步接近世界模型。

来自主题: AI技术研报
6875 点击    2024-03-03 17:31
模型偏好只与大小有关?上交大全面解析人类与32种大模型偏好的定量组分

模型偏好只与大小有关?上交大全面解析人类与32种大模型偏好的定量组分

模型偏好只与大小有关?上交大全面解析人类与32种大模型偏好的定量组分

在目前的模型训练范式中,偏好数据的的获取与使用已经成为了不可或缺的一环。在训练中,偏好数据通常被用作对齐(alignment)时的训练优化目标,如基于人类或 AI 反馈的强化学习(RLHF/RLAIF)或者直接偏好优化(DPO),而在模型评估中,由于任务的复杂性且通常没有标准答案,则通常直接以人类标注者或高性能大模型(LLM-as-a-Judge)的偏好标注作为评判标准。

来自主题: AI技术研报
11514 点击    2024-03-02 14:58
60行代码,从头开始构建GPT!最全实践指南来了

60行代码,从头开始构建GPT!最全实践指南来了

60行代码,从头开始构建GPT!最全实践指南来了

GPT早已成为大模型时代的基础。国外一位开发者发布了一篇实践指南,仅用60行代码构建GPT。

来自主题: AI技术研报
9265 点击    2024-03-01 17:44
首批类Sora模型出现,色拉布上线Snap Video,效果优于Pika、不输Gen-2

首批类Sora模型出现,色拉布上线Snap Video,效果优于Pika、不输Gen-2

首批类Sora模型出现,色拉布上线Snap Video,效果优于Pika、不输Gen-2

最近,OpenAI 视频生成模型 Sora 的爆火,给基于 Transformer 的扩散模型重新带来了一波热度,比如 Sora 研发负责人之一 William Peebles 与纽约大学助理教授谢赛宁去年提出的 DiT(Diffusion Transformer)。

来自主题: AI技术研报
4443 点击    2024-03-01 13:43
几行代码稳定UNet ! 中山大学等提出ScaleLong扩散模型:从质疑Scaling到成为Scaling

几行代码稳定UNet ! 中山大学等提出ScaleLong扩散模型:从质疑Scaling到成为Scaling

几行代码稳定UNet ! 中山大学等提出ScaleLong扩散模型:从质疑Scaling到成为Scaling

本文提出了扩散模型中UNet的long skip connection的scaling操作可以有助于模型稳定训练的分析,目前已被NeurIPS 2023录用。同时,该分析还可以解释扩散模型中常用但未知原理的1/√2 scaling操作能加速训练的现象。

来自主题: AI技术研报
8130 点击    2024-02-29 13:52
微软、国科大开启1Bit时代:大模型转三进制,速度快4倍能耗降至1/41

微软、国科大开启1Bit时代:大模型转三进制,速度快4倍能耗降至1/41

微软、国科大开启1Bit时代:大模型转三进制,速度快4倍能耗降至1/41

今天凌晨,由微软、国科大等机构提交的一篇论文在 AI 圈里被人们争相转阅。该研究提出了一种 1-bit 大模型,实现效果让人只想说两个字:震惊。

来自主题: AI技术研报
10861 点击    2024-02-29 13:42
想训练类Sora模型吗?尤洋团队OpenDiT实现80%加速

想训练类Sora模型吗?尤洋团队OpenDiT实现80%加速

想训练类Sora模型吗?尤洋团队OpenDiT实现80%加速

根据 OpenAI 披露的技术报告,Sora 的核心技术点之一是将视觉数据转化为 patch 的统一表征形式,并通过 Transformer 和扩散模型结合,展现了卓越的扩展(scale)特性。

来自主题: AI技术研报
7765 点击    2024-02-29 13:35
微软6页论文爆火:三进制LLM,真香!

微软6页论文爆火:三进制LLM,真香!

微软6页论文爆火:三进制LLM,真香!

现在,大语言模型(LLM)迎来了“1-bit时代”。

来自主题: AI技术研报
3806 点击    2024-02-29 13:31
陈丹琦团队新作:Llama-2上下文扩展至128k,10倍吞吐量仅需1/6内存

陈丹琦团队新作:Llama-2上下文扩展至128k,10倍吞吐量仅需1/6内存

陈丹琦团队新作:Llama-2上下文扩展至128k,10倍吞吐量仅需1/6内存

陈丹琦团队刚刚发布了一种新的LLM上下文窗口扩展方法:它仅用8k大小的token文档进行训练,就能将Llama-2窗口扩展至128k。

来自主题: AI技术研报
10540 点击    2024-02-29 13:27
Sora和ChatGPT之后,教育怎么办?

Sora和ChatGPT之后,教育怎么办?

Sora和ChatGPT之后,教育怎么办?

用过ChatGPT的人知道,新时代来临了。Sora的出现,将人工智能推向新高潮。

来自主题: AI技术研报
7311 点击    2024-02-29 13:17