AI资讯新闻榜单内容搜索-视觉模型

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
搜索: 视觉模型
原作者带队,LSTM卷土重来之Vision-LSTM出世

原作者带队,LSTM卷土重来之Vision-LSTM出世

原作者带队,LSTM卷土重来之Vision-LSTM出世

与 DeiT 等使用 ViT 和 Vision-Mamba (Vim) 方法的模型相比,ViL 的性能更胜一筹。

来自主题: AI技术研报
7881 点击    2024-06-08 15:55
物理传热启发的视觉表征模型vHeat来了,尝试突破注意力机制,兼具低复杂度、全局感受野

物理传热启发的视觉表征模型vHeat来了,尝试突破注意力机制,兼具低复杂度、全局感受野

物理传热启发的视觉表征模型vHeat来了,尝试突破注意力机制,兼具低复杂度、全局感受野

如何突破 Transformer 的 Attention 机制?中国科学院大学与鹏城国家实验室提出基于热传导的视觉表征模型 vHeat。将图片特征块视为热源,并通过预测热传导率、以物理学热传导原理提取图像特征。相比于基于Attention机制的视觉模型, vHeat 同时兼顾了:计算复杂度(1.5次方)、全局感受野、物理可解释性。

来自主题: AI技术研报
8225 点击    2024-06-03 17:51
李飞飞「空间智能」系列新进展,吴佳俊团队新「BVS」套件评估计算机视觉模型

李飞飞「空间智能」系列新进展,吴佳俊团队新「BVS」套件评估计算机视觉模型

李飞飞「空间智能」系列新进展,吴佳俊团队新「BVS」套件评估计算机视觉模型

在不久之前的 2024 TED 演讲中,李飞飞详细解读了 空间智能(Spatial Intelligence)概念。她对计算机视觉领域在数年间的快速发展感到欣喜并抱有极大热忱,并为此正在创建初创公司

来自主题: AI资讯
9229 点击    2024-05-21 15:31
HuggingFace教你怎样做出SOTA视觉模型

HuggingFace教你怎样做出SOTA视觉模型

HuggingFace教你怎样做出SOTA视觉模型

前有OpenAI的GPT-4o,后有谷歌的系列王炸,先进的多模态大模型接连炸场。

来自主题: AI技术研报
9789 点击    2024-05-17 17:49
智能计算加速搜索,中国天眼FAST寻获球状星团中迄今最长周期脉冲星

智能计算加速搜索,中国天眼FAST寻获球状星团中迄今最长周期脉冲星

智能计算加速搜索,中国天眼FAST寻获球状星团中迄今最长周期脉冲星

我们知道,球状星团是一种受引力束缚,成员由几万颗到数百万颗恒星组成的古老星团,在外观上大多呈球形,但也有可能受其他天体系统的引力影响使得形状偏离球形。球状星团的动力学演化过程,星族合成路径等是当今天文学界的研究热点。

来自主题: AI技术研报
7842 点击    2024-05-07 18:15
模型越大,性能越好?苹果自回归视觉模型AIM:没错

模型越大,性能越好?苹果自回归视觉模型AIM:没错

模型越大,性能越好?苹果自回归视觉模型AIM:没错

视觉模型,同样遵循「参数越多性能越强」的规律?刚刚,一项来自苹果公司的研究验证了这个猜想。

来自主题: AI技术研报
8880 点击    2024-01-18 18:19
ConvNet与Transformer谁更强?Meta评测4个领先视觉模型,LeCun转赞

ConvNet与Transformer谁更强?Meta评测4个领先视觉模型,LeCun转赞

ConvNet与Transformer谁更强?Meta评测4个领先视觉模型,LeCun转赞

来自MABZUAI和Meta的研究人员发表的最新研究,在「非标准」指标上全面比较了常见的视觉模型。

来自主题: AI资讯
7686 点击    2024-01-18 13:07
美图发布自研视觉大模型4.0,主打AI设计与AI视频

美图发布自研视觉大模型4.0,主打AI设计与AI视频

美图发布自研视觉大模型4.0,主打AI设计与AI视频

12月5-6日,主题为“未来AI设计”的美图创造力大会在厦门举行。美图公司发布自研AI视觉大模型MiracleVision(奇想智能)4.0版本,主打AI设计与AI视频。

来自主题: AI资讯
4973 点击    2023-12-06 17:24
提前对齐,视频问答新SOTA!北大全新Video-LLaVA视觉语言大模型,秒懂视频笑点

提前对齐,视频问答新SOTA!北大全新Video-LLaVA视觉语言大模型,秒懂视频笑点

提前对齐,视频问答新SOTA!北大全新Video-LLaVA视觉语言大模型,秒懂视频笑点

最近,来自北京大学等机构研究者提出了一种全新视觉语言大模型——Video-LLaVA,使得LLM能够同时接收图片和视频为输入。Video-LlaVA在下游任务中取得了卓越的性能,并在图片、视频的13个基准上达到先进的性能。这个结果表明,统一LLM的输入能让LLM的视觉理解能力提升。

来自主题: AI技术研报
4868 点击    2023-11-24 15:10