AI资讯新闻榜单内容搜索-transforme

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: transforme
简单通用:视觉基础网络最高3倍无损训练加速,清华EfficientTrain++入选TPAMI 2024

简单通用:视觉基础网络最高3倍无损训练加速,清华EfficientTrain++入选TPAMI 2024

简单通用:视觉基础网络最高3倍无损训练加速,清华EfficientTrain++入选TPAMI 2024

近年来,「scaling」是计算机视觉研究的主角之一。随着模型尺寸和训练数据规模的增大、学习算法的进步以及正则化和数据增强等技术的广泛应用,通过大规模训练得到的视觉基础网络(如 ImageNet1K/22K 上训得的 Vision Transformer、MAE、DINOv2 等)已在视觉识别、目标检测、语义分割等诸多重要视觉任务上取得了令人惊艳的性能。

来自主题: AI技术研报
8557 点击    2024-05-22 13:33
250行代码从头搭建Llama 3,GitHub一天4.6k星!Karpathy大赞

250行代码从头搭建Llama 3,GitHub一天4.6k星!Karpathy大赞

250行代码从头搭建Llama 3,GitHub一天4.6k星!Karpathy大赞

Llama 3发布一个月后,一位开发者在GitHub上创建了名为「从头开始实现Llama 3」的项目,引起了开源社区的广泛关注。代码非常详细地展现了Llama所使用的Transformer架构,甚至让Andrej Karpathy亲自下场「背书」。

来自主题: AI技术研报
9722 点击    2024-05-21 15:20
多功能RNA分析,百度团队基于Transformer的RNA语言模型登Nature子刊

多功能RNA分析,百度团队基于Transformer的RNA语言模型登Nature子刊

多功能RNA分析,百度团队基于Transformer的RNA语言模型登Nature子刊

预训练语言模型在分析核苷酸序列方面显示出了良好的前景,但使用单个预训练权重集在不同任务中表现出色的多功能模型仍然存在挑战。

来自主题: AI技术研报
9530 点击    2024-05-19 16:29
华为最新研究挑战Scaling Law

华为最新研究挑战Scaling Law

华为最新研究挑战Scaling Law

“Scaling Law不是万金油”——关于大模型表现,华为又提出了新理论。

来自主题: AI资讯
5542 点击    2024-05-18 19:31
颠覆谷歌搜索的,将是AI助手

颠覆谷歌搜索的,将是AI助手

颠覆谷歌搜索的,将是AI助手

经历了OpenAI春季发布会上卡点大师Altman GPT-4o一番狂轰乱炸后,大家都在等着看: 这次,谷歌能否接得住? 要知道,即便天天受到来自微软的惊吓,又被OpenAI追着打,谷歌依然有两个无法忽视的天然优势:

来自主题: AI资讯
8007 点击    2024-05-17 15:22
原作者带队,LSTM真杀回来了!

原作者带队,LSTM真杀回来了!

原作者带队,LSTM真杀回来了!

20 世纪 90 年代,长短时记忆(LSTM)方法引入了恒定误差选择轮盘和门控的核心思想。三十多年来,LSTM 经受住了时间的考验,并为众多深度学习的成功案例做出了贡献。然而,以可并行自注意力为核心 Transformer 横空出世之后,LSTM 自身所存在的局限性使其风光不再。

来自主题: AI资讯
7254 点击    2024-05-10 10:19
平均准确率达96.4%,中山大学&重庆大学开发基于Transformer的单细胞注释方法

平均准确率达96.4%,中山大学&重庆大学开发基于Transformer的单细胞注释方法

平均准确率达96.4%,中山大学&重庆大学开发基于Transformer的单细胞注释方法

使用测序 (scATAC-seq) 技术对转座酶可及的染色质进行单细胞测定,可在单细胞分辨率下深入了解基因调控和表观遗传异质性,但由于数据的高维性和极度稀疏性,scATAC-seq 的细胞注释仍然具有挑战性。现有的细胞注释方法大多集中在细胞峰矩阵上,而没有充分利用底层的基因组序列。

来自主题: AI技术研报
10150 点击    2024-05-04 20:01