AI资讯新闻榜单内容搜索-AI框架

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
搜索: AI框架
首次证实白盒Transformer可扩展性!马毅教授CRATE-α:鲸吞14亿数据,性能稳步提升

首次证实白盒Transformer可扩展性!马毅教授CRATE-α:鲸吞14亿数据,性能稳步提升

首次证实白盒Transformer可扩展性!马毅教授CRATE-α:鲸吞14亿数据,性能稳步提升

CRATE-α是一种新型Transformer架构变体,通过设计改进提升了模型的可扩展性、性能和可解释性,CRATE-α-Base在ImageNet分类任务上的性能显著超过了之前最好的CRATE-B模型,其性能会随着模型和数据集规模扩大而继续提升。

来自主题: AI技术研报
8321 点击    2024-06-06 15:48
Mamba-2新架构出世一统江湖!普林斯顿CMU华人再出神作,性能狂飙8倍

Mamba-2新架构出世一统江湖!普林斯顿CMU华人再出神作,性能狂飙8倍

Mamba-2新架构出世一统江湖!普林斯顿CMU华人再出神作,性能狂飙8倍

在开源社区引起「海啸」的Mamba架构,再次卷土重来!这次,Mamba-2顺利拿下ICML。通过统一SSM和注意力机制,Transformer和SSM直接成了「一家亲」,Mamba-2这是要一统江湖了?

来自主题: AI技术研报
7177 点击    2024-06-04 15:20
高效、可泛化的高斯重建框架,只需3张视图即可快速推理,45秒便可完成优化

高效、可泛化的高斯重建框架,只需3张视图即可快速推理,45秒便可完成优化

高效、可泛化的高斯重建框架,只需3张视图即可快速推理,45秒便可完成优化

3D 重建和新视图合成技术在虚拟现实和增强现实等领域有着广泛的应用。NeRF 通过隐式地将场景编码为辐射场,在视图合成上取得了显著的成功。

来自主题: AI技术研报
8305 点击    2024-06-02 14:46
ACL 2024 | 提升大模型持续学习性能,哈工大、度小满提出共享注意力框架SAPT

ACL 2024 | 提升大模型持续学习性能,哈工大、度小满提出共享注意力框架SAPT

ACL 2024 | 提升大模型持续学习性能,哈工大、度小满提出共享注意力框架SAPT

在大模型实际部署落地的过程中,如何赋予大模型持续学习的能力是一个至关重要的挑战。这使其能够动态适应新的任务并不断获得新的知识。大模型的持续学习主要面临两个重大挑战,分别是灾难性遗忘和知识迁移。灾难性遗忘是指模型在学习新任务时,会忘记其已掌握的旧任务。知识迁移则涉及到如何在学习新任务时有效地应用旧任务的知识来提升新任务学习的效果。

来自主题: AI技术研报
7998 点击    2024-05-29 16:18
只需单卡RTX 3090,低比特量化训练就能实现LLaMA-3 8B全参微调

只需单卡RTX 3090,低比特量化训练就能实现LLaMA-3 8B全参微调

只需单卡RTX 3090,低比特量化训练就能实现LLaMA-3 8B全参微调

本文由GreenBit.AI团队撰写,团队的核心成员来自德国哈索·普拉特纳计算机系统工程院开源技术小组。我们致力于推动开源社区的发展,倡导可持续的机器学习理念。我们的目标是通过提供更具成本效益的解决方案,使人工智能技术在环境和社会层面产生积极影响。

来自主题: AI技术研报
7756 点击    2024-05-25 18:15