AI资讯新闻榜单内容搜索-transforme

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: transforme
北大、港理工革新性LiNo框架:线性与非线性模式有效分离,性能全面超越Transformer

北大、港理工革新性LiNo框架:线性与非线性模式有效分离,性能全面超越Transformer

北大、港理工革新性LiNo框架:线性与非线性模式有效分离,性能全面超越Transformer

时间序列数据,作为连续时间点的数据集合,广泛存在于医疗、金融、气象、交通、能源(电力、光伏等)等多个领域。有效的时间序列预测模型能够帮助我们理解数据的动态变化,预测未来趋势,从而做出更加精准的决策。

来自主题: AI技术研报
4989 点击    2025-01-03 15:53
揭秘transformer专用ASIC芯片:Sohu!

揭秘transformer专用ASIC芯片:Sohu!

揭秘transformer专用ASIC芯片:Sohu!

2022年,我们打赌说transformer会统治世界。 我们花了两年时间打造Sohu,这是世界上第一个用于transformer(ChatGPT中的“T”)的专用芯片。

来自主题: AI资讯
7139 点击    2025-01-03 14:44
深度|外媒评价最值得关注的9家机器人初创

深度|外媒评价最值得关注的9家机器人初创

深度|外媒评价最值得关注的9家机器人初创

Transformer——支撑像 OpenAI 的 ChatGPT 和 Anthropic 的 Claude 这样的聊天机器人的基础 AI 技术——正在帮助机器人更快地学习。

来自主题: AI资讯
6584 点击    2024-12-30 10:16
行人、车辆、动物等ReID最新综述!武大等全面总结Transformer方法 | IJCV 2024

行人、车辆、动物等ReID最新综述!武大等全面总结Transformer方法 | IJCV 2024

行人、车辆、动物等ReID最新综述!武大等全面总结Transformer方法 | IJCV 2024

研究人员对基于Transformer的Re-ID研究进行了全面回顾和深入分析,将现有工作分类为图像/视频Re-ID、数据/标注受限的Re-ID、跨模态Re-ID以及特殊Re-ID场景,提出了Transformer基线UntransReID,设计动物Re-ID的标准化基准测试,为未来Re-ID研究提供新手册。

来自主题: AI技术研报
5117 点击    2024-12-24 15:22
见证历史!AI想的科研idea,真被人类写成论文发表了

见证历史!AI想的科研idea,真被人类写成论文发表了

见证历史!AI想的科研idea,真被人类写成论文发表了

天啦撸!!AI想出来的idea,还真有人写成论文了。甚至预印本arXiv、博客、代码全都有了。今年8月,Sakana AI(由Transformer论文8位作者的最后一位Llion Jones创业成立)这家公司推出了史上首位“AI科学家”,且一登场就一口气生成了十篇完整学术论文。

来自主题: AI资讯
8070 点击    2024-12-18 12:49
AI“入侵”生物医药史:从暴力破解到Transformer模型三部曲

AI“入侵”生物医药史:从暴力破解到Transformer模型三部曲

AI“入侵”生物医药史:从暴力破解到Transformer模型三部曲

AI如何颠覆生物科技? AI正在入侵科学界,特别是生物科技方向。 瑞典皇家科学院在2024年10月宣布了当年诺贝尔化学奖的获奖者,出乎意料的是—— AI又是大赢家。

来自主题: AI资讯
7030 点击    2024-12-17 14:25
Mamba作者带斯坦福同学、导师创业,Cartesia获2700万美元种子轮融资

Mamba作者带斯坦福同学、导师创业,Cartesia获2700万美元种子轮融资

Mamba作者带斯坦福同学、导师创业,Cartesia获2700万美元种子轮融资

Mamba 这种状态空间模型(SSM)被认为是 Transformer 架构的有力挑战者。近段时间,相关研究成果接连不断。而就在不久前,Mamba 作者 Albert Gu 与 Karan Goel、Chris Ré、Arjun Desai、Brandon Yang 一起共同创立的 Cartesia 获得 2700 万美元种子轮融资。

来自主题: AI技术研报
7208 点击    2024-12-13 17:21
LSTM之父:我也是注意力之父!1991年就发表线性复杂度,遥遥领先Transformer 26年

LSTM之父:我也是注意力之父!1991年就发表线性复杂度,遥遥领先Transformer 26年

LSTM之父:我也是注意力之父!1991年就发表线性复杂度,遥遥领先Transformer 26年

Transformer模型自2017年问世以来,已成为AI领域的核心技术,尤其在自然语言处理中占据主导地位。然而,关于其核心机制“注意力”的起源,学界存在争议,一些学者如Jürgen Schmidhuber主张自己更早提出了相关概念。

来自主题: AI技术研报
6189 点击    2024-12-13 14:24