AI资讯新闻榜单内容搜索-Transforme

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
搜索: Transforme
Transformer还不够好,它的作者决定让大模型自主进化

Transformer还不够好,它的作者决定让大模型自主进化

Transformer还不够好,它的作者决定让大模型自主进化

让大模型自己动手,好过让人类动手。黄仁勋对话Transformer八子时,最后一位离开谷歌的论文作者Llion Jones,相信这是大模型技术的关键趋势。他还卖了个关子,预告他创立的Sakana AI马上就有大动作。

来自主题: AI技术研报
7722 点击    2024-03-26 14:33
OpenAI公关跳起来捂他嘴:Transformer作者公开承认参与Q*!|八位作者最新专访

OpenAI公关跳起来捂他嘴:Transformer作者公开承认参与Q*!|八位作者最新专访

OpenAI公关跳起来捂他嘴:Transformer作者公开承认参与Q*!|八位作者最新专访

Transformer作者中唯一去了OpenAI的那位,公开承认了:他参与了Q*项目,是这项新技术的发明者之一。这几天除了英伟达老黄组局把Transformer作者聚齐,他们中的几位还接受了连线杂志的采访,期间出了这么一个小插曲。

来自主题: AI资讯
5755 点击    2024-03-25 18:48
模型合并就进化,直接拿下SOTA!Transformer作者创业新成果火了

模型合并就进化,直接拿下SOTA!Transformer作者创业新成果火了

模型合并就进化,直接拿下SOTA!Transformer作者创业新成果火了

把Huggingface上的现成模型拿来“攒一攒”—— 直接就能组合出新的强大模型?!日本大模型公司sakana.ai脑洞大开(正是“Transformer八子”之一所创办的公司),想出了这么一个进化合并模型的妙招。

来自主题: AI资讯
6246 点击    2024-03-25 18:33
离职谷歌的Transformer作者创业,连发3个模型(附技术报告)

离职谷歌的Transformer作者创业,连发3个模型(附技术报告)

离职谷歌的Transformer作者创业,连发3个模型(附技术报告)

去年 8 月,两位著名的前谷歌研究人员 David Ha、Llion Jones 宣布创立一家人工智能公司 Sakana AI,总部位于日本东京。

来自主题: AI资讯
5737 点击    2024-03-25 17:12
CNN、Transformer、Uniformer之外,我们终于有了更高效的视频理解技术

CNN、Transformer、Uniformer之外,我们终于有了更高效的视频理解技术

CNN、Transformer、Uniformer之外,我们终于有了更高效的视频理解技术

视频理解因大量时空冗余和复杂时空依赖,同时克服两个问题难度巨大,CNN 和 Transformer 及 Uniformer 都难以胜任,Mamba 是个好思路,让我们看看本文是如何创造视频理解的 VideoMamba。

来自主题: AI资讯
6300 点击    2024-03-24 21:44
淘宝“星辰”大模型亮相,布局电商和生活服务场景

淘宝“星辰”大模型亮相,布局电商和生活服务场景

淘宝“星辰”大模型亮相,布局电商和生活服务场景

淘天在AI电商上迈出的重要一步。Tech星球独家获悉,淘宝天猫集团自研大模型“淘宝星辰”官网已经上线,这也是淘天集团公开的首个自研大模型。官网除了显示该大模型的介绍外,还设置有“立即体验”和“登录/注册”入口,或将在不久对外开放。

来自主题: AI资讯
8388 点击    2024-03-22 11:35
COLING24|自适应剪枝让多模态大模型加速2-3倍,哈工大等推出SmartTrim

COLING24|自适应剪枝让多模态大模型加速2-3倍,哈工大等推出SmartTrim

COLING24|自适应剪枝让多模态大模型加速2-3倍,哈工大等推出SmartTrim

哈工大联合度小满推出针对多模态模型的自适应剪枝算法 SmartTrim,论文已被自然语言处理顶级会议 COLING 24 接收。

来自主题: AI技术研报
3932 点击    2024-03-17 18:56
350亿参数、开放权重,Transformer作者创业后推出新大模型

350亿参数、开放权重,Transformer作者创业后推出新大模型

350亿参数、开放权重,Transformer作者创业后推出新大模型

开源大语言模型宇宙又来了一个强劲对手。Transformer 作者参与创立的 Cohere 公司推出的大模型 Command-R 在可扩展、RAG和工具使用三个方面具有显著的优势。

来自主题: AI技术研报
5441 点击    2024-03-12 18:54
OpenAI官宣开源Transformer Debugger!不用写代码,人人可以破解LLM黑箱

OpenAI官宣开源Transformer Debugger!不用写代码,人人可以破解LLM黑箱

OpenAI官宣开源Transformer Debugger!不用写代码,人人可以破解LLM黑箱

刚刚,OpenAI超级对齐团队负责人官宣开源Transformer调试器。研究人员不用写代码,就能快速探索LLM的内部构造了!

来自主题: AI资讯
4432 点击    2024-03-12 18:34