AI资讯新闻榜单内容搜索-Ultra

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
搜索: Ultra
不用英伟达GPU!华为盘古Ultra来了:昇腾原生、135B稠密通用大模型

不用英伟达GPU!华为盘古Ultra来了:昇腾原生、135B稠密通用大模型

不用英伟达GPU!华为盘古Ultra来了:昇腾原生、135B稠密通用大模型

终于,华为盘古大模型系列上新了,而且是昇腾原生的通用千亿级语言大模型。我们知道,如今各大科技公司纷纷发布百亿、千亿级模型。但这些大部分模型训练主要依赖英伟达的 GPU。

来自主题: AI技术研报
5977 点击    2025-04-13 16:12
已节省数百万GPU小时!字节再砍MoE训练成本,核心代码全开源

已节省数百万GPU小时!字节再砍MoE训练成本,核心代码全开源

已节省数百万GPU小时!字节再砍MoE训练成本,核心代码全开源

字节对MoE模型训练成本再砍一刀,成本可节省40%! 刚刚,豆包大模型团队在GitHub上开源了叫做COMET的MoE优化技术。

来自主题: AI技术研报
5693 点击    2025-03-10 21:57
DeepSeek掀低成本革命,中科院系黑马闯入全球TOP 10!破解高精度-低能耗困局

DeepSeek掀低成本革命,中科院系黑马闯入全球TOP 10!破解高精度-低能耗困局

DeepSeek掀低成本革命,中科院系黑马闯入全球TOP 10!破解高精度-低能耗困局

2025年,中国大模型迎来最高光时刻。DeepSeek凭借深度推理、低成本强势崛起,中科院系AI企业祭出的YAYI-Ultra大模型在代码能力上超越GPT-4o,成功跻身OpenCompas榜单全球前十,高精度和低能耗兼而有之。

来自主题: AI资讯
5907 点击    2025-02-17 15:07
推理成本比MoE直降83%!字节最新大模型架构入围ICLR 2025

推理成本比MoE直降83%!字节最新大模型架构入围ICLR 2025

推理成本比MoE直降83%!字节最新大模型架构入围ICLR 2025

字节出了个全新架构,把推理成本给狠狠地打了下去!推理速度相比MoE架构提升2-6倍,推理成本最高可降低83%。

来自主题: AI技术研报
5707 点击    2025-02-12 11:37
清华NLP开源RAG开箱即用框架,自动适配知识库无需纠结模型选型

清华NLP开源RAG开箱即用框架,自动适配知识库无需纠结模型选型

清华NLP开源RAG开箱即用框架,自动适配知识库无需纠结模型选型

RAG系统的搭建与优化是一项庞大且复杂的系统工程,通常需要兼顾测试制定、检索调优、模型调优等关键环节,繁琐的工作流程往往让人无从下手。

来自主题: AI资讯
6950 点击    2025-01-29 12:34
套了件AI马甲,一枚戒指就敢卖到1万3?

套了件AI马甲,一枚戒指就敢卖到1万3?

套了件AI马甲,一枚戒指就敢卖到1万3?

钻戒保值?不,现在流行买智能戒指保健康。 奢侈品这么拥挤的赛道,智能戒指也是挤进去了。

来自主题: AI资讯
6733 点击    2025-01-16 15:24
Fixie AI 推出 Ultravox v0.4.1:专门用于与 LLM 进行实时对话以及 GPT-4o 实时的替代方案

Fixie AI 推出 Ultravox v0.4.1:专门用于与 LLM 进行实时对话以及 GPT-4o 实时的替代方案

Fixie AI 推出 Ultravox v0.4.1:专门用于与 LLM 进行实时对话以及 GPT-4o 实时的替代方案

在人工智能领域,与AI进行无缝的实时交互一直是开发者和研究者面临的一大挑战。特别是将文本、图片、音频等多模态信息整合成一个连贯的对话系统,更是难上加难。尽管像GPT-4这样的语言模型在对话流畅性和上下文理解上取得了长足进步,但在实际应用中,这些模型仍然存在不足之处:

来自主题: AI技术研报
8351 点击    2024-11-28 09:53