AI资讯新闻榜单内容搜索-Ash

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Ash
Flash Attention稳定吗?Meta、哈佛发现其模型权重偏差呈现数量级波动

Flash Attention稳定吗?Meta、哈佛发现其模型权重偏差呈现数量级波动

Flash Attention稳定吗?Meta、哈佛发现其模型权重偏差呈现数量级波动

众所周知,大语言模型的训练常常需要数月的时间,使用数百乃至上千个 GPU。以 LLaMA2 70B 模型为例,其训练总共需要 1,720,320 GPU hours。由于这些工作负载的规模和复杂性,导致训练大模型存在着独特的系统性挑战。

来自主题: AI技术研报
6949 点击    2024-05-12 15:49
中国最fashion的AIGC应用都在这里了 | 中国AIGC产业峰会

中国最fashion的AIGC应用都在这里了 | 中国AIGC产业峰会

中国最fashion的AIGC应用都在这里了 | 中国AIGC产业峰会

AIGC新应用,到底将重塑怎样的一个新世界? 现在,只需一天的时间,你就能感受到它们正在引领的科技新范式。

来自主题: AI资讯
11449 点击    2024-04-11 17:07
知衣科技CEO郑泽宇:服装行业距离真正的智能化还很远

知衣科技CEO郑泽宇:服装行业距离真正的智能化还很远

知衣科技CEO郑泽宇:服装行业距离真正的智能化还很远

不久前,AI新光年与知衣科技创始人兼CEO郑泽宇就“人工智能如何改变服装行业”的话题进行了一次探讨。2024年伊始,这位年轻的AI高级工程师做完了2023年复盘,也做好了新一年的规划。

来自主题: AI资讯
9159 点击    2024-01-25 10:43
8x7B MoE与Flash Attention 2结合,不到10行代码实现快速推理

8x7B MoE与Flash Attention 2结合,不到10行代码实现快速推理

8x7B MoE与Flash Attention 2结合,不到10行代码实现快速推理

前段时间,Mistral AI 公布的 Mixtral 8x7B 模型爆火整个开源社区,其架构与 GPT-4 非常相似,很多人将其形容为 GPT-4 的「缩小版」。

来自主题: AI技术研报
6136 点击    2024-01-01 11:08
生成式人工智能数字漫画公司Dashtoon 融资 500 万美元

生成式人工智能数字漫画公司Dashtoon 融资 500 万美元

生成式人工智能数字漫画公司Dashtoon 融资 500 万美元

随着文本至图像的人工智能 Diffusion 模型的出现,为数字漫画领域揭示了一个充满希望的机遇。加利福尼亚州的 Dashtoon 公司抓住这个机会,致力于将这项尖端技术推广到全世界的故事讲述者者中。

来自主题: AI资讯
9302 点击    2023-11-04 10:31
PyTorch官方认可!斯坦福博士新作:长上下文LLM推理速度提8倍

PyTorch官方认可!斯坦福博士新作:长上下文LLM推理速度提8倍

PyTorch官方认可!斯坦福博士新作:长上下文LLM推理速度提8倍

这两天,FlashAttention团队推出了新作: 一种给Transformer架构大模型推理加速的新方法,最高可提速8倍。 该方法尤其造福于长上下文LLM,在64k长度的CodeLlama-34B上通过了验证

来自主题: AI技术研报
4709 点击    2023-10-18 14:43