AI资讯新闻榜单内容搜索-3

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 3
「越狱」事件频发,如何教会大模型「迷途知返」而不是「将错就错」?

「越狱」事件频发,如何教会大模型「迷途知返」而不是「将错就错」?

「越狱」事件频发,如何教会大模型「迷途知返」而不是「将错就错」?

大型语言模型(LLM)展现出了令人印象深刻的智能水平。因此,确保其安全性显得至关重要。已有研究提出了各种策略,以使 LLM 与人类伦理道德对齐。然而,当前的先进模型例如 GPT-4 和 LLaMA3-70b-Instruct 仍然容易受到越狱攻击,并被用于恶意用途。

来自主题: AI技术研报
10071 点击    2024-07-30 16:55
LLaMA3:开源战胜闭源意味着什么?

LLaMA3:开源战胜闭源意味着什么?

LLaMA3:开源战胜闭源意味着什么?

LLaMA3-405B的模型效果已经赶上目前最好的闭源模型GPT-4o和Claude-3.5,这可能是未来大模型开源与闭源的拐点,这里就LLaMA3的模型结构、训练过程与未来影响等方面说说我的看法。

来自主题: AI技术研报
10350 点击    2024-07-30 12:03
英伟达最新技术分享:手把手教你用Llama 3.1合成数据改进模型!附代码

英伟达最新技术分享:手把手教你用Llama 3.1合成数据改进模型!附代码

英伟达最新技术分享:手把手教你用Llama 3.1合成数据改进模型!附代码

适逢Llama 3.1模型刚刚发布,英伟达就发表了一篇技术博客,手把手教你如何好好利用这个强大的开源模型,为领域模型或RAG系统的微调生成合成数据。

来自主题: AI技术研报
11386 点击    2024-07-29 20:20
1.6万块H100训Llama 3.1,每3小时故障1次!罪魁祸首竟是GPU和HBM3显存

1.6万块H100训Llama 3.1,每3小时故障1次!罪魁祸首竟是GPU和HBM3显存

1.6万块H100训Llama 3.1,每3小时故障1次!罪魁祸首竟是GPU和HBM3显存

在Meta的Llama 3.1训练过程中,其运行的1.6万个GPU训练集群每3小时就会出现一次故障,意外故障中的半数都是由英伟达H100 GPU和HBM3内存故障造成的。

来自主题: AI技术研报
11445 点击    2024-07-29 20:16