AI资讯新闻榜单内容搜索-LLM

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: LLM
CMU&清华新作:让LLM自己合成数据来学习,特定任务性能同样大幅提升

CMU&清华新作:让LLM自己合成数据来学习,特定任务性能同样大幅提升

CMU&清华新作:让LLM自己合成数据来学习,特定任务性能同样大幅提升

为了解决这个问题,一些研究尝试通过强大的 Teacher Model 生成训练数据,来增强 Student Model 在特定任务上的性能。然而,这种方法在成本、可扩展性和法律合规性方面仍面临诸多挑战。在无法持续获得高质量人类监督信号的情况下,如何持续迭代模型的能力,成为了亟待解决的问题。

来自主题: AI技术研报
6734 点击    2024-08-01 15:55
谷歌开源最强端侧小模型:2B参数越级跑赢GPT-3.5-Turbo,苹果15Pro运行飞快

谷歌开源最强端侧小模型:2B参数越级跑赢GPT-3.5-Turbo,苹果15Pro运行飞快

谷歌开源最强端侧小模型:2B参数越级跑赢GPT-3.5-Turbo,苹果15Pro运行飞快

今年 6 月底,谷歌开源了 9B、27B 版 Gemma 2 模型系列,并且自亮相以来,27B 版本迅速成为了大模型竞技场 LMSYS Chatbot Arena 中排名最高的开放模型之一,在真实对话任务中比其两倍规模以上的模型表现还要好。

来自主题: AI技术研报
6163 点击    2024-08-01 15:41
iPhone可跑2B小钢炮!谷歌Gemma 2来袭,最强显微镜剖解LLM大脑

iPhone可跑2B小钢炮!谷歌Gemma 2来袭,最强显微镜剖解LLM大脑

iPhone可跑2B小钢炮!谷歌Gemma 2来袭,最强显微镜剖解LLM大脑

谷歌DeepMind的小模型核弹来了,Gemma 2 2B直接击败了参数大几个数量级的GPT-3.5和Mixtral 8x7B!而同时发布的Gemma Scope,如显微镜一般打破LLM黑箱,让我们看清Gemma 2是如何决策的。

来自主题: AI技术研报
9530 点击    2024-08-01 15:32
ICML 2024|复杂组合3D场景生成,LLMs对话式3D可控生成编辑框架来了

ICML 2024|复杂组合3D场景生成,LLMs对话式3D可控生成编辑框架来了

ICML 2024|复杂组合3D场景生成,LLMs对话式3D可控生成编辑框架来了

近年来,针对单个物体的 Text-to-3D 方法取得了一系列突破性进展,但是从文本生成可控的、高质量的复杂多物体 3D 场景仍然面临巨大挑战。之前的方法在生成场景的复杂度、几何质量、纹理一致性、多物体交互关系、可控性和编辑性等方面均存在较大缺陷。

来自主题: AI技术研报
10870 点击    2024-07-31 17:34
万字技术干货!LLM工程师必读量化指南,可视化图解揭秘大模型如何压缩

万字技术干货!LLM工程师必读量化指南,可视化图解揭秘大模型如何压缩

万字技术干货!LLM工程师必读量化指南,可视化图解揭秘大模型如何压缩

面对LLM逐渐膨胀的参数规模,没有H100的开发者和研究人员们想出了很多弥补方法,「量化」技术就是其中的一种。这篇可视化指南用各种图解,将「量化」的基本概念和分支方法进行了全方位总结。

来自主题: AI技术研报
10016 点击    2024-07-31 16:21
4轮暴训,Llama 7B击败GPT-4!Meta等让LLM「分饰三角」自评自进化

4轮暴训,Llama 7B击败GPT-4!Meta等让LLM「分饰三角」自评自进化

4轮暴训,Llama 7B击败GPT-4!Meta等让LLM「分饰三角」自评自进化

Meta、UC伯克利、NYU共同提出元奖励语言模型,给「超级对齐」指条明路:让AI自己当裁判,自我改进对齐,效果秒杀自我奖励模型。

来自主题: AI技术研报
9293 点击    2024-07-31 16:05
AI也会「刷抖音」!清华领衔发布短视频全模态理解新模型 | ICML 2024

AI也会「刷抖音」!清华领衔发布短视频全模态理解新模型 | ICML 2024

AI也会「刷抖音」!清华领衔发布短视频全模态理解新模型 | ICML 2024

音视频大语言模型在处理视频内容时,往往未能充分发挥语音的作用。video-SALMONN模型通过三部分创新:音视频编码和时间对齐、多分辨率因果Q-Former、多样性损失函数和混合未配对音视频数据训练。该模型不仅在单一模态任务上表现优异,更在视听联合任务中展现了卓越的性能,证明了其全面性和准确性。

来自主题: AI技术研报
7399 点击    2024-07-31 15:05
「越狱」事件频发,如何教会大模型「迷途知返」而不是「将错就错」?

「越狱」事件频发,如何教会大模型「迷途知返」而不是「将错就错」?

「越狱」事件频发,如何教会大模型「迷途知返」而不是「将错就错」?

大型语言模型(LLM)展现出了令人印象深刻的智能水平。因此,确保其安全性显得至关重要。已有研究提出了各种策略,以使 LLM 与人类伦理道德对齐。然而,当前的先进模型例如 GPT-4 和 LLaMA3-70b-Instruct 仍然容易受到越狱攻击,并被用于恶意用途。

来自主题: AI技术研报
9245 点击    2024-07-30 16:55
关于大模型「越狱」的多种方式,有这些防御手段

关于大模型「越狱」的多种方式,有这些防御手段

关于大模型「越狱」的多种方式,有这些防御手段

随着人工智能(AI)技术的迅猛发展,特别是大语言模型(LLMs)如 GPT-4 和视觉语言模型(VLMs)如 CLIP 和 DALL-E,这些模型在多个技术领域取得了显著的进展。

来自主题: AI技术研报
11036 点击    2024-07-29 20:32
FBI-LLM低比特基础大语言模型来了,首个完全从头训练的二值化语言模型

FBI-LLM低比特基础大语言模型来了,首个完全从头训练的二值化语言模型

FBI-LLM低比特基础大语言模型来了,首个完全从头训练的二值化语言模型

自回归训练方式已经成为了大语言模型(LLMs)训练的标准模式, 今天介绍一篇来自阿联酋世界第一所人工智能大学MBZUAI的VILA实验室和CMU计算机系合作的论文,题为《FBI-LLM: Scaling Up Fully Binarized LLMs from Scratch via Autoregressive Distillation》

来自主题: AI技术研报
7416 点击    2024-07-28 23:25