AI资讯新闻榜单内容搜索-LLM

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: LLM
阿里、百度双双出手,大模型长文本时代终于到来?

阿里、百度双双出手,大模型长文本时代终于到来?

阿里、百度双双出手,大模型长文本时代终于到来?

AGI时代,越来越近了。本月,中国初创AGI(通用人工智能)公司月之暗面宣布旗下大模型工具Kimi Chat正式升级到200万字参数量,与五个月前该大模型初次亮相时的20万字相比,提升十倍。Kimi Chat的升级彻底引爆市场,同时也引起长文本大模型(Long-LLM)细分赛道更加激烈的竞争。

来自主题: AI资讯
7467 点击    2024-03-25 10:20
UC伯克利「LLM排位赛」结果出炉!Claude 3追平GPT-4并列第一

UC伯克利「LLM排位赛」结果出炉!Claude 3追平GPT-4并列第一

UC伯克利「LLM排位赛」结果出炉!Claude 3追平GPT-4并列第一

Claude 3不但数据集跑分领先,用户体验上也将成为最强大的LLM,GPT-5在哪里?

来自主题: AI资讯
8036 点击    2024-03-24 21:24
GPT-4「荣升」AI顶会同行评审专家?斯坦福最新研究:ICLR/NeurIPS等竟有16.9%评审是ChatGPT生成

GPT-4「荣升」AI顶会同行评审专家?斯坦福最新研究:ICLR/NeurIPS等竟有16.9%评审是ChatGPT生成

GPT-4「荣升」AI顶会同行评审专家?斯坦福最新研究:ICLR/NeurIPS等竟有16.9%评审是ChatGPT生成

斯坦福的一篇案例研究表示,提交给AI会议的同行评审文本中,有6.5%到16.9%可能是由LLM大幅修改的,而这些趋势可能在个体级别上难以察觉。

来自主题: AI资讯
5017 点击    2024-03-23 21:09
微软NaturalSpeech语音合成推出第三代,网友惊呼:超自然!实至名归

微软NaturalSpeech语音合成推出第三代,网友惊呼:超自然!实至名归

微软NaturalSpeech语音合成推出第三代,网友惊呼:超自然!实至名归

SOTA 语音合成效果。文本到语音合成(Text to Speech,TTS)作为生成式人工智能(Generative AI 或 AIGC)的重要课题,在近年来取得了飞速发展。在大模型(LLM)时代下,语音合成技术能够扩展大模型的语音交互能力,更是受到了广泛的关注。

来自主题: AI产品测评
8513 点击    2024-03-22 17:15
吴恩达:AI智能体工作流今年将有巨大进展,可能超过下一代基础模型

吴恩达:AI智能体工作流今年将有巨大进展,可能超过下一代基础模型

吴恩达:AI智能体工作流今年将有巨大进展,可能超过下一代基础模型

下一步是智能体?随着 ChatGPT、GPT-4、Sora 的陆续问世,人工智能的发展趋势引起了广泛关注,特别是 Sora 让生成式 AI 模型在多模态方面取得显著进展。人们不禁会问:人工智能领域下一个突破方向将会是什么?

来自主题: AI资讯
7734 点击    2024-03-22 17:09
CVPR 2024 | 一统所有目标感知任务,华科&字节提出目标感知基础模型GLEE

CVPR 2024 | 一统所有目标感知任务,华科&字节提出目标感知基础模型GLEE

CVPR 2024 | 一统所有目标感知任务,华科&字节提出目标感知基础模型GLEE

近年来,LLM 已经一统所有文本任务,展现了基础模型的强大潜力。一些视觉基础模型如 CLIP 在多模态理解任务上同样展现出了强大的泛化能力,其统一的视觉语言空间带动了一系列多模态理解、生成、开放词表等任务的发展。然而针对更细粒度的目标级别的感知任务,目前依然缺乏一个强大的基础模型。

来自主题: AI技术研报
9875 点击    2024-03-21 18:35
老黄再曝惊人语录:LLM幻觉有解,AGI五年内必来!

老黄再曝惊人语录:LLM幻觉有解,AGI五年内必来!

老黄再曝惊人语录:LLM幻觉有解,AGI五年内必来!

AGI竞赛,正在大科技公司之间紧锣密鼓地展开,作为万亿显卡帝国掌舵人的老黄自然也不会缺席。在最近举办的GTC 2024上,老黄发表了自己对于AGI以及幻觉问题的看法。

来自主题: AI资讯
7198 点击    2024-03-21 10:12
如何从头开始编写LoRA代码,这有一份教程

如何从头开始编写LoRA代码,这有一份教程

如何从头开始编写LoRA代码,这有一份教程

作者表示:在各种有效的 LLM 微调方法中,LoRA 仍然是他的首选。LoRA(Low-Rank Adaptation)作为一种用于微调 LLM(大语言模型)的流行技术,最初由来自微软的研究人员在论文《 LORA: LOW-RANK ADAPTATION OF LARGE LANGUAGE MODELS 》中提出。

来自主题: AI技术研报
7224 点击    2024-03-20 16:16
大模型增速远超摩尔定律!MIT最新研究:人类快要喂不饱AI了

大模型增速远超摩尔定律!MIT最新研究:人类快要喂不饱AI了

大模型增速远超摩尔定律!MIT最新研究:人类快要喂不饱AI了

近日,来自MIT的研究人员发表了关于大模型能力增速的研究,结果表明,LLM的能力大约每8个月就会翻一倍,速度远超摩尔定律!硬件马上就要跟不上啦!

来自主题: AI资讯
9234 点击    2024-03-17 18:34
总结374篇相关工作,陶大程团队联合港大、UMD发布LLM知识蒸馏最新综述

总结374篇相关工作,陶大程团队联合港大、UMD发布LLM知识蒸馏最新综述

总结374篇相关工作,陶大程团队联合港大、UMD发布LLM知识蒸馏最新综述

早在 2020 年,陶大程团队就发布了《Knowledge Distillation: A Survey》,详细介绍了知识蒸馏在深度学习中的应用,主要用于模型压缩和加速。随着大语言模型的出现,知识蒸馏的作用范围不断扩大,逐渐扩展到了用于提升小模型的性能以及模型的自我提升。

来自主题: AI技术研报
5410 点击    2024-03-16 15:28