AI资讯新闻榜单内容搜索-LLM

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: LLM
LLM最大能力密度100天翻一倍!清华刘知远团队提出Densing Law

LLM最大能力密度100天翻一倍!清华刘知远团队提出Densing Law

LLM最大能力密度100天翻一倍!清华刘知远团队提出Densing Law

支持大模型一路狂飙的 Scaling Law 到头了? 近期,AI 圈针对 Scaling Law 是否到头产生了分歧。一派观点认为 Scaling Law 已经「撞墙」了,另一派观点(如 OpenAI CEO Sam Altman)仍然坚定 Scaling Law 的潜力尚未穷尽。

来自主题: AI技术研报
7680 点击    2024-12-09 14:59
开源1.6B小模型「小狐狸」,表现超同类模型Qwen和Gemma

开源1.6B小模型「小狐狸」,表现超同类模型Qwen和Gemma

开源1.6B小模型「小狐狸」,表现超同类模型Qwen和Gemma

自从 Chatgpt 诞生以来,LLM(大语言模型)的参数量似乎就成为了各个公司的竞赛指标。GPT-1 参数量为 1.17 亿(1.17M),而它的第四代 GPT-4 参数量已经刷新到了 1.8 万亿(1800B)。

来自主题: AI技术研报
8382 点击    2024-12-08 12:20
用LLaVA解读数万神经元,大模型竟然自己打开了多模态智能黑盒

用LLaVA解读数万神经元,大模型竟然自己打开了多模态智能黑盒

用LLaVA解读数万神经元,大模型竟然自己打开了多模态智能黑盒

以 GPT4V 为代表的多模态大模型(LMMs)在大语言模型(LLMs)上增加如同视觉的多感官技能,以实现更强的通用智能。虽然 LMMs 让人类更加接近创造智慧,但迄今为止,我们并不能理解自然与人工的多模态智能是如何产生的。

来自主题: AI技术研报
7355 点击    2024-12-07 15:02
Agent 初学者指南:揭开 AI Agents 的面纱

Agent 初学者指南:揭开 AI Agents 的面纱

Agent 初学者指南:揭开 AI Agents 的面纱

最近从由大型语言模型(LLM)驱动的聊天机器人向如今该领域所定义的 Agent 系统或 Agentic AI 的转变,可以用一句老话来概括:“少说话,多做事。”

来自主题: AI资讯
7060 点击    2024-12-07 10:44
Bengio、LeCun再喊话:AGI推理不需要先学语言,LLM路走窄了?

Bengio、LeCun再喊话:AGI推理不需要先学语言,LLM路走窄了?

Bengio、LeCun再喊话:AGI推理不需要先学语言,LLM路走窄了?

Yoshua Bengio最近在《金融时报》的专栏文章中表示,「AI可以在说话之前学会思考」,实现内部的深思熟虑将成为AGI道路的里程碑。无独有偶,就在几个月前,Yann LeCun也多次表达过类似的观点。

来自主题: AI资讯
8181 点击    2024-12-06 10:00
英伟达提出全新Star Attention,10倍加速LLM推理!登顶Hugging Face论文榜

英伟达提出全新Star Attention,10倍加速LLM推理!登顶Hugging Face论文榜

英伟达提出全新Star Attention,10倍加速LLM推理!登顶Hugging Face论文榜

大模型如今已具有越来越长的上下文,而与之相伴的是推理成本的上升。英伟达最新提出的Star Attention,能够在不损失精度的同时,显著减少推理计算量,从而助力边缘计算。

来自主题: AI技术研报
7609 点击    2024-12-05 11:27
关于LLM-as-a-judge范式,终于有综述讲明白了

关于LLM-as-a-judge范式,终于有综述讲明白了

关于LLM-as-a-judge范式,终于有综述讲明白了

评估和评价长期以来一直是人工智能 (AI) 和自然语言处理 (NLP) 中的关键挑战。然而,传统方法,无论是基于匹配还是基于词嵌入,往往无法判断精妙的属性并提供令人满意的结果。

来自主题: AI技术研报
8232 点击    2024-12-03 20:21
AI做数学学会「动脑子」! UCL等发现LLM「程序性知识」,推理绝不是背答案

AI做数学学会「动脑子」! UCL等发现LLM「程序性知识」,推理绝不是背答案

AI做数学学会「动脑子」! UCL等发现LLM「程序性知识」,推理绝不是背答案

LLM在推理时,竟是通过一种「程序性知识」,而非照搬答案?可以认为这是一种变相的证明:LLM的确具备某种推理能力。然而存在争议的是,这项研究只能提供证据,而非证明。

来自主题: AI技术研报
8800 点击    2024-12-02 15:15
微软:两个AI相互纠错,数学再涨5分

微软:两个AI相互纠错,数学再涨5分

微软:两个AI相互纠错,数学再涨5分

提升LLM数学能力的新方法来了——

来自主题: AI技术研报
6172 点击    2024-12-02 14:51