AI资讯新闻榜单内容搜索-LLM

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
搜索: LLM
Sora负责人与谢赛宁「隔空对话」,LLM先锋集结中国最硬核AI内行盛会!智源大模型全家桶亮相

Sora负责人与谢赛宁「隔空对话」,LLM先锋集结中国最硬核AI内行盛会!智源大模型全家桶亮相

Sora负责人与谢赛宁「隔空对话」,LLM先锋集结中国最硬核AI内行盛会!智源大模型全家桶亮相

才用了112台A800,就能训出性能达GPT-4 90%的万亿参数大模型?智源的全球首个低碳单体稠密万亿参数大模型Tele-FLM,有望解决全球算力紧缺难题!此外,全新思路的原生多模态「世界模型」Emu 3等都浅亮相了一把。2024的智源大会,依然是星光熠熠,学术巨佬含量超标。

来自主题: AI技术研报
8264 点击    2024-06-15 16:07
英伟达开源3400亿巨兽,98%合成数据训出最强开源通用模型!性能对标GPT-4o

英伟达开源3400亿巨兽,98%合成数据训出最强开源通用模型!性能对标GPT-4o

英伟达开源3400亿巨兽,98%合成数据训出最强开源通用模型!性能对标GPT-4o

刚刚,英伟达全新发布的开源模型Nemotron-4 340B,有可能彻底改变训练LLM的方式!从此,或许各行各业都不再需要昂贵的真实世界数据集了。而且,Nemotron-4 340B直接超越了Mixtral 8x22B、Claude sonnet、Llama3 70B、Qwen 2,甚至可以和GPT-4掰手腕!

来自主题: AI技术研报
4085 点击    2024-06-15 15:58
英伟达开源最强通用模型Nemotron-4 340B

英伟达开源最强通用模型Nemotron-4 340B

英伟达开源最强通用模型Nemotron-4 340B

性能超越 Llama-3,主要用于合成数据。

来自主题: AI技术研报
10154 点击    2024-06-15 15:40
捣鼓了一年的LLM,我们学到了啥——Part II

捣鼓了一年的LLM,我们学到了啥——Part II

捣鼓了一年的LLM,我们学到了啥——Part II

一个常被许多领导者引用、但很可能是被杜撰出来的名言是:“外行谈战略和战术,内行谈运营。”战术视角看到的是一个个独特的难题,而运营视角看到的是组织中需要需要改变的不协调的模式。战略视角看到的是机会,运营视角则看的是挑战。

来自主题: AI技术研报
9076 点击    2024-06-12 15:05
AI时代的AI伦理:共识达成的可能与问题的终结

AI时代的AI伦理:共识达成的可能与问题的终结

AI时代的AI伦理:共识达成的可能与问题的终结

古代中国是一个“万般皆下品,唯有读书高”的社会,尽管民众对读书多的人很佩服并不仅仅是因为学问,更因为读书可以当官。

来自主题: AI资讯
8561 点击    2024-06-12 12:37
LLM时代,FPGA跑AI会比GPU更强吗?

LLM时代,FPGA跑AI会比GPU更强吗?

LLM时代,FPGA跑AI会比GPU更强吗?

都是可选择的一环

来自主题: AI资讯
8494 点击    2024-06-12 12:34
用神经架构搜索给LLM瘦身,模型变小,准确度有时反而更高

用神经架构搜索给LLM瘦身,模型变小,准确度有时反而更高

用神经架构搜索给LLM瘦身,模型变小,准确度有时反而更高

大型语言模型(LLM)的一个主要特点是「大」,也因此其训练和部署成本都相当高,如何在保证 LLM 准确度的同时让其变小就成了非常重要且有价值的研究课题。

来自主题: AI技术研报
8485 点击    2024-06-11 10:06
两句话,让LLM逻辑推理瞬间崩溃!最新「爱丽丝梦游仙境」曝出GPT、Claude等重大缺陷

两句话,让LLM逻辑推理瞬间崩溃!最新「爱丽丝梦游仙境」曝出GPT、Claude等重大缺陷

两句话,让LLM逻辑推理瞬间崩溃!最新「爱丽丝梦游仙境」曝出GPT、Claude等重大缺陷

在基准测试上频频屠榜的大模型们,竟然被一道简单的逻辑推理题打得全军覆没?最近,研究机构LAION的几位作者共同发表了一篇文章,以「爱丽丝梦游仙境」为启发涉及了一系列简单的推理问题,揭示了LLM基准测试的盲区。

来自主题: AI技术研报
8521 点击    2024-06-10 14:23
GPT-4欺骗人类高达99.16%惊人率!PNAS重磅研究曝出,LLM推理越强欺骗值越高

GPT-4欺骗人类高达99.16%惊人率!PNAS重磅研究曝出,LLM推理越强欺骗值越高

GPT-4欺骗人类高达99.16%惊人率!PNAS重磅研究曝出,LLM推理越强欺骗值越高

最近,德国研究科学家发表的PANS论文揭示了一个令人担忧的现象:LLM已经涌现出「欺骗能力」,它们可以理解并诱导欺骗策。而且,相比前几年的LLM,更先进的GPT-4、ChatGPT等模型在欺骗任务中的表现显著提升。

来自主题: AI技术研报
8424 点击    2024-06-09 18:23