# 热门搜索 #
搜索
搜索: 小模型
算力不足,小模型成AI模型发展下个方向?

这段时间,AI模型界是真的热闹,新的模型不断涌现,不管是开源还是闭源,都在刷新成绩。就在前几天,Meta就上演了一出“重夺开源铁王座”的好戏。发布了Llama 3 8B和70B两个版本,在多项指标上都超越了此前开源的Grok-1和DBRX,成为了新的开源大模型王者。

来自主题: AI资讯
7400 点击    2024-04-24 10:20
小模型当打之年?2024年AI预言“一网打尽”

在本篇文章中,适道将综合Coatue、a16z、Radical Ventures等明星VC预言;The Information、FT、Sifted汇集的投资者预言;以及Greg Brockman等行业大佬的观点,试着归纳接下来一年中AI的发展脉络。

来自主题: AI资讯
6647 点击    2024-01-09 09:25
不是大模型用不起,而是小模型更有性价比

无法控制成本的大模型终将被“快好省”的小模型取代今年最热的AI赛道中,机构们自然也得下一些判断,比如说——2024年大模型的一个趋势,是将变得“越来越小”。

来自主题: AI资讯
4783 点击    2023-12-28 14:07
源代码is all you need!7B代码小模型同尺寸无敌,性能媲美ChatGPT和谷歌Gemini

软件开发人员对代码生成 AI 已经不陌生,它们已经成为提高生产力的利器。本文中,伊利诺伊大学香槟分校(UIUC)张令明老师团队带来了代码生成 AI 领域的又一力作 ——Magicoder,在短短一周之内狂揽 1200 多颗 GitHub Star,登上 GitHub Trending 日榜,并获推特大佬 AK(@_akhaliq)发推力荐。

来自主题: AI技术研报
7224 点击    2023-12-18 11:03
小模型如何进行上下文学习?字节跳动 & 华东师大联合提出自进化文本识别器

我们都知道,大语言模型(LLM)能够以一种无需模型微调的方式从少量示例中学习,这种方式被称为「上下文学习」(In-context Learning)。这种上下文学习现象目前只能在大模型上观察到。比如 GPT-4、Llama 等大模型在非常多的领域中都表现出了杰出的性能,但还是有很多场景受限于资源或者实时性要求较高,无法使用大模型。

来自主题: AI技术研报
3317 点击    2023-11-27 12:49