单目深度估计新成果来了!
单目深度估计新成果来了!
互相检查,让小模型也能解决大问题。
发布40天后,最强开源模型Llama 3.1 405B等来了微调版本的发布。但不是来自Meta,而是一个专注于开放模型的神秘初创Nous Research。
Nature的一篇文章透露:你发过的paper,很可能已经被拿去训练模型了!有的出版商靠卖数据,已经狂赚2300万美元。然而辛辛苦苦码论文的作者们,却拿不到一分钱,这合理吗?
随着大模型的快速发展,指令调优在提升模型性能和泛化能力方面发挥着至关重要的作用。
一口气生成2万字,大模型输出也卷起来了!
最近的论文表明,LLM等生成模型可以通过搜索来扩展,并实现非常显著的性能提升。另一个复现实验也发现,让参数量仅8B的Llama 3.1模型搜索100次,即可在Python代码生成任务上达到GPT-4o同等水平。
最近ACL 2024 论文放榜,扫了下,SMoE(稀疏混合专家)的论文不算多,这里就仔细梳理一下,包括动机、方法、有趣的发现,方便大家不看论文也能了解的七七八八,剩下只需要感兴趣再看就好。
AI在现实工作环境中如何影响了工作效率?微软发起一项最大规模的调查研究,AI工具在工作场景中最大提效30%。
近日,来自佐治亚理工学院的研究人员开发了RTNet,首次表明其「思考方式」与人类非常相似。