# 热门搜索 #
搜索
苹果让大模型学会偷懒:更快吐出第一个token,准确度还保住了

Llama 3.1 刚刚发布,你是否已经尝试了呢?就算你的个人计算机是最近的顶尖配置,运行其中最小的 8B 版本可能也依然会有明显延迟。为了提升模型的推理效率,研究者想出了多种多样的方法,但其中很多都会让模型牺牲一些准确度。

来自主题: AI技术研报
7567 点击    2024-08-02 16:07
AI金融创新实践|上海「Open Day」圆满落幕

7月25日,非凡产研举办的《金融科技新动力:AI在金融创新与服务中的应用》主题活动在上海圆满落幕。 活动特别邀请到了三位AI+金融领域的资深专家深擎科技创始人&CEO 柴志伟、澜码科技创始人兼CEO 周健、甜新科技合伙人 郭尔东分别进行了专题分享,跟参会嘉宾进行了答疑互动。

来自主题: AI技术研报
7438 点击    2024-08-02 12:02
【LLM开源模型】LLMs-Llama3.1-240723通关攻略笔记v1.0

不同类型的数据配比如何配置:先通过小规模实验确定最优配比,然后将其应用到大模型的训练中。 Token配比结论:通用知识50%;数学与逻辑25%;代码17%;多语言8%。

来自主题: AI技术研报
6538 点击    2024-08-02 11:53
CMU&清华新作:让LLM自己合成数据来学习,特定任务性能同样大幅提升

为了解决这个问题,一些研究尝试通过强大的 Teacher Model 生成训练数据,来增强 Student Model 在特定任务上的性能。然而,这种方法在成本、可扩展性和法律合规性方面仍面临诸多挑战。在无法持续获得高质量人类监督信号的情况下,如何持续迭代模型的能力,成为了亟待解决的问题。

来自主题: AI技术研报
5325 点击    2024-08-01 15:55