图片来源:Mistral
人工智能初创公司 Mistral 发布了其首个旨在运行在边缘设备上的生成式人工智能模型,如笔记本电脑和手机。
新系列模型,Mistral 称之为“Les Ministraux”,可以用于或调整以适应各种应用,从基本的文本生成到与更强大的模型协同工作以完成任务。
有两个 Les Ministraux 模型可用——Ministral 3B 和 Ministral 8B——它们的上下文窗口均为 128,000 个 Token,这意味着它们可以处理大约 50 页书籍的长度。
“我们最具创新性的客户和合作伙伴越来越多地要求在关键应用中提供本地、以隐私为首的推理,例如设备内翻译、无互联网的智能助手、本地分析和自主机器人,”Mistral 在一篇博客文章中写道。“Les Ministraux 的设计旨在为这些场景提供高效计算和低延迟的解决方案。”
Ministral 8B 从今天起可以下载——但仅限于研究目的。Mistral 要求对 Ministral 8B 或 Ministral 3B 自我部署设置感兴趣的开发者和公司联系他们以获取商业许可证。
否则,开发者可以通过 Mistral 的云平台 La Platforme 以及未来几周与该初创公司合作的其他云服务使用 Ministral 3B 和 Ministral 8B。Ministral 8B 的费用为每百万个输出/输入 Token 10 美分(约 750,000 个单词),而 Ministral 3B 的费用为每百万个输出/输入 Token 4 美分。
最近出现了对小型模型的趋势,这些模型比大型模型更便宜、训练、微调和运行速度更快。谷歌继续向其Gemma小型模型系列添加模型,而微软则提供其Phi模型集合。在最近一次更新其Llama套件时,Meta推出了几个针对边缘硬件优化的小型模型。
Mistral 声称,Ministral 3B 和 Ministral 8B 在多个旨在评估指令遵循和问题解决能力的 AI 基准测试中,表现优于可比的 Llama 和 Gemma 模型,以及其自身的Mistral 7B。
总部位于巴黎的 Mistral,最近筹集了 6.4 亿美元的风险投资,继续逐步扩展其 AI 产品组合。在过去几个月中,该公司推出了一项供开发者测试其模型的免费服务,一个SDK,让客户能够微调这些模型,以及新的模型,包括一个名为Codestral的代码生成模型。
由 Meta 和 Google 的 DeepMind 校友共同创立的 Mistral,其使命是创建能够与当前最佳表现模型竞争的旗舰模型,如 OpenAI 的GPT-4o和 Anthropic 的 Claude——理想情况下还能盈利。尽管“盈利”这一点正在证明是一个挑战(就像大多数生成性 AI 初创公司一样),Mistral据报道在这个夏天开始产生收入。
本文翻译自:TechCrunch, https://techcrunch.com/2024/10/16/mistral-releases-new-ai-models-optimized-for-edge-devices/
编译:ChatGPT
文章来自于“Z Potentials”,作者“ChatGPT”。
【免费】ffa.chat是一个完全免费的GPT-4o镜像站点,无需魔法付费,即可无限制使用GPT-4o等多个海外模型产品。
在线使用:https://ffa.chat/
【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。
项目地址:https://github.com/InternLM/xtuner