零一万物API开放平台出场!通用Chat多模态通通开放,还有200K超长上下文版本

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
零一万物API开放平台出场!通用Chat多模态通通开放,还有200K超长上下文版本
5148点击    2024-03-15 12:10

3月,国内外模型公司动作频频。国产大模型独角兽“五小虎”之一零一万物也有诸多新动作。


这不,前脚刚发布高性能向量数据库,零一万物又立马正式发布了自己的API开放平台


共为开发者提供三个版本的模型:


  • Yi-34B-Chat-0205:支持通用聊天、问答、对话、写作、翻译等功能。

  • Yi-34B-Chat-200K:200K上下文,多文档阅读理解、超长知识库构建小能手。

  • Yi-VL-Plus:多模态模型,支持文本、视觉多模态输入,中文图表体验超过GPT-4V。


去年11月,零一万物就正式开源发布了首款预训练大模型Yi-34B,当时的模型已经能处理200K上下文窗口,约等同于20万字文本。这次开放API平台,在Yi-34B的基础上,有什么新亮点?


要说有什么独特之处,我愿以五个“更”来概括。


分别是覆盖更大的参数量、更强的多模态、更专业的代码/数学推理模型、更快的推理速度、更低的推理成本。


并且!


Yi大模型API开放平台兼容OpenAI的API,可以随心快速丝滑切换。


更多详情,一起来看——


200K上下文窗口+多模态能力


此次API开放,最亮眼的地方一共有两点。


首先是200K的超长上下文窗口,可以一口气处理约30万个中英文字符,相对于读完整本《哈利·波特与魔法石》小说。


在大海捞针测试中,Yi-34B-Chat-200K取得了几乎全绿的成绩,准确率高达99.8%。


零一万物API开放平台出场!通用Chat多模态通通开放,还有200K超长上下文版本


实际测试中,篇幅近两百页、总字数19万的《三体》第一部,Yi很快就能读完并给出总结。


零一万物API开放平台出场!通用Chat多模态通通开放,还有200K超长上下文版本


而且细节关注到位,能从故事中提取出主要角色信息和他们的事迹,然后直接用表格的形式呈现在我们面前。


零一万物API开放平台出场!通用Chat多模态通通开放,还有200K超长上下文版本


我们又补充追问了十个细节问题,答案分散在整部小说的各个位置,结果Yi全部答对。


零一万物API开放平台出场!通用Chat多模态通通开放,还有200K超长上下文版本


另一大亮点,是Yi-VL-Plus强大的多模态能力


多模态版本中,在保持LLM通用知识、推理等能力的前提下,图片内中文、符号识别能力大幅增强,体验超过了GPT-4V。


而且图片输入分辨率也提高到了1024×1024分辨率,并专门针对图表、截屏等生产力场景进行了优化。


比如下面这张图来自一篇文献综述,列举了课题相关论文中被引量最高的10篇。


零一万物API开放平台出场!通用Chat多模态通通开放,还有200K超长上下文版本


Yi-VL-Plus准确地找到了目标文献,并准确识别出了文章标题,遇到“嗪”这种不常见的专业文字也没掉链子。


再看看GPT-4V这边,则是主打一个已读乱回,给出的文章标题不知道来自何处。


零一万物API开放平台出场!通用Chat多模态通通开放,还有200K超长上下文版本


而除了识读图表和文字,Yi-VL-Plus还支持学习专业知识并立即用于图像的解读


比如早期体验过的开发者教给模型一些心理学知识后,Yi-VL-Plus就能根据孩子的铅笔画展开一些基本的分析。


并且,模型给出的分析获得了专业人士的认可,给出了“较准确”的评价。


零一万物API开放平台出场!通用Chat多模态通通开放,还有200K超长上下文版本


开发者星云爱店CTO大董提供的测试资料,文图数据均脱敏


总之,凭借强大的长文本和多模态处理能力,无论是在to B还是to C场景,Yi都能构建出高效的大模型应用。


举个例子????,在to C场景中,可以用基础或多模态版本构建智能对话助手,进行深层次的对话问答。


而在B端,可以把Yi整合到现有产品,搭建出Copilot类的应用,抑或是利用超长文本能力建立知识库,打造出客服等特定场景的智能助手。


在前期的开发者邀测中,拥有阿里、美团等多家大厂工作经历的知乎大佬@苏洋就利用Yi的API搭建出了一个翻译器应用。


零一万物API开放平台出场!通用Chat多模态通通开放,还有200K超长上下文版本


据作者本人介绍,他是看到GitHub上的一份开源的机器学习书籍之后萌生了翻译的想法,然后开始搭建这个应用的。


而之所以选择Yi作为承担这一工作的大模型,就是看中了它超出的上下文窗口,能够将作者每一章的全文都扔到模型里,而不用切分章节或做一些递归式的章节摘要等麻烦事。


另一方面,Yi和OpenAI的兼容性,也让作者直接利用LLM平台的OpenAI兼容API模块,就快速完成了模型的接入。


零一万物API开放平台出场!通用Chat多模态通通开放,还有200K超长上下文版本


接入完模型之后就是几乎可以一键完成的模型搭建了,这里需要做的只是点选应用的类型,然后起个名字,并适当调节一些参数。


零一万物API开放平台出场!通用Chat多模态通通开放,还有200K超长上下文版本


在此基础之上,作者又用golang对模型调用程序进行了编译,进一步提升了整个流程的自动化程度。


最终,一个全自动的翻译工具就大功告成了。


零一万物API开放平台出场!通用Chat多模态通通开放,还有200K超长上下文版本


如果不看最后的进阶部分,利用Yi的API快速构建一款AI应用,简直不要太简单!


而除了这些应用上肉眼可见的优势,Yi系列API在技术层面的亮点同样可圈可点。


丝滑切换OpenAI API


在Yi优异表现的背后,无论是API还是模型本身,都必然有强大的技术作为支撑——在技术上,Yi有哪些特色?


首先,Yi与OpenAI API完全兼容


这意味着开发者只需修改少量代码,就能完成从OpenAI到Yi的平滑迁移,实现了替换成本的最小化。


同时,为了提升API性能,零一万物在API侧进行了专门的推理优化。不仅推理速度更快,用户体验的流畅性和响应速度也都相应提高。


而针对模型自身的其他亮点,我们充分利用了Yi的长文本分析能力,从它的技术报告中进行了提炼。


零一万物API开放平台出场!通用Chat多模态通通开放,还有200K超长上下文版本


当然,除了专门针对API做的优化之外,基础模型的能力同样不可或缺。


为了实现模型能力的提升,研究团队从保证训练数据质量、在tokenization中运用独特设计、微调阶段积累经验等多个角度进行了攻关,增强了模型的优势并在API段充分发挥。


比如从训练阶段开始,研究团队就对数据进行了精心挑选,引入了启发式规则去除低质量文本,并利用机器学习方式识别有害内容。


同时研发人员还对训练数据中的文本进行聚类分析,并实施严格的去重机制,最大程度保证训练数据的质量。


零一万物API开放平台出场!通用Chat多模态通通开放,还有200K超长上下文版本


而tokenization阶段,同样体现着研发人员的独到设计。


Yi使用字节对编码进行分词和词汇表的构建,减少了词汇表的大小并提高了编码效率。


同时最大程度保留原始符号,避免变换过程中造成的信息丢失。


针对数字,Yi还采用了拆分成单个token的方式来提高模型理解力;甚至对于特殊和无法识别的字符,也有专门的应对策略。


零一万物API开放平台出场!通用Chat多模态通通开放,还有200K超长上下文版本


到了微调环节,Yi从技术报告总结出的关键经验就更多了。


比如“数据质量高于数量”的重要思想,从训练阶段开始就贯穿始终。


此外还有迭代过程、标签系统、结构化格式等诸多策略,这里就不再一一赘述了。


零一万物API开放平台出场!通用Chat多模态通通开放,还有200K超长上下文版本


食用指南


看到这里,旁友们应该对Yi API的能力已经有一定了解了。


那么,Yi大模型API到底该如何食用?


零一万物API开放平台出场!通用Chat多模态通通开放,还有200K超长上下文版本


此前,Yi大模型API已经在小范围开放内测。


“为了邀请更多的开发者并肩作战”,今天起,Yi大模型API名额开启了限量开放


而且新用户还赠送60元(千万token)


谁看了不说一句真香呢??!指路这篇文章的评论区置顶,可获得申请直通车连接~


零一万物API开放平台出场!通用Chat多模态通通开放,还有200K超长上下文版本


开放API平台后,零一万物下一步会又什么新动作?


零一万物技术副总裁及模型训练AI Alignment、开放平台负责人俞涛对此做出了答复,称近期将会为开发者提供更多更强模型和AI开发框架。


未来计划具体围绕以下三个方面展开:


第一,支持更快的推理速度,显著降低推理成本。


第二,突破更长的上下文,目标由目前的20万tokens拓展到100万tokens。


第三,基于模型具备的超长上下文能力,构建向量数据库、RAG、Agent架构在内的全新开发者AI框架。


看来,零一万物的下一步棋,就是推理更快、窗口更长,同时提供更加丰富和灵活的开发工具,以适应不同开发者需求下的多样化应用场景。


具体推出的节奏,零一万物此次没有透露。但是——


三款模型的API,大家可以用起来了!先到先得,记得在评论区找到申请地址哟~


零一万物API开放平台出场!通用Chat多模态通通开放,还有200K超长上下文版本


文章来自于微信公众号“量子位”(ID: QbitAI),作者 “克雷西 、衡宇”


零一万物API开放平台出场!通用Chat多模态通通开放,还有200K超长上下文版本

AITNT-国内领先的一站式人工智能新闻资讯网站
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
智能体

【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。

项目地址:https://github.com/Significant-Gravitas/AutoGPT


【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。

项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md

2
知识库

【开源免费】FASTGPT是基于LLM的知识库开源项目,提供开箱即用的数据处理、模型调用等能力。整体功能和“Dify”“RAGFlow”项目类似。很多接入微信,飞书的AI项目都基于该项目二次开发。

项目地址:https://github.com/labring/FastGPT

3
RAG

【开源免费】graphrag是微软推出的RAG项目,与传统的通过 RAG 方法使用向量相似性作为搜索技术不同,GraphRAG是使用知识图谱在推理复杂信息时大幅提高问答性能。

项目地址:https://github.com/microsoft/graphrag

【开源免费】Dify是最早一批实现RAG,Agent,模型管理等一站式AI开发的工具平台,并且项目方一直持续维护。其中在任务编排方面相对领先对手,可以帮助研发实现像字节扣子那样的功能。

项目地址:https://github.com/langgenius/dify


【开源免费】RAGFlow是和Dify类似的开源项目,该项目在大文件解析方面做的更出色,拓展编排方面相对弱一些。

项目地址:https://github.com/infiniflow/ragflow/tree/main


【开源免费】phidata是一个可以实现将数据转化成向量存储,并通过AI实现RAG功能的项目

项目地址:https://github.com/phidatahq/phidata


【开源免费】TaskingAI 是一个提供RAG,Agent,大模型管理等AI项目开发的工具平台,比LangChain更强大的中间件AI平台工具。

项目地址:https://github.com/TaskingAI/TaskingAI

4
微调

【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。

项目地址:https://github.com/InternLM/xtuner