
我花了2天,找到了我觉得翻译质量最好的AI大模型。
我花了2天,找到了我觉得翻译质量最好的AI大模型。网易有道这个老牌翻译厂商出的AI大模型子曰翻译2.0,居然吊打了一切。。。说说我们是怎么测大模型的翻译评测这块的。测试的维度也很简单,就从我平常受到的折磨体验出发,梳理出了2点。
网易有道这个老牌翻译厂商出的AI大模型子曰翻译2.0,居然吊打了一切。。。说说我们是怎么测大模型的翻译评测这块的。测试的维度也很简单,就从我平常受到的折磨体验出发,梳理出了2点。
为了解决视频编辑模型缺乏训练数据的问题,本文作者(来自香港中文大学、香港理工大学、清华大学等高校和云天励飞)提出了一个名为 Señorita-2M 的数据集。该数据集包含 200 万高质量的视频编辑对,囊括了 18 种视频编辑任务。
AI21Labs 近日发布了其最新的 Jamba1.6系列大型语言模型,这款模型被称为当前市场上最强大、最高效的长文本处理模型。与传统的 Transformer 模型相比,Jamba 模型在处理长上下文时展现出了更高的速度和质量,其推理速度比同类模型快了2.5倍,标志着一种新的技术突破。
最新开源的视觉预训练方法,马毅团队、微软研究院、UC伯克利等联合出品!
仅仅过了一天,阿里开源的新一代推理模型便能在个人设备上跑起来了!昨天深夜,阿里重磅开源了参数量 320 亿的全新推理模型 QwQ-32B,其性能足以比肩 6710 亿参数的 DeepSeek-R1 满血版。
OmniParser V2可将屏幕截图转换为结构化元素,帮助LLM理解和操作GUI;在检测小图标和推理速度上显著提升,延迟降低60%,与多种LLM结合后表现优异。
藏了下一代Ray-Ban Meta的影子。
仅用32B,就击败o1-mini追平671B满血版DeepSeek-R1!阿里深夜重磅发布的QwQ-32B,再次让全球开发者陷入狂欢:消费级显卡就能跑,还一下子干到推理模型天花板!
DeepSeek-R1 作为 AI 产业颠覆式创新的代表轰动了业界,特别是其训练与推理成本仅为同等性能大模型的数十分之一。多头潜在注意力网络(Multi-head Latent Attention, MLA)是其经济推理架构的核心之一,通过对键值缓存进行低秩压缩,显著降低推理成本 [1]。
今夜,Manus发布之后,随之而来赶到战场的,是阿里。