
刚刚,Mistral AI最新磁力链放出!8x22B MoE模型,281GB解禁
刚刚,Mistral AI最新磁力链放出!8x22B MoE模型,281GB解禁一条磁力链,Mistral AI又来闷声不响搞事情。
一条磁力链,Mistral AI又来闷声不响搞事情。
让大模型直接操纵格斗游戏《街霸》里的角色,捉对PK,谁更能打?GitHub上一种你没有见过的船新Benchmark火了。
Mistral 可以说是欧洲目前最有代表性的 AI 公司,开源小模型、MoE、专注欧洲多语言市场等等,都让它与美国的几家大模型公司如 OpenAI、Anthropic 截然不同。
刚刚,Mistral AI 的模型又更新了。 这次开源一如既往地「突然」,是在一个叫做 Cerebral Valley 的黑客松活动上公布的。
ChatGPT横空出世的2023年,欧洲能喊得上名号的全球性AI峰会有近20个,大约是美国的3倍、中国的5倍[1]。在人工智能权威杂志(AI Magazine)年末总结的“2023 Top10 AI Events”中,欧洲承办的会议占比高达70%[2]。
成立仅9个月,法国Mistral AI拿出仅次于GPT-4的大模型。
2月26日,总部位于巴黎的人工智能公司Mistral AI发布尖端文本生成模型Mistral Large。该模型达到了顶级的推理能力,可用于复杂的多语言推理任务,包括文本理解、转换和代码生成。
大模型内卷时代,也不断有人跳出来挑战Transformer的统治地位,RWKV最新发布的Eagle 7B模型登顶了多语言基准测试,同时成本降低了数十倍
赶在春节前,通义千问大模型(Qwen)的 1.5 版上线了。今天上午,新版本的消息引发了 AI 社区关注。
一个体量仅为2B的大模型,能有什么用?答案可能超出你的想象。