AI资讯新闻榜单内容搜索-Mistral

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
搜索: Mistral
CMU权威对比Gemini,GPT-3和Mistral8×7B!GPT-3.5依旧拿捏Gemini,开源模型差距依然不小

CMU权威对比Gemini,GPT-3和Mistral8×7B!GPT-3.5依旧拿捏Gemini,开源模型差距依然不小

CMU权威对比Gemini,GPT-3和Mistral8×7B!GPT-3.5依旧拿捏Gemini,开源模型差距依然不小

谷歌发布Gemini以后,一直宣称Gemini Pro要优于GPT-3.5,而CMU的研究人员通过自己实测,给大家来了一个客观中立第三方的对比。结果却是GPT-3.5几乎还是全面优于Gemini Pro,不过双方差距不大。

来自主题: AI资讯
8521 点击    2023-12-24 16:06
Mistral携微软引爆「小语言模型」潮!Mistral中杯代码能力完胜GPT-4,成本暴降2/3

Mistral携微软引爆「小语言模型」潮!Mistral中杯代码能力完胜GPT-4,成本暴降2/3

Mistral携微软引爆「小语言模型」潮!Mistral中杯代码能力完胜GPT-4,成本暴降2/3

小模型的风潮,最近愈来愈盛,Mistral和微软分别有所动作。而网友实测发现,Mistral-medium的代码能力竟然完胜了GPT-4,而所花成本还不到三分之一。

来自主题: AI技术研报
6885 点击    2023-12-17 12:15
深度揭秘爆火MoE!GPT-4关键架构,成开源模型逆袭杀手锏

深度揭秘爆火MoE!GPT-4关键架构,成开源模型逆袭杀手锏

深度揭秘爆火MoE!GPT-4关键架构,成开源模型逆袭杀手锏

上周末,Mistral甩出的开源MoE大模型,震惊了整个开源社区。MoE究竟是什么?它又是如何提升了大语言模型的性能?

来自主题: AI资讯
6824 点击    2023-12-11 20:34
一条磁力链接席卷AI圈,87GB种子直接开源8x7B MoE模型

一条磁力链接席卷AI圈,87GB种子直接开源8x7B MoE模型

一条磁力链接席卷AI圈,87GB种子直接开源8x7B MoE模型

「高端」的开源,往往采用最朴素的发布方式。昨天,Mistral AI 在 X 平台甩出一条磁力链接,宣布了新的开源动作。

来自主题: AI资讯
9012 点击    2023-12-10 14:35
首个开源MoE大模型发布!7Bx8个专家,离GPT-4最近的一集

首个开源MoE大模型发布!7Bx8个专家,离GPT-4最近的一集

首个开源MoE大模型发布!7Bx8个专家,离GPT-4最近的一集

“取消今晚所有计划!”,许多AI开发者决定不睡了。只因首个开源MoE大模型刚刚由Mistral AI发布。

来自主题: AI资讯
6874 点击    2023-12-09 15:42
Thomas Wolf: Mistral + OpenBMB + HuggingFace 跨越三大洲的大模型开源合作故事

Thomas Wolf: Mistral + OpenBMB + HuggingFace 跨越三大洲的大模型开源合作故事

Thomas Wolf: Mistral + OpenBMB + HuggingFace 跨越三大洲的大模型开源合作故事

最近,NLP 大牛、HuggingFace联合创始人 Thomas Wolf 发了一条推特,内容很长,讲了一个 “全球三大洲的人们公开合作,共同打造出一个新颖、高效且前沿的小型 AI 模型” 的故事。

来自主题: AI技术研报
5079 点击    2023-11-08 15:30