
一块钱100万token,超强MoE模型开源,性能直逼GPT-4-Turbo
一块钱100万token,超强MoE模型开源,性能直逼GPT-4-Turbo开源大模型领域,又迎来一位强有力的竞争者。
来自主题: AI技术研报
10131 点击 2024-05-07 18:24
开源大模型领域,又迎来一位强有力的竞争者。
参照SuperCLUE(中文通用大模型综合性测评基准)框架专门定制了1000道题目集,一一测试了ChatGPT4、 智谱chatGLM-4、Baichuan2-Turbo、百度ERNIE-Bot 4.0、Yi-34B-chat、llama 2等模型在保险业务上的表现。