开源1.6B小模型「小狐狸」,表现超同类模型Qwen和Gemma
开源1.6B小模型「小狐狸」,表现超同类模型Qwen和Gemma自从 Chatgpt 诞生以来,LLM(大语言模型)的参数量似乎就成为了各个公司的竞赛指标。GPT-1 参数量为 1.17 亿(1.17M),而它的第四代 GPT-4 参数量已经刷新到了 1.8 万亿(1800B)。
来自主题: AI技术研报
6278 点击 2024-12-08 12:20
自从 Chatgpt 诞生以来,LLM(大语言模型)的参数量似乎就成为了各个公司的竞赛指标。GPT-1 参数量为 1.17 亿(1.17M),而它的第四代 GPT-4 参数量已经刷新到了 1.8 万亿(1800B)。