开源1.6B小模型「小狐狸」,表现超同类模型Qwen和Gemma
开源1.6B小模型「小狐狸」,表现超同类模型Qwen和Gemma自从 Chatgpt 诞生以来,LLM(大语言模型)的参数量似乎就成为了各个公司的竞赛指标。GPT-1 参数量为 1.17 亿(1.17M),而它的第四代 GPT-4 参数量已经刷新到了 1.8 万亿(1800B)。
来自主题: AI技术研报
6278 点击 2024-12-08 12:20
自从 Chatgpt 诞生以来,LLM(大语言模型)的参数量似乎就成为了各个公司的竞赛指标。GPT-1 参数量为 1.17 亿(1.17M),而它的第四代 GPT-4 参数量已经刷新到了 1.8 万亿(1800B)。
虽然多模态大模型都能挑西瓜了,但理解复杂文档方面还是差点意思。
AI虚拟女友究竟能带来多少实际产出?一个月3万美金。(约合人民币21.4万元)