AI资讯新闻榜单内容搜索-Token

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Token
中文最强开源大模型来了!130亿参数,0门槛商用,来自昆仑万维

中文最强开源大模型来了!130亿参数,0门槛商用,来自昆仑万维

中文最强开源大模型来了!130亿参数,0门槛商用,来自昆仑万维

开源最彻底的大模型来了——130亿参数,无需申请即可商用。 不仅如此,它还附带着把全球最大之一的中文数据集也一并开源了出来:600G、1500亿tokens!

来自主题: AI资讯
8314 点击    2023-10-30 16:26
AI智能超越人类终破解!李飞飞高徒新作破圈,5万个合成数据碾压人类示例,备咖啡动作超丝滑

AI智能超越人类终破解!李飞飞高徒新作破圈,5万个合成数据碾压人类示例,备咖啡动作超丝滑

AI智能超越人类终破解!李飞飞高徒新作破圈,5万个合成数据碾压人类示例,备咖啡动作超丝滑

千亿级大模型正迅速耗尽世界的高质量数据。对此,英伟达和UT提出了MimicGen系统。从人工合成数据中获得人工智能,将是未来的发展方向。

来自主题: AI技术研报
5880 点击    2023-10-29 13:56
港大等发布GraphGPT:1/50微调参数,准确率提升10倍!无需超长token,LLM也能读懂图结构

港大等发布GraphGPT:1/50微调参数,准确率提升10倍!无需超长token,LLM也能读懂图结构

港大等发布GraphGPT:1/50微调参数,准确率提升10倍!无需超长token,LLM也能读懂图结构

GraphGPT框架将图结构模型和大语言模型进行参数对齐,利用双阶段图指令微调范式提高模型对图结构的理解能力和适应性,再整合ChatGPT提高逐步推理能力,实现了更快的推理速度和更高的图任务预测准确率。

来自主题: AI技术研报
3579 点击    2023-10-28 21:18
PyTorch官方认可!斯坦福博士新作:长上下文LLM推理速度提8倍

PyTorch官方认可!斯坦福博士新作:长上下文LLM推理速度提8倍

PyTorch官方认可!斯坦福博士新作:长上下文LLM推理速度提8倍

这两天,FlashAttention团队推出了新作: 一种给Transformer架构大模型推理加速的新方法,最高可提速8倍。 该方法尤其造福于长上下文LLM,在64k长度的CodeLlama-34B上通过了验证

来自主题: AI技术研报
3255 点击    2023-10-18 14:43