
Tokenization不存在了?Meta最新研究,无需Tokenizer的架构来了
Tokenization不存在了?Meta最新研究,无需Tokenizer的架构来了BLT 在许多基准测试中超越了基于 token 的架构。
BLT 在许多基准测试中超越了基于 token 的架构。
大语言模型直接理解复杂图结构的新方法来了:
tokenizer对于图像、视频生成的重要性值得重视。
卡内基梅隆大学提出了视频生成模型加速方法Run-Length Tokenization(RLT),被NeurIPS 2024选为Spotlight论文。 在精度几乎没有损失的前提下,RLT可以让模型训练和推理速度双双提升。
本论文第一作者倪赞林是清华大学自动化系 2022 级直博生,师从黄高副教授,主要研究方向为高效深度学习与图像生成。他曾在 ICCV、CVPR、ECCV、ICLR 等国际会议上发表多篇学术论文。
OpenAI用o1开启推理算力Scaling Law,能走多远?
高效多页文档理解,阿里通义实验室mPLUG团队拿下新SOTA。
从大模型爆发到现在,我就一直好奇为什么output token比input token要贵,而且有的会贵好几倍!今天就这个话题和大家聊一聊。
比OpenAI最强的GPT-4o更快,函数调用能力与GPT-4相当,同时比它小N倍,且只需要一张卡来做推理。
2023年中国大模型领域,经历最跌宕起伏的人。