AI资讯新闻榜单内容搜索-token

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: token
1.5B硬刚GPT-4o,CMU祭出LCPO提示可控思考!每token性能较S1暴涨2倍

1.5B硬刚GPT-4o,CMU祭出LCPO提示可控思考!每token性能较S1暴涨2倍

1.5B硬刚GPT-4o,CMU祭出LCPO提示可控思考!每token性能较S1暴涨2倍

CMU团队用LCPO训练了一个15亿参数的L1模型,结果令人震惊:在数学推理任务中,它比S1相对提升100%以上,在逻辑推理和MMLU等非训练任务上也能稳定发挥。更厉害的是,要求短推理时,甚至击败了GPT-4o——用的还是相同的token预算!

来自主题: AI技术研报
5011 点击    2025-03-10 10:22
AI话痨终结者!UCSD清华提出「思维扫描术」Dynasor-CoT,推理巨省token

AI话痨终结者!UCSD清华提出「思维扫描术」Dynasor-CoT,推理巨省token

AI话痨终结者!UCSD清华提出「思维扫描术」Dynasor-CoT,推理巨省token

推理模型在复杂任务上表现惊艳,缺点是低下的token效率。UCSD清华等机构的研究人员发现,问题根源在于模型的「自我怀疑」!研究团队提出了Dynasor-CoT,一种无需训练、侵入性小且简单的方法。

来自主题: AI技术研报
8300 点击    2025-03-06 17:15
DeepSeek前实习生魔改MoE,用迭代机制把内存需求砍了42%,团队:“免费午餐”优化方法

DeepSeek前实习生魔改MoE,用迭代机制把内存需求砍了42%,团队:“免费午餐”优化方法

DeepSeek前实习生魔改MoE,用迭代机制把内存需求砍了42%,团队:“免费午餐”优化方法

DeepSeek MoE“变体”来了,200美元以内,内存需求减少17.6-42%! 名叫CoE(Chain-of-Experts),被认为是一种“免费午餐”优化方法,突破了MoE并行独立处理token、整体参数数量较大需要大量内存资源的局限。

来自主题: AI技术研报
5936 点击    2025-03-04 20:02
无需训练让扩散模型提速2倍,上交大提出Token级缓存方案|ICLR‘25

无需训练让扩散模型提速2倍,上交大提出Token级缓存方案|ICLR‘25

无需训练让扩散模型提速2倍,上交大提出Token级缓存方案|ICLR‘25

Diffusion Transformer模型模型通过token粒度的缓存方法,实现了图像和视频生成模型上无需训练的两倍以上的加速。

来自主题: AI技术研报
6191 点击    2025-02-28 15:06
微软首个多模态Phi-4问世,56亿参数秒杀GPT-4o!LoRA华人大佬带队

微软首个多模态Phi-4问世,56亿参数秒杀GPT-4o!LoRA华人大佬带队

微软首个多模态Phi-4问世,56亿参数秒杀GPT-4o!LoRA华人大佬带队

Phi-4系列模型上新了!56亿参数Phi-4-multimodal集语音、视觉、文本多模态于一体,读图推理性能碾压GPT-4o;另一款38亿参数Phi-4-mini在推理、数学、编程等任务中超越了参数更大的LLM,支持128K token上下文。

来自主题: AI技术研报
5152 点击    2025-02-28 14:11
刚刚,GPT-4.5震撼上线情商逆天!OpenAI最大最贵模型最像人类,奥特曼带娃缺席

刚刚,GPT-4.5震撼上线情商逆天!OpenAI最大最贵模型最像人类,奥特曼带娃缺席

刚刚,GPT-4.5震撼上线情商逆天!OpenAI最大最贵模型最像人类,奥特曼带娃缺席

OpenAI的重磅炸弹GPT-4.5,刚刚如期上线了!它并不是推理模型,但是规模最大、知识最丰富,最鲜明的特点就是情商高、很类人。Pro版用户和付费开发者已经能用了,但token定价有点离谱。

来自主题: AI资讯
9412 点击    2025-02-28 09:34
英伟达下场,首次优化DeepSeek-R1!B200性能狂飙25倍,碾压H100

英伟达下场,首次优化DeepSeek-R1!B200性能狂飙25倍,碾压H100

英伟达下场,首次优化DeepSeek-R1!B200性能狂飙25倍,碾压H100

最近,英伟达开源了首个在Blackwell架构上优化的DeepSeek-R1,实现了推理速度提升25倍,和每token成本降低20倍的惊人成果。同时,DeepSeek连续开源多个英伟达GPU优化项目,共同探索模型性能极限。

来自主题: AI技术研报
9469 点击    2025-02-27 16:33
谷歌AI掌门人Jeff Dean对话Transformer作者:AI提速300%,1000万倍工程师要来了

谷歌AI掌门人Jeff Dean对话Transformer作者:AI提速300%,1000万倍工程师要来了

谷歌AI掌门人Jeff Dean对话Transformer作者:AI提速300%,1000万倍工程师要来了

谷歌首席科学家Jeff Dean与Transformer作者Noam Shazeer在一场访谈中不仅揭秘了让模型速度提升三倍的低精度计算技术,分享了「猫神经元」等早期AI突破的背后故事,还大胆畅想了AI处理万亿级别Token、实现「1000万倍工程师」的可能性。

来自主题: AI资讯
6081 点击    2025-02-26 09:47