中国公司豪掷900亿买英伟达阉割芯片,全靠华为顶不住
中国公司豪掷900亿买英伟达阉割芯片,全靠华为顶不住整个市场不再追求大而全,都在走小而精的路线了。
来自主题: AI资讯
6690 点击 2024-07-17 20:26
整个市场不再追求大而全,都在走小而精的路线了。
AI侵权又来了……
Mamba模型由于匹敌Transformer的巨大潜力,在推出半年多的时间内引起了巨大关注。但在大规模预训练的场景下,这两个架构还未有「一较高低」的机会。最近,英伟达、CMU、普林斯顿等机构联合发表的实证研究论文填补了这个空白。
740 TFLOPS!迄今最强 FlashAttention 来了。
芯片巨头AMD刚刚官宣要再做大做强:
大模型训练推理神作,又更新了!
来自佐治亚理工学院和英伟达的两名华人学者带队提出了名为RankRAG的微调框架,简化了原本需要多个模型的复杂的RAG流水线,用微调的方法交给同一个LLM完成,结果同时实现了模型在RAG任务上的性能提升。
2018年夏天,夏立雪提交了他在清华大学电子工程系的博士论文。时间往前推5年,他的导师汪玉刚刚成为副教授,有了带博士的资格,于是夏立雪成为了汪玉的第一位博士生,进入了NICS-EFC实验室,这个实验室专注于做一件事:
纯国产GPU的万卡集群,它来了! 而且还是国内首个全功能GPU,兼容CUDA的那种。
检索增强式生成(RAG)是一种使用检索提升语言模型的技术。