无需准确关键词和手动整理,瑞士信息与通信科技公司DeepJudge开发AI驱动的法律文本智能搜索工具|瑞士创新100强
无需准确关键词和手动整理,瑞士信息与通信科技公司DeepJudge开发AI驱动的法律文本智能搜索工具|瑞士创新100强瑞士连续12年全球创新指数竞争力排名第一,是全球重要的创新策源地,也是中国首个创新战略伙伴关系国,在创新发展和科技金融领域与中国具有极佳互补性。
瑞士连续12年全球创新指数竞争力排名第一,是全球重要的创新策源地,也是中国首个创新战略伙伴关系国,在创新发展和科技金融领域与中国具有极佳互补性。
大模型就是「造梦机」!幻觉是LLM与生俱来的特性,而非缺陷。OpenAI科学家Andrej Karpathy独特视角在AI社区掀起了激烈的讨论。
北大、北邮、UCLA和BIGAI的研究团队联合发布,智能体新突破——Jarvis-1.智能体研究又取得了新成绩!
RAG或许就是大模型能力飙升下一个未来。RAG+GPT-4,4%的成本,便可拥有卓越的性能。
大语言模型需要消耗巨量的GPU内存。有可能一个单卡GPU跑推理吗?可以的话,最低多少显存?70B大语言模型仅参数量就有130GB,仅仅把模型加载到GPU显卡里边就需要2台顶配100GB内存的A100。
大模型的效果好不好,有时候对齐调优很关键。但近来很多研究开始探索无微调的方法,艾伦人工智能研究所和华盛顿大学的研究者用「免调优」对齐新方法超越了使用监督调优(SFT)和人类反馈强化学习(RLHF)的 LLM 性能。
增加数据量和模型的参数量是公认的提升神经网络性能最直接的方法。目前主流的大模型的参数量已扩展至千亿级别,「大模型」越来越大的趋势还将愈演愈烈。
DeepSpeed-FastGen结合MII和DeepSpeed-Inference实现LLM高吞吐量文本生成。
让大模型洗钱、制造炸弹、合成冰毒?GPT-4、 Claude 2纷纷沦陷了。让大模型成功越狱,还是有机可乘。
Anthropic的模型可解释性团队,从大模型中看到了它的「灵魂」——一个可解释的更高级的模型。