科学家通过“越狱”大模型的安全系统,来让AI更安全
科学家通过“越狱”大模型的安全系统,来让AI更安全伦敦皇家协会举办了一场由40名科学家参与的攻克AI模型安全系统的活动,目的是发现漏洞让世人知道目前AI的技术风险
伦敦皇家协会举办了一场由40名科学家参与的攻克AI模型安全系统的活动,目的是发现漏洞让世人知道目前AI的技术风险
继CodeLlama开源之后,北大等机构正式开源了性能更强的代码基座大模型CodeShell-7B和代码助手CodeShell-Chat。不仅如此,团队还把方便易用的IDE插件也开源了!
斯坦福大学的研究人员公布了一套 "基础模型透明度指数"评分系统,目的是让大家对AI模型有更深的了解
这两天,FlashAttention团队推出了新作: 一种给Transformer架构大模型推理加速的新方法,最高可提速8倍。 该方法尤其造福于长上下文LLM,在64k长度的CodeLlama-34B上通过了验证
微调LLM需谨慎,用良性数据、微调后角色扮演等都会破坏LLM对齐性能!学习调大了还会继续提高风险!
在自己的系统上部署大型语言模型可能会出人意料地简单 - 前提是你拥有正确的工具。以下是如何在桌面上使用像Meta的新Code Llama这样的LLM的方法。
悄无声息,羊驼家族“最强版”来了! 与GPT-4持平,上下文长度达3.2万token的LLaMA 2 Long,正式登场。
Bedrock于今年4月初发布,允许AWS客户构建基于生成式人工智能模型的应用程序,并使用其专有数据进行定制。利用这些模型,品牌和开发人员还可以创建AI“代理人”,自动执行诸如预订旅行、管理库存和处理保险索赔等任务。
阿里目前再次开源全新的Qwen-14B的模型,参数规模142亿,但是它的理解能力接近700亿参数规模的LLaMA2-70B,数学推理能力超过GPT-3.5。
就在最近,百川智能正式发布Baichuan 2系列开源大模型。作为开源领域性能最好的中文模型,在国内,Baichuan 2是要妥妥替代Llama 2了。