AI资讯新闻榜单内容搜索-羊驼

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
搜索: 羊驼
速递|Meta豪赌AI,即将发布全能模型Llama 4

速递|Meta豪赌AI,即将发布全能模型Llama 4

速递|Meta豪赌AI,即将发布全能模型Llama 4

马克·扎克伯格今年正在提升 Meta 人工智能的语音功能,准备从这项快速发展技术中创收。

来自主题: AI资讯
9034 点击    2025-03-10 14:37
Llama 3低比特量化性能下降显著!全面评估结果来了 | 港大&北航&ETH

Llama 3低比特量化性能下降显著!全面评估结果来了 | 港大&北航&ETH

Llama 3低比特量化性能下降显著!全面评估结果来了 | 港大&北航&ETH

大模型力大砖飞,让LLaMA3演绎出了新高度: 超15T Token数据上的超大规模预训练,既实现了令人印象深刻的性能提升,也因远超Chinchilla推荐量再次引爆开源社区讨论。

来自主题: AI技术研报
6472 点击    2024-04-28 15:03
长文本之罪:Claude团队新越狱技术,Llama 2到GPT-4无一幸免

长文本之罪:Claude团队新越狱技术,Llama 2到GPT-4无一幸免

长文本之罪:Claude团队新越狱技术,Llama 2到GPT-4无一幸免

Anthropic 发现一种新型越狱漏洞并给出了高效的缓解方案,可以将攻击成功率从 61% 降至 2%。

来自主题: AI技术研报
6777 点击    2024-04-03 17:16
OpenAI竞对用256轮对话「灌醉」大模型,Claude被骗造出炸弹!

OpenAI竞对用256轮对话「灌醉」大模型,Claude被骗造出炸弹!

OpenAI竞对用256轮对话「灌醉」大模型,Claude被骗造出炸弹!

就在刚刚,Anthropic发现了大模型的惊人漏洞。经过256轮对话后,Claude 2逐渐被「灌醉」,开始疯狂越狱,帮人类造出炸弹!谁能想到,它的超长上下文,反而成了软肋。

来自主题: AI技术研报
8210 点击    2024-04-03 15:46
多忽悠几次AI全招了!Anthropic警告:长上下文成越狱突破口,GPT羊驼Claude无一幸免

多忽悠几次AI全招了!Anthropic警告:长上下文成越狱突破口,GPT羊驼Claude无一幸免

多忽悠几次AI全招了!Anthropic警告:长上下文成越狱突破口,GPT羊驼Claude无一幸免

大模型厂商在上下文长度上卷的不可开交之际,一项最新研究泼来了一盆冷水——Claude背后厂商Anthropic发现,随着窗口长度的不断增加,大模型的“越狱”现象开始死灰复燃。无论是闭源的GPT-4和Claude 2,还是开源的Llama2和Mistral,都未能幸免。

来自主题: AI技术研报
7117 点击    2024-04-03 14:31
陈丹琦团队新作:Llama-2上下文扩展至128k,10倍吞吐量仅需1/6内存

陈丹琦团队新作:Llama-2上下文扩展至128k,10倍吞吐量仅需1/6内存

陈丹琦团队新作:Llama-2上下文扩展至128k,10倍吞吐量仅需1/6内存

陈丹琦团队刚刚发布了一种新的LLM上下文窗口扩展方法:它仅用8k大小的token文档进行训练,就能将Llama-2窗口扩展至128k。

来自主题: AI技术研报
8893 点击    2024-02-29 13:27
四行代码让大模型上下文暴增3倍,羊驼Mistral都适用

四行代码让大模型上下文暴增3倍,羊驼Mistral都适用

四行代码让大模型上下文暴增3倍,羊驼Mistral都适用

无需微调,只要四行代码就能让大模型窗口长度暴增,最高可增加3倍!而且是“即插即用”,理论上可以适配任意大模型,目前已在Mistral和Llama2上试验成功。

来自主题: AI资讯
7624 点击    2024-01-08 14:33
专注图表理解,腾讯、南洋理工等开源图表羊驼大模型ChartLlama

专注图表理解,腾讯、南洋理工等开源图表羊驼大模型ChartLlama

专注图表理解,腾讯、南洋理工等开源图表羊驼大模型ChartLlama

在图像理解领域,多模态大模型已经充分展示了其卓越的性能。然而,对于工作中经常需要处理的图表理解与生成任务,现有的多模态模型仍有进步的空间。

来自主题: AI资讯
5835 点击    2023-12-03 11:23
一个提示,让Llama 2准确率飙至80.3%?Meta提出全新注意力机制S2A,大幅降低模型幻觉

一个提示,让Llama 2准确率飙至80.3%?Meta提出全新注意力机制S2A,大幅降低模型幻觉

一个提示,让Llama 2准确率飙至80.3%?Meta提出全新注意力机制S2A,大幅降低模型幻觉

大语言模型「拍马屁」的问题到底要怎么解决?最近,LeCun转发了Meta发布的一篇论文,研究人员提出了新的方法,有效提升了LLM回答问题的事实性和客观性。我们一起来看一下吧。

来自主题: AI资讯
7128 点击    2023-11-28 16:00