AI资讯新闻榜单内容搜索-AI安全

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: AI安全
速递|成立五年的AI安全初创公司Veza,拟超10亿美元被ServiceNow收购

速递|成立五年的AI安全初创公司Veza,拟超10亿美元被ServiceNow收购

速递|成立五年的AI安全初创公司Veza,拟超10亿美元被ServiceNow收购

Veza 的订阅软件帮助企业了解其员工以及自动化软件任务的 AI Agent对特定客户或公司数据的访问权限,以及他们能对这些数据做什么。ServiceNow 一直在加强其 AI Agent相关的产品,这些产品旨在自动化客户服务和响应IT 帮助台请求等任务。

来自主题: AI资讯
7672 点击    2025-11-30 11:26
上线24小时就被黑!曝谷歌新AI编程工具存在严重Bug:哪怕卸载重装,后门仍会「自动复活」

上线24小时就被黑!曝谷歌新AI编程工具存在严重Bug:哪怕卸载重装,后门仍会「自动复活」

上线24小时就被黑!曝谷歌新AI编程工具存在严重Bug:哪怕卸载重装,后门仍会「自动复活」

如果说过去一年里,AI 让开发者生产力翻倍,那么如今它也开始以同样的速度放大风险。 上周,Google 刚刚推出的基于 Gemini 的全新 AI 编码工具 Antigravity,上线不到 24 小时便被一名安全研究员攻破,指出它存在严重的安全Bug。

来自主题: AI资讯
7638 点击    2025-11-28 21:03
念首诗,就能让AI教你造核弹!Gemini 100%中招

念首诗,就能让AI教你造核弹!Gemini 100%中招

念首诗,就能让AI教你造核弹!Gemini 100%中招

最新研究发现,只要把恶意指令写成一首诗,就能让Gemini和DeepSeek等顶尖模型突破安全限制。这项针对25个主流模型的测试显示,面对「诗歌攻击」,百亿美金堆出来的安全护栏瞬间失效,部分模型的防御成功率直接归零。最讽刺的是,由于小模型「读不懂」诗里的隐喻反而幸免于难,而「有文化」的大模型却因为过度解读而全线破防。

来自主题: AI资讯
8016 点击    2025-11-25 15:31
AI安全新漏洞:一首诗就能攻破顶级大模型?

AI安全新漏洞:一首诗就能攻破顶级大模型?

AI安全新漏洞:一首诗就能攻破顶级大模型?

如果你想恶意攻击一个大语言模型(LLM),比如 Gemini 或者 Deepseek,你会怎么做?

来自主题: AI资讯
5796 点击    2025-11-24 10:44
偶然刷到的一个逆天项目:AI黑客...

偶然刷到的一个逆天项目:AI黑客...

偶然刷到的一个逆天项目:AI黑客...

做过独立开发的朋友都清楚,虽然现在 AI 已经能写出相当不错的前端,后端也有成熟的 BaaS 服务,但应用开发并不仅仅只是写份代码。

来自主题: AI技术研报
6376 点击    2025-11-17 14:33
OpenAI Atlas等AI浏览器暴露Web Agent安全风险!南洋理工破解底层机制

OpenAI Atlas等AI浏览器暴露Web Agent安全风险!南洋理工破解底层机制

OpenAI Atlas等AI浏览器暴露Web Agent安全风险!南洋理工破解底层机制

OpenAI Atlas、Perplexity Comet等AI浏览器的推出,虽提升了网页自动化效率,却也使智能爬虫威胁加剧。南洋理工大学团队研发的WebCloak,创新性地混淆网页结构与语义,打破爬虫技术依赖,为数据安全筑起轻量高效防线,助力抵御新型智能攻击,守护网络安全。

来自主题: AI技术研报
6518 点击    2025-11-03 14:19
史上最惨一代?AI延长人类寿命,下一代活到200岁不是梦!

史上最惨一代?AI延长人类寿命,下一代活到200岁不是梦!

史上最惨一代?AI延长人类寿命,下一代活到200岁不是梦!

AGI炒作还是现实?AI新闻老将Matt Wolfe直击美国AI核心:从Demis Hassabis的理性谨慎,到扎克伯格的巨资投入,探索递归自我改进的潜在爆炸风险。

来自主题: AI资讯
6248 点击    2025-10-31 09:53
OpenAI首个GPT-5找Bug智能体:全自动读代码找漏洞写修复

OpenAI首个GPT-5找Bug智能体:全自动读代码找漏洞写修复

OpenAI首个GPT-5找Bug智能体:全自动读代码找漏洞写修复

AI Coding火了大半年,AI Debugging也来了!刚刚,OpenAI发布由GPT-5驱动的“白帽”Agent——Aardvark(土豚)。这只“AI安全研究员”能帮助开发者和安全团队,在大规模代码库中自动发现并修复安全漏洞。

来自主题: AI资讯
8121 点击    2025-10-31 09:07
TPAMI 2025 | AI对抗迁移性评估的「拨乱反正」:那些年效果虚高的攻防算法们

TPAMI 2025 | AI对抗迁移性评估的「拨乱反正」:那些年效果虚高的攻防算法们

TPAMI 2025 | AI对抗迁移性评估的「拨乱反正」:那些年效果虚高的攻防算法们

对抗样本(adversarial examples)的迁移性(transferability)—— 在某个模型上生成的对抗样本能够同样误导其他未知模型 —— 被认为是威胁现实黑盒深度学习系统安全的核心因素。尽管现有研究已提出复杂多样的迁移攻击方法,却仍缺乏系统且公平的方法对比分析:(1)针对攻击迁移性,未采用公平超参设置的同类攻击对比分析;(2)针对攻击隐蔽性,缺乏多样指标。

来自主题: AI技术研报
6320 点击    2025-10-29 16:05
可攻可防,越狱成功率近90%!六大主流模型全中招 | EMNLP'25

可攻可防,越狱成功率近90%!六大主流模型全中招 | EMNLP'25

可攻可防,越狱成功率近90%!六大主流模型全中招 | EMNLP'25

聚焦大型语言模型(LLMs)的安全漏洞,研究人员提出了全新的越狱攻击范式与防御策略,深入剖析了模型在生成过程中的注意力变化规律,为LLMs安全研究提供了重要参考。论文已被EMNLP2025接收

来自主题: AI技术研报
5409 点击    2025-10-27 10:25