
攻克「恶意投毒」攻击!华南理工联合霍普金斯和UCSD,连登TPAMI、TIFS顶刊
攻克「恶意投毒」攻击!华南理工联合霍普金斯和UCSD,连登TPAMI、TIFS顶刊华南理工大学计算机学院AI安全团队长期深耕于人工智能安全,近期联合约翰霍普金斯大学和加州大学圣地亚戈分校聚焦于联邦学习中防范恶意投毒攻击,产出工作连续发表于AI顶刊TPAMI 2025和网络安全顶刊TIFS 2025。
华南理工大学计算机学院AI安全团队长期深耕于人工智能安全,近期联合约翰霍普金斯大学和加州大学圣地亚戈分校聚焦于联邦学习中防范恶意投毒攻击,产出工作连续发表于AI顶刊TPAMI 2025和网络安全顶刊TIFS 2025。
所有使用MCP协议的企业注意:你的数据库可能正在“裸奔”!
据权威媒体报道,Anthropic正在紧锣密鼓地测试代号为“Claude Neptune v3”的全新AI模型。这一消息引发了AI社区的广泛关注,许多业内人士推测,Neptune v3可能是Claude4.5的雏形,甚至可能在未来数周内正式发布。作为Anthropic在AI安全与性能领域的又一力作,Neptune v3的亮相无疑将为行业带来新的期待。
从撒谎到勒索,再到暗中自我复制,AI 的「危险进化」已不仅仅是科幻桥段,而是实验室里的可复现现象。
AI安全不是加分项,而是AI应用落地的必要一环。
大语言模型(LLM)能力提升引发对潜在风险的担忧,洞察其内部“思维过程”、识别危险信号成AI安全核心挑战。
仅用6小时,Claude 4就让研究者了解了如何制造神经毒气——这不是小说情节,而是真实事件。更令人担忧的是,Anthropic自身也无法完全评估风险。这是否意味着这家AI巨头的「安全人设」正在崩塌?
Horizon3.ai 是一家提供自主渗透测试等工具的网络安全初创公司,该公司本周在提交给美国证券交易委员会的文件中透露,正在寻求新一轮 1 亿美元的融资,并已锁定至少 7300 万美元。
基于开源模型继续在下游任务上使用私有下游数据进行微调,得到在下游任务表现更好的专有模型,已经成为了一类标准范式。
极客在创业,小白在买课,画师在失业,但一个尴尬的现实却是:AI 落地热火朝天,但剧情走的不是降临路线,而是掷骰子。极客在创业,小白在买课,画师在失业,但一个尴尬的现实却是:AI 落地热火朝天,但剧情走的不是降临路线,而是掷骰子。