
英伟达GPU被曝严重漏洞,致模型准确率暴跌99.9%
英伟达GPU被曝严重漏洞,致模型准确率暴跌99.9%英伟达GPU,被白帽黑客发现了严重漏洞。
英伟达GPU,被白帽黑客发现了严重漏洞。
你是否也曾担心过,随手发给 AI 助手的一份代码或报告,会让你成为下一个泄密新闻的主角?又或是你在网上发布的一张画作,会被各种绘画 AI 批量模仿并用于商业盈利?
难得难得,几大AI巨头不竞争了不抢人了,改联合一起发研究了。
跟大家汇报一下! 最近,在联合国于日内瓦召开的全球AI for Good(人工智能向善)峰会上,我们受邀分享了在金融风控场景中对抗“深度伪造”的最新技术成果。
华南理工大学计算机学院AI安全团队长期深耕于人工智能安全,近期联合约翰霍普金斯大学和加州大学圣地亚戈分校聚焦于联邦学习中防范恶意投毒攻击,产出工作连续发表于AI顶刊TPAMI 2025和网络安全顶刊TIFS 2025。
所有使用MCP协议的企业注意:你的数据库可能正在“裸奔”!
据权威媒体报道,Anthropic正在紧锣密鼓地测试代号为“Claude Neptune v3”的全新AI模型。这一消息引发了AI社区的广泛关注,许多业内人士推测,Neptune v3可能是Claude4.5的雏形,甚至可能在未来数周内正式发布。作为Anthropic在AI安全与性能领域的又一力作,Neptune v3的亮相无疑将为行业带来新的期待。
从撒谎到勒索,再到暗中自我复制,AI 的「危险进化」已不仅仅是科幻桥段,而是实验室里的可复现现象。
AI安全不是加分项,而是AI应用落地的必要一环。
大语言模型(LLM)能力提升引发对潜在风险的担忧,洞察其内部“思维过程”、识别危险信号成AI安全核心挑战。