欧盟AI办公室将举办通用目的人工智能系统性风险评估最佳实践

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
欧盟AI办公室将举办通用目的人工智能系统性风险评估最佳实践
4705点击    2025-03-03 15:16

欧盟AI办公室将举办通用目的人工智能系统性风险评估最佳实践


欧盟AI办公室将于2025年4月28日在布鲁塞尔举办一场重要的线下研讨会,旨在探讨通用目的人工智能(GPAI)系统性风险评估的最佳实践。本次研讨会是欧盟AI治理框架中的一个重要里程碑,反映了欧盟在AI安全、透明度和合规性方面的持续努力。


背景:欧盟AI法与GPAI系统性风险


欧盟AI法引入了一种基于风险的比例监管方法,对不同风险级别的AI系统施加不同程度的要求和义务【1】。该法案特别关注GPAI模型,认识到这些模型可能带来系统性风险。


根据AI法案,GPAI模型被视为具有系统性风险的标准包括:


  1. 模型的计算能力:如果用于训练的计算能力累计超过10^25每秒浮点运算(FLOPS)
  2. 欧盟委员会的评估:基于模型的复杂性、参数、输入/输出模式,以及在企业和消费者中的影响范围等因素【1】


对于被认定为具有系统性风险的GPAI模型,提供者需要履行额外的义务,包括:


  • 立即向欧盟委员会报告模型信息,以纳入公共数据库
  • 报告任何严重事件及采取的纠正措施
  • 进行全面的风险评估
  • 实施网络安全和基础设施安全措施
  • 制定行为准则以证明符合AI法案【1】


AI办公室的角色与评估者网络


欧盟AI办公室作为欧盟AI专业知识的中心,在实施AI法案方面发挥关键作用,特别是在GPAI领域【8】。AI办公室的主要职责包括:


  • 监督GPAI模型开发者对规则的执行
  • 评估GPAI模型,要求提供者采取纠正措施
  • 与市场监管机构合作,评估高风险场景中GPAI系统的合规性【7】


为支持这些工作,AI办公室召集了一个"评估者网络",汇集了研究机构、行业和政府机构的专家3。该网络目前致力于完善GPAI科学评估方法,以符合AI法案和GPAI行为准则的要求【3】。


研讨会目标与安排


本次研讨会的主要目标是探讨AI法案下何为优质评估,以"如何评估《AI法案》下的评估"为指导问题1。


研讨会安排如下:


  • 时间:2025年4月28日
  • 地点:比利时布鲁塞尔,欧盟委员会
  • 形式:线下会议


研讨会前后安排:


  1. 研讨会前:独立审查员将根据AI法案和行为准则中概述的比例系统性风险评估标准,对近期的评估进行评审
  2. 研讨会期间:参与者和评估者将以协作方式讨论这些比例标准
  3. 研讨会后:将发布总结报告,突出关键见解,包括评估已经符合标准的领域、现有差距以及改进标准以增加实际影响的机会【3】。


参与方式


有意参与此次研讨会的组织和个人可以通过以下方式参与:


1.提交论文:


  • 论文应聚焦于符合《AI法案》和GPAI行为准则标准的系统性风险评估。
  • 提交截止日期:2025年3月22日
  • 提交平台:OpenReview
  • 评审流程:所有提交的论文将经过双盲评审【1】。


2.关注主题:


研讨会特别邀请评估以下系统性风险的相关论文:


  • 网络犯罪:与攻击性网络能力相关的风险,这些能力可能使大规模复杂的网络攻击成为可能,包括对关键系统(例如关键基础设施)的攻击。这包括自动化漏洞发现、利用生成、操作使用和攻击规模化。
  • 化学、生物、放射性和核风险:促进化学、生物、放射性和核攻击或事故的风险。这包括显著降低恶意行为者的进入门槛,或在武器的开发、设计、获取和使用中增加潜在影响。
  • 有害操控:使人们的行为扭曲的风险,通过使他们做出本不会做出的决定,以造成或合理可能造成大规模显著伤害的方式。有害操控的模型能力可能导致大规模伤害,例如,通过使个别高风险决策者受到操控,或通过使高度自主的模型能够进行复杂的大规模操控活动。这包括模型根据受保护特征操控和利用人们的能力和/或倾向。作为一个指标,如果不能毫无合理怀疑地排除 GPAISR 在集成到 AI 系统中时,使 AI 系统能够部署潜意识的、故意操控的或欺骗性的技术(如《欧盟条例(EU)2024/1689》(AI 法)中所述的禁止人工智能实践委员会指南所列),则存在有害操控的风险,无论 AI 系统提供者或部署者的意图如何。
  • 失控:与无法监督和控制自主通用目的人工智能模型相关的风险,这可能导致大规模安全威胁或其他系统性风险的实现。这包括模型的能力和倾向,如自主性、自我推理、自我复制、自我改进、规避人类监督、欺骗或抵抗目标修改。它还包括进行自动化人工智能研究和开发的模型能力,这可能导致在没有足够风险缓解措施的情况下不可预测的 GPAISR 的出现。失控场景可能会出现,例如,由于意外的模型倾向和技术故障、故意修改或试图绕过安全措施。
  • 大规模歧视:模型倾向导致大规模非法歧视的风险。这包括,例如,在高风险自动决策系统中广泛使用模型,这可能导致对大量人群的非法歧视;使用模型构建下游应用,可能将非法歧视模式转移到许多下游系统。


3.参会要求:


被接受论文的至少一位作者必须亲自出席研讨会进行讨论【1】。


通过这次研讨会,欧盟AI办公室旨在推进GPAI系统性风险评估的最佳实践,为《AI法》和《通用目的AI行为准则》的实施提供实践指导。这不仅将有助于塑造欧洲GPAI评估的未来,还将为全球AI治理提供重要参考。


Citations:

  1. https://www.trail-ml.com/blog/gpai-genai-implications-of-the-eu-ai-act
  2. https://www.euaiact.com/key-issue/3
  3. https://digital-strategy.ec.europa.eu/en/events/eu-ai-office-hosts-person-workshop-towards-defining-best-practices-systemic-risk-evaluations
  4. https://digital-strategy.ec.europa.eu/en/news/call-evaluators-participate-european-ai-office-workshop-general-purpose-ai-models-and-systemic
  5. https://www.kowi.de/en/kowi/news/ai-office-network.aspx
  6. https://www.dataguard.com/blog/the-eu-ai-act-and-obligations-for-providers/
  7. https://artificialintelligenceact.eu/the-ai-office-summary/
  8. https://digitalstrategy.ec.europa.eu/en/policies/aioffice
  9. https://ec.europa.eu/commission/presscorner/detail/en/QANDA_21_1683
  10. https://artificialintelligenceact.eu/article/55/
  11. https://www.shlegal.com/insights/the-eu-ai-act-enforcement-overview
  12. https://artificialintelligenceact.eu/article/51/
  13. https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai
  14. https://www.cliffordchance.com/content/dam/cliffordchance/PDFDocuments/the-eu-ai-act-overview.pdf
  15. https://digital-strategy.ec.europa.eu/en/faqs/general-purpose-ai-models-ai-act-questions-answers
  16. https://www.wilmerhale.com/en/insights/blogs/wilmerhale-privacy-and-cybersecurity-law/20241217-supervision-and-enforcement-of-the-european-unions-ai-act
  17. https://digital-strategy.ec.europa.eu/en/policies/ai-code-practice
  18. https://www.crowell.com/en/insights/publications/eu-artificial-intelligence-act
  19. https://www.rand.org/pubs/research_reports/RRA3243-1.html
  20. https://zertia.ai/european-ai-office-workshop-contribute-to-general-purpose-ai-risk-assessments/
  21. https://www.dataguidance.com/node/642313
  22. https://nquiringminds.com/ai-legal-news/EU-Workshop-Aims-to-Establish-Evaluation-Criteria-for-Systemic-Risks-in-GeneralPurpose-AI/
  23. https://www.csis.org/analysis/eu-code-practice-general-purpose-ai-key-takeaways-first-draft
  24. https://www.aoshearman.com/insights/ao-shearman-on-data/european-commission-publishes-first-draft-of-gpai-code-of-practice
  25. https://www.innovationnewsnetwork.com/the-ai-office-pioneering-ethical-ai-implementation-and-fostering-innovation-across-the-eu/53619/
  26. https://www.icaew.com/insights/viewpoints-on-the-news/2024/jun-2024/european-union-launches-new-ai-office
  27. https://letslaw.es/en/european-ai-office/
  28. https://aiethics.pt/commission-establishes-ai-office-to-strengthen-eu-leadership-in-safe-and-trustworthy-artificial-intelligence/
  29. https://artificialintelligenceact.eu/responsibilities-of-european-commission-ai-office/
  30. https://cultureactioneurope.org/news/ai-code-of-practice-first-draft-and-first-copyright-meeting/


文章来自于“那一片数据星辰”,作者“朱玲凤”。


欧盟AI办公室将举办通用目的人工智能系统性风险评估最佳实践

AITNT-国内领先的一站式人工智能新闻资讯网站
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
cursor

【免费】cursor-auto-free是一个能够让你无限免费使用cursor的项目。该项目通过cloudflare进行托管实现,请参考教程进行配置。

视频教程:https://www.bilibili.com/video/BV1WTKge6E7u/

项目地址:https://github.com/chengazhen/cursor-auto-free?tab=readme-ov-file