2021年4月欧盟委员会出台《人工智能法案》(以下简称《法案》),2022年10月美国白宫发布《人工智能权利法案蓝图》(以下简称《蓝图》),两者均把人工智能安全建设作为法案的核心内容。赛迪研究院未来产业研究中心通过对比研究认为,我国要进一步完善人工智能治理体系,制定有关规制措施和细则,可借鉴美欧人工智能法案方面的新举措,比如算法源头的公平性管理、分类分级风险管控措施及完善的治理规则。一、美欧法案各有侧重,前者更重公平隐私,后者更重风险管控
美国《人工智能权利法案蓝图》核心内容为五项基本原则,将
公平和隐私保护放在首要位置。《蓝图》提出的五项基本原则包括:建立安全和有效的系统;避免算法歧视,以公平方式使用和设计系统;保护数据隐私;系统通知和解释要清晰、及时和可访问;设计自动系统失败时使用的替代方案、考虑因素和退出机制。这五项基本原则旨在避免人工智能系统滥用带来的危害,并着重强调了公平性和隐私性。在公平性方面,《蓝图》要求自动化系统的设计者、开发者和部署者应采取积极措施,保护个人和社区免受算法歧视,并以公平的方式使用和设计系统。在隐私保护方面,《蓝图》提出数据隐私是实现该框架中其他原则所需的基础性和交叉性原则。同时,《蓝图》要求自动化系统的设计和构建应默认保护隐私,数据收集和使用范围应有确定目标。
欧盟《人工智能法案》是首个针对人工智能风险管控的法案。《法案》基于风险预防理念,为人工智能系统制定了覆盖全过程的风险规制体系,是全球首个针对人工智能风险规制的法案。在风险流程监控方面,《法案》鼓励建立国家或欧盟层面的监管沙盒,进一步规范处理合法收集的个人数据,并制定了相关规则。就风险防范措施而言,《法案》将人工智能系统划分为不可接受风险、高风险、低风险和最小风险四类,着重立法规制前两类风险,对高风险人工智能系统的全生命周期监管作了详细规定。在适用范围方面,《法案》将高风险覆盖的领域归纳为关键基础设施、公民教育、产品的安全组件、公民就业、公共服务、涉权型执法、出入境问题、司法和民主进程八类,重点提出远程生物识别系统原则上禁止在公众可进入的空间和场所内使用。
本文来自知之小站
PDF报告已分享至知识星球,微信扫码加入立享3万+精选资料,年更新1万+精选报告
(星球内含更多专属精选报告.其它事宜可联系zzxz_88@163.com)