前言
人工智能治理是各方为解决人工智能领域风险分担和利益分配问题,通过政策制定、法律监管、伦理指导等手段,对人工智能的研发、应用等行为进行全面管理和调控的过程。人工智能治理应为人工智能领域发展和安全问题建立有效的风险矫正机制、利益分配机制及机构协调机制,积极应对发展不平衡、规则不健全、秩序不合理问题并促进全球协商合作。
近一年来,全球人工智能治理面临复杂多变新形势。全球人工智能行业实现高速增长,在产业规模、投融资、企业数量等方面表现明显,具身智能、数字人等人工智能应用将驱动下一轮产业洗牌。通用人工智能技术飞速跃迁敲响安全警钟,幻觉难消除、场景难限定、责任难追溯等特性放大了虚假信息、隐私侵犯、网络犯罪等现实风险。同时,全新的人机交互模式开启了“人类外脑”时代,在未来发展中可能引发情感依赖、劳动替代、生存性风险等方面的人机伦理风险,不断挑战政府传统监管模式、加剧国际合作协调难度、考验供应链主体自治能力。
本报告从新技术革命引发的经济社会发展变革和历史经验出发,在“以人为本、智能向善”理念指引下,基于供应链条、价值链条、全生命周期链条等底层逻辑,从What、Why、Who、How四个维度搭建了人工智能治理体系框架。在梳理人工智能概念分歧、人工智能风险谱系基础上,框架从安全和发展两个维度提出四组议题。安全侧来看,安全可控是人工智能治理的底线基础,强调基于风险的全生命周期治理思路,亟需对透明度、红队测试、评估评测等工具细化落地;伦理先行是人工智能治理的价值导向,需提前研判人工智能对人类生活、生产乃至生存问题带来的冲击,强调敏捷治理、动态监测。发展侧来看,负责任创新是人工智能治理的源头根本,存在算力供给不平衡、高质量数据集建设、开源模型生态治理等问题,提出基于产业链的“要素+场景”治理;可持续发展是人工智能治理的终极要求,提出公平普惠的包容性治理,围绕经济、社会和环境三个维度,协力应对数字鸿沟、能源短缺等问题,推动联合国2030年可持续发展目标实现。
从落地实践来看,主要经济体人工智能治理模式初具雏形,在监管模式、治理重点、实践策略等方面日益成熟完善。企业主体、专业机构、产业联盟等主体积极实践,在安全技术研发、资源共享等方面发挥关键作用。大国间围绕人工智能安全合作共识初建,各方在议程设置、规则塑造等多方面进程提速,联合国系统积极酝酿新的人工智能治理协调机制,各双多边机制推动高层次承诺向可执行政策落地。
展望未来,人类社会将迈向更深层次的智能化发展阶段,需要系统谋划、综合施策,在伦理监测、制度设计、监管模式、国际合作等方面持续改革创新。中国信息通信研究院持续跟踪评估人工智能治理焦点议题和趋势进展,尝试提出人工智能治理的体系框架,期待为推进各方交流讨论、促进合作共赢贡献绵薄之力。
本文来自知之小站
PDF报告已分享至知识星球,微信扫码加入立享3万+精选资料,年更新1万+精选报告
(星球内含更多专属精选报告.其它事宜可联系zzxz_88@163.com)