4月11日,国家网信办发布《生成式人工智能服务管理办法(征求意见稿)》,向社会公开征求意见。3月29日,英国政府发布针对人工智能产业监管的白皮书,提出对AI技术全方位监管的方法。包括图灵奖得主、苹果联合创始人、马斯克以及「人类简史」作者等在内的超过1000位大佬联名呼吁——应该立即停止训练比GPT-4更强大的AI系统,暂停期至少6个月,因为具有人类竞争智能的AI系统,可能对社会和人类构成深远的风险。全球AI监管迫在眉睫,开发者必须与政策制定者合作,以确保AI值得人类信赖,对人类忠诚。欧盟已经开启强监管之路,美国英国更强调创新和发展,中国兼顾安全与发展,探索人工智能监管与创新发展的平衡,对AI应用分级分类开展监管政策制定工作。
(资料图)
国内外人工智能监管现状
人工智能具有复杂性、不可预测性、自主性、缺乏透明度等特征,由此带来数据爬取、算法偏见、歧视内容、科技伦理等各种议题,给人工智能的发展带来巨大挑战。如何在促进创新和保护公众利益之间取得平衡,成为各国监管机构面临的共同挑战。
1. 欧盟:强监管策略
欧盟强调个人基本权利的保护以及维护欧盟内部市场的统一。2021年4月,欧盟提出《人工智能法案》草案,计划在2024年开始执行对人工智能产品的强制监管。《人工智能法案》根据不同安全生产风险等级,将人工智能系统分为以下四个类别,并采取不同的监管措施:
欧盟委员会、欧洲理事会和欧洲议会计划于今年4月份进行《人工智能法案》细节的谈判,但ChatGPT的出现很可能会推迟谈判的时间。其争议的焦点在于生成式AI系统是否应该被列在“高风险”名单,以及监管是否会阻碍人工智能的创新发展。
意大利监管机构在2023年2月宣布取缔一款美国研发的聊天机器人“Replika”,理由是它不符合透明度要求,非法处理个人数据,违反了欧盟《通用数据保护条例》。3月31日,意大利个人数据保护局宣布,从即日起禁止使用ChatGPT,并限制OpenAI公司处理意大利用户信息,同时个人数据保护局开始立案调查。
美国发布的人工智能监管文件较少,更多依靠地方自治、行业规则和个人诉讼等方式解决生成式AI带来的问题,监管导向以促进人工智能发展为主要目标。
2020年1月,白宫科技政策办公室发布《人工智能应用监管指南》,该指南关注到AI系统在整个设计、开发、部署和操作过程中对算法和数据保护不足的风险,并提出一系列风险评估与管理方案,但其重点仍为确保监管规则不阻碍人工智能的发展。2022年10月,白宫科技政策办公室发布《人工智能权利法案蓝图》,其目的是支持制定政策和实践,列出了美国公众应该享有的五项核心权利保护:不受不安全或低效系统所害、不受算法和系统歧视、个人隐私受到保护、知晓人工智能系统的使用并理解人工智能如何和为何产生最后的结果、有权选择不使用人工智能技术。2023年1月,美国商务部NIST发布《人工智能风险管理框架》,该框架将可信度考量纳入设计、开发、使用和评估AI产品、服务和系统中,并基于其他机构的AI风险管理工作,确保制定过程的公开、透明,增强人工智能可信度,降低人工智能技术应用的风险。
英国倾向于依靠部门监管机构,建立一个灵活和有利于创新的监管框架,以促进技术进步并保持人工智能全球领先的地位。3月29日,英国政府发布针对人工智能产业监管的白皮书,提出AI治理的五项原则:安全性和稳健性、透明度和可解释性、公平性、问责制和管理,以及可竞争性。未来,监管机构将基于五项原则向相关组织发布实用指南并推动立法。
总体而言,美国和英国对人工智能的监管相对宽松,鼓励创新,避免过度干预人工智能产业发展。
3. 中国:兼顾安全与发展
中国在人工智能方面陆续出台多部政策文件,早期以人工智能产业促进为主,部分地方政府先试先行,提出人工智能治理的具体规范。近年来逐步关注人工智能伦理道德、算法治理及行业应用安全。
在促进人工智能产业发展方面,中国发布了多个产业政策文件,包括《新一代人工智能发展规划》《促进新一代人工智能产业发展三年行动计划》和《国家新一代人工智能创新发展试验区建设工作指引》等。地方层面,深圳和上海等先后出台《深圳经济特区人工智能产业促进条例》和《上海市促进人工智能产业发展条例》,积极推进人工智能与经济、生活、城市治理等领域深度融合,促进鼓励人工智能创新发展。
在伦理道德方面,2022年3月,中办国办印发《关于加强科技伦理治理的意见》,对科技伦理治理作出顶层设计和系统部署,解决AI带来的社会规范失序、伦理道德等问题。2023年4月,科技部就《科技伦理审查办法(试行)》公开征求意见,提出从事人工智能等科技活动的单位,研究内容涉及科技伦理敏感领域的,应设立科技伦理(审查)委员会,对涉及数据和算法的科技活动,应符合国家有关数据安全的规定。
在算法治理方面,2021年9月国家网信办等印发《关于加强互联网信息服务算法综合治理的指导意见》,首次明确了加快构建算法安全监管体系的要求。同年12月,网信办等发布《互联网信息服务算法推荐管理规定》,要求算法推荐服务提供者保护用户权益、履行算法备案等义务并特别强调未成年人保护。
在行业应用安全方面,2022年11月,国家网信办等联合发布《互联网信息服务深度合成管理规定》,该规定明确生成式AI应用服务提供者、技术支持者和服务使用者等各方的法定义务。4月11日,国家网信办发布《生成式人工智能服务管理办法(征求意见稿)》,从国家层面支持人工智能技术发展,对提供生成式人工智能产品或服务的提供者以及用户均做出详细规定。一是提供者应保证内容真实准确、尊重社会公德、公序良俗,训练数据应合法合规,人工标注规则应清晰、具体、可操作,不得利用算法、数据、平台等优势实施不公平竞争;二是对用户来说,要求提供真实身份信息。
总体而言,中国对人工智能采取发展与安全并重的策略,在大力促进人工智能技术应用的同时,也从多维度、多层级、多领域探索人工智能的治理之道。
探索人工智能监管与创新发展的平衡
当前,不少人工智能公司担心ChatGPT会引发更高的监管要求。根据行业机构appliedAI的调查显示,51%的从业者预计,受欧盟《人工智能法案》的影响,公司的人工智能研发将放缓。人工智能是科技强国必争之地,我国在进行人工智能监管时,保护公众利益的同时又不过度限制人工智能的创新发展显得尤为重要。
第一,推动形成具有广泛共识的国际人工智能治理框架和标准规范。政策制定过程应鼓励公私合作,积极吸收学术界、产业界和民间社会的意见,以更好地了解技术趋势和行业需求,制定切实可行的政策,促进人工智能的发展和创新。同时,鼓励跨国界的交流合作,在充分尊重各国人工智能治理原则和实践的前提下,推动形成具有广泛共识的国际人工智能治理框架和标准规范。
第二,对AI系统分类监管。欧盟发布的《人工智能法案》将AI系统分为四个类别进行治理的方式值得借鉴。分类监管是一种基于风险的监管形式,强调的是监管不应以消除所有潜在损害为目标,而应关注潜在不利后果的概率及影响。针对不同风险程度的人工智能应用采取相应的监管措施,这样可以在保护公众利益的同时促进人工智能的创新发展。
第三,政策保持灵活性的同时守住安全底线。针对人工智能领域快速变化的环境,政策制定者应具备灵活性和适应性,随时根据评估结果进行调整,以确保政策不会对创新产生不利影响。同时,守住安全的底线不能动摇,在人工智能的技术与场景中,同样需要秉持发展与安全并重的理念,确保各项技术行稳致远。