(资料图片仅供参考)
2022人工智能合作与治理国际论坛以“人工智能治理技术”为主题的第二场主论坛。 中国科协科学技术传播中心 供图
中新网北京12月12日电 (记者 孙自法)2022人工智能合作与治理国际论坛主办方12日通过中国科协科学技术传播中心发布消息说,在该论坛以“人工智能治理技术”为主题的第二场主论坛上,与会专家学者重点探讨如何通过技术工具来实现人工智能(AI)可知、可信、可控和可用;如何实现算法的可解释、可控制与公平性,将伦理准则“嵌入”到人工智能产品与系统的研发设计;如何将产业监管要求转化为技术解决方案,开发针对人工智能行业或应用的“治理技术”与服务。
美国哥伦比亚大学常务副校长、计算机科学系教授周以真以《可信赖的人工智能》为题发表主旨演讲说,正在推动的“值得信赖的人工智能”研究议程,其目的在于把人工智能社区、网络安全社区和正式方法社区三个社区聚集在一起。她指出,一些人工智能系统可能是脆弱和不公平的,因此需要努力实现可信赖的人工智能。可信赖计算意味可靠性、安全性、可用性,要考虑准确性、稳健性、公平性,通过问责制、透明度、可解释性、道德伦理等设置人工智能执行的任务和环境。关于如何能够实现可信赖的人工智能,她则提出一种构建可信系统的事后验证方法,即用数据模型、代码程序来满足人们关心的正确性属性、安全性属性、活性属性等性质,并通过列举研究问题应用形式化方法,来尝试实现人工智能系统的可信度。
中国工程院院士、鹏城实验室主任、清华大学人工智能国际治理研究院学术委员高文以《新一代人工智能发展的安全问题》为题发表主旨演讲指出,人工智能改变了安全格局,进一步扩大了威胁,需要从多个层面进行风险管控。在人的层面应加强伦理教育;在模型算法层面,期望它可信、可控、可解释并且被正当使用;在数据层面,期望数据具有充足的系统防护保证其安全。强人工智能安全风险来源于三个方面,一是模型的不可解释性;二是算法和硬件的不可靠性;三是自主意识的不可控性,这一方面要在设计及应用阶段采取预防和检测措施,另一方面要加强国际合作,相互取长补短,还要加强人才培养。对于数据安全问题,他认为隐私保护和数据有效使用是一对矛盾,需要做到平衡,鹏程实验室所采用的“防水堡”技术,对于保护模型训练数据安全共享和使用提供了解决思路,该技术可以做到只分享价值,不分享数据,在保证原始数据不移动的情况下也能够使数据可用。
瑞莱智慧(RealAI)公司联合创始人及首席执行官田天以《人工智能安全的实践探索》为题发表主旨演讲认为,人工智能正在进入一个从高速增长向高质量增长转变的新发展阶段,这对人工智能的安全性和可靠性提出了更多新要求。他列举一些已经真实地发生在人们身边的人工智能安全问题,比如人脸识别产生的安全隐患和实际损失,同时指出,并不能因噎废食地不去使用人工智能,而是应当进一步完善治理,让人工智能在更安全的前提下发挥它应有的作用。
清华大学智能产业研究院教授、首席研究员聂再清以《可信AI技术与应用》为题发表主旨演讲表示,安全可信是人工智能治理的核心诉求,而安全可信的人工智能技术产品需要具备安全可控、数据资产和隐私保护、可解释性等条件。他还进一步结合智慧医疗、车路协同自动驾驶等实践案例作详细讲解:AI安全性方面,以车路协同感知为例,讲解自动驾驶领域如何通过多传感器的协同感知,来提升AI协同内部可靠性,从而提高AI安全性;数据资产和隐私保护方面,以多中心医疗联邦协作科研平台为例进行讲解,并提出通过多中心的联合协作,解决数据孤岛、数据单边样本不足、标签严重缺失等挑战,做到数据的可用不可见以及面向隐私保护的机器学习;可解释性方面,以面向营养健康管理的可解释个性化推荐为例,提出需要“引导式”而非“迎合式”信息推荐,提升用户依从性并充分考虑营养健康因素,避免迎合式的饮食推荐。
在本场论坛圆桌对话环节,与会专家还深入探讨如何通过技术创新应对和解决人工智能带来的风险与挑战,并回答相关提问。(完)