科技创新2030—“新一代人工智能”重大项目《人工智能安全理论及验证平台》项目启动暨实施方案论证会在杭召开

发布者:何璐发布时间:2021-05-13浏览次数:76

2021年05月12日,浙江大学牵头的科技创新2030—“新一代人工智能”重大项目《人工智能安全理论及验证平台》项目启动暨实施方案论证会在杭州召开。科技部高技术研究发展中心信息处领导与科技部项目专家组、项目咨询专家组、浙江大学科学技术研究院、项目负责人、课题负责人、项目成员40余人参加了线下和线上会议。



项目旨在发展新的AI安全理论及关键技术,提高AI系统威胁监测、预警、 响应能力,实现大规模人工智能系统的安全性验证,推动系统安全评测标准制定与完善,完全响应“建立多领域技术融合、支持大规模人工智能系统自主安全防御的理论体系”的总体研究目标。

该项目由浙江大学牵头,联合武汉大学、西安交通大学、南京航空航天大学、西北工业大学、山东省计算中心(国家超级计算济南中心)、中国人民公安大学、淘宝(中国)软件有限公司、湖南四方天箭信息科技有限公司,组建了强强联合的项目团队。



本次会议首先由浙江大学科研院史红兵常务副院长、科技部高技术中心丁莹副处长分别致辞,介绍了人工智能的时代背景与战略背景,强调人工智能发展的重要性,以及解决安全问题的必要性,肯定了本项目的意义。

史红兵院长为潘云鹤院士以及其他现场出席的项目咨询组专家颁发了聘书。



随后,项目负责人任奎教授介绍了当前形势面临的AI安全挑战与项目整体实施方案,各课题负责人先后为项目的五个课题汇报了实施方案。线下、线上专家发起质询,与项目主要参与人员在管理、技术、实施等方面进行了交流。



最后专家组共同讨论,形成了项目实施方案论证决议,一致通过了《人工智能安全理论及验证平台》项目实施方案。



人工智能安全被列入“十四五”加强网络安全保护重点研究内容。“十四五”指出要“加强网络安全关键技术研发,加快人工智能安全技术创新,提升网络安全产业综合竞争力”。人工智能安全对于“加强网络安全基础设施建设,强化跨领域网络安全信息共享和工作协同,提升网络安全威胁发现、监测预警、应急指挥、攻击溯源能力”起着至关重要的作用。

通过本项目的实施,有望发展出一套新的AI安全理论及关键技术,提高AI系统威胁监测、预警、响应能力,推动系统安全评测有关标准制定与完善,降低AI技术不成熟性与滥用带来的安全风险。