中国青年报客户端合肥9月6日电(中青报·中青网记者王海涵王磊)“人工智能会拥有情感,进而奴役人类吗?”“人工智能应用推广是一把双刃剑,蕴含一定不确定性。其算法的不可解释性会带来一定安全风险。”……
上述观点和问题一抛出,引起与会嘉宾热议。
今天,中国网络空间安全协会、合肥市委网信办、合肥市公安局、合肥市数据资源局主办,科大讯飞协办的2022国家网络安全宣传周“人工智能与个人信息保护论坛”举办。政府、企业、学界共话人工智能时代个人信息保护的机遇和挑战。
【资料图】
“共建个人信息保护防线”圆桌对话。论坛主办方供图。
合肥市政府副市长刘卫宝认为,要积极构建人工智能信息安全保障体系,加快研发和应用人工智能安全网络框架和安全方案,保障政企数据通信和应用安全;积极构建人工智能信息安全监管体系,加强人工智能对国家安全、个人信息安全的影响研究和评估,形成人工智能安全监测预警机制。
安徽省委网信办副主任文霞平建议,加强互联网行业制度建设,发挥网络社会组织作用,组织法律知识培训,强化互联网相关单位和从业人员保护个人信息的自觉性,形成数据安全使用共识,平衡好人工智能发展与个人信息安全的关系。
中央网信办网络数据管理局局长胡啸认为,加快建立完善个人信息保护的法规制度体系,明确个人信息保护的责任义务、数据分类分级管理等相关制度要求。同时,要落实主体责任,个人信息主管部门要加强督促检查,加大打击违法犯罪的力度,加强各类信息保护建设并继续加强网络安全的宣传教育。
人工智能头部企业——科大讯飞总裁吴晓如进一步呼吁,企业方以可用、可信、可靠的安全技术,形成安全能力的坚实基础,坚持“合规为先、体系完备、纵深防御、持续改进”的发展思路,在安全管理体系上落实安全组织,从顶层设计层面保障安全资源;在产品安全体系上,将产品安全活动内建于产研管理流程,从源头降低安全风险;在个人信息保护体系上,形成全面覆盖业务场景的隐私保护机制。
科大讯飞总裁吴晓如进行演讲。受访者供图。
“人工智能对用户精准画像,需要对来自不同应用的海量照片学习,对人脸识别、指纹、虹膜识别等数据进行训练。如果训练模型遭到不法分子攻击,用户行踪轨迹等隐私就被识别了,这一系列技术背后有隐私暴露的风险。”在中科院计算所研究员、博士生导师山世光看来,个人隐私信息保护的核心目标是去标识化,使数据“可用不可见”。他提出三类应对方法:以加密为核心的隐私保护、可信联邦学习以及反制AI系统,主动避免信息被收集。
中国工程院院士何友现场分析人工智能发展趋势。王海涵/摄。