当前位置: 首页 > 网信动态 > 全国

人工智能给数据安全带来哪些新挑战?应如何治理?

《中国网信》2025年第5期   |  2025-06-18 10:14:03

在人工智能发展过程中,数据安全问题始终伴随其中。大数据为人工智能提供丰富的语料和训练基础,以大模型为代表的人工智能具有极强的数据挖掘和分析能力,提高了数据的可获取性,促进了数据的流通利用,推动经济社会发展。而数据造假、失真及信息不对称等问题,风险防范意识与人工智能技术发展进程不匹配等矛盾,不仅增加了数据安全风险,还影响人工智能对数据的分析和智能决策。人工智能和数据安全在约束下共生、在博弈中发展,需要在保护数据安全和推动人工智能发展中寻找新的平衡点,利用人工智能实现更广泛的公共利益。

人工智能给数据安全带来新挑战

2023年以ChatGPT为代表的大模型蓬勃兴起,2025年初DeepSeek以其高性价比和创新的开源模式进一步推动人工智能的演进并快速普及应用。基于人工智能技术开发的脑机接口、人机交互设备等也在加快研发进度,人类获取信息、与数据交互并做出决策的方式正发生重大改变,人工智能的安全和可持续发展引发全球关注。全国网络安全标准化技术委员会2024年发布的《人工智能安全治理框架》1.0版明确指出,人工智能系统设计、研发、训练、测试、部署、使用、维护等生命周期各环节都面临安全风险。当前,人工智能风险呈现多样性、复杂性和不确定性的特征,对数据安全形成新的挑战。

一是数据收集与训练中的滥用风险。人工智能需要收集海量数据进行训练,在这一过程中存在未经同意收集、滥用数据的安全风险。而普通用户往往难以理解数据收集的合规边界,对数据滥用风险及模型训练后果缺乏认知。一旦敏感数据被整合进训练集,其后续使用场景、二次传播都可能对用户产生不利影响。此外,在训练数据标注过程中,还存在因标注规则不完备、标注错误等问题导致的风险。

二是数据应用与人机互动中的失控风险。人工智能可以综合公开数据、个人数据,结合行为分析挖掘出更深层次的数据。受针对性推送和规模性叠加信息的影响,人工智能可能预判甚至引导用户的判断和决策形成。沉浸式网络体验和虚拟社交等可能使用户沉迷于虚拟社会,沉浸在高度逼真、持续互动的数字环境中,并逐渐形成依赖而远离真实世界,丧失自主认知和判断力。

三是系统设计与研发中的数据泄露风险。在人工智能系统的研发应用过程中,因数据处理不当、非授权访问、恶意攻击、诱导交互等问题,可能导致数据和个人信息泄露。比如网络钓鱼和DDoS(分布式拒绝服务)攻击等传统的信息安全问题仍然对人工智能系统造成严重威胁,即便是使用相同或相近人工智能技术体系的机构,在共享数据和跨系统通信过程中,也可能因为数据安全保护水平不一而存在安全漏洞,导致数据被未经授权的第三方获取。此外,AI模型技术上的漏洞与设计缺陷也可能引发数据泄露风险。

四是偏见、歧视以及幻觉问题带来的数据失真风险。算法在处理数据时可能会将某些社会偏见内容放大,导致结果偏差或带有歧视性,如贷款审批、保险定价中的不公平决策等。模型黑箱特性导致决策溯源困难,用户难以验证其合理性。同时,人工智能因缺乏自我纠偏机制,可能输出虚构数据或逻辑谬误(即幻觉问题),影响决策可靠性。更值得警惕的是,系统可能依据错误数据生成带有歧视性的“数字标签”,不仅损害个体利益,还会引发算法歧视的社会问题。

人工智能与数据安全的系统性联系

从人类文明整体发展角度看,人工智能的健康发展和数据安全相互影响、相互制约,更不可分割,二者之间有密切的系统性联系,主要表现在三个方面。

第一,目标使命趋于一致。

人工智能的目标使命是通过高效、智能的方式服务人类社会,满足个人需求、提高组织效率、优化社会资源配置。着眼于增进人类福祉的人工智能必须尊重并落实隐私保护,建立并不断完善数据安全治理模式,才能实现安全、可靠、可控的可持续发展。包含隐私的个人数据可能会与企业数据、公共数据的原始信息形成交织,在促进人工智能乃至经济社会发展方面发挥积极作用。因此,不能因数据保护而产生绝对的排他权,要利用人工智能收集、使用、处理数据中产生的红利,驱动产业变革,这也和数据安全的目标一致。

第二,技术层面相辅相成。

人工智能应用中的数据安全要素可归纳为隐私保护、加密传输、动态访问控制、模型鲁棒性以及全生命周期治理。这些要素既是保障数据安全的基石,又与人工智能技术形成双向赋能关系:一方面,数据安全依赖人工智能实现更高效的防护;另一方面,人工智能系统的可持续发展又必须以安全可信的数据开发应用环境为前提。

在技术层面,传统数据安全机制(如加密算法、访问控制策略等)通过人工智能的介入获得升级。例如,基于深度学习的异常检测系统能实时识别数据泄露风险,其分析效率远超人工规则;联邦学习技术通过分布式模型训练实现“数据可用不可见”,在隐私保护与数据价值挖掘间取得平衡;生成对抗网络(GAN)可自动生成脱敏数据,既满足模型训练需求又规避敏感信息暴露。同时,AI模型自身的安全性(如对抗样本防御、模型逆向工程防护)也需依赖人工智能驱动的防御算法,形成“以AI守护AI”的技术闭环。

更深层的逻辑在于,人工智能与数据安全构成“共生系统”:人工智能的发展依赖大规模高质量数据,而数据价值的释放必须以安全为前提;相反,数据安全问题的复杂化(如高维数据攻击、自动化黑产)倒逼人工智能技术成为新型防御工具。再如,人工智能赋能的自动化合规审计系统可应对相关法律监管要求,而数据安全标准的完善又为人工智能伦理框架提供实践基础。

第三,治理体系交叉融合。

对人工智能的治理离不开数据安全治理。当前,全球大部分国家在其有关人工智能的政策法律中都涉及数据安全治理。联合国发布的《关于机器人伦理的研究报告》为各国提供了在机器人技术及人工智能发展方面的指导原则,强调保护人类尊严、安全和隐私。这一准则促使各国在制定人工智能政策和法律时充分考虑隐私保护等伦理问题,推动人工智能技术与隐私保护的有机结合,确保人工智能的发展符合人类的利益和价值观。欧盟《人工智能法案》旨在确保人工智能的发展符合欧洲的价值观与人权标准,要在高度保障健康、安全、公民基本权利以及公共利益的前提下,推动人工智能规范地开发、使用。美国发布的《人工智能权利法案蓝图》也着重突出公平和隐私保护方面的内容。上述国际性法律文件或报告都把隐私保护作为人工智能治理优先考虑。我国网络安全的“三法一条例”,即《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》和《关键信息基础设施安全保护条例》,以及《生成式人工智能服务管理暂行办法》等,要求从数据收集、清洗、标注到最终使用,实施全流程合规监管,保障了人工智能使用数据的安全。数据安全治理也离不开对人工智能的有效规范。人工智能治理保护隐私、算法公平和可解释的要求,可以从源头保障数据全生命周期的安全合规。脱离人工智能治理规则约束,数据安全治理很难破解算法“黑箱”导致的数据偏见、权责模糊、模型内生风险及造成的数据二次泄露等系统性挑战。

人工智能时代数据安全治理的实现路径

人工智能与数据安全的系统性联系决定了发展人工智能的同时必须筑牢数据安全屏障。我国已经在这一领域开展了积极实践,且可以有更多作为。

一是持续完善数据安全与人工智能产业发展并重的法治环境。构建全面且系统的法律体系,既能为数据安全筑牢坚实防线,又能为人工智能技术的创新与广泛应用开辟广阔空间。在这一体系中,《互联网信息服务算法推荐管理规定》、《人工智能安全治理框架》1.0版等法规,着重对人工智能算法进行监管,明确要求算法推荐服务提供者切实承担起算法安全的主体责任,从技术维度出发,针对人工智能系统从设计构思到研发落地再到后续运维等全生命周期各个环节可能出现的安全风险,制定具体、有效的应对策略,并保障数据安全。与此同时,《中华人民共和国网络安全法》《中华人民共和国数据安全法》以及《生成式人工智能服务管理暂行办法》等重要法律法规,从法律层面保障数据安全,防止人工智能系统对个人产生歧视、侵权等负面效应。《关键信息基础设施安全保护条例》将维护关键信息基础设施中数据的完整性、保密性和可用性提升至关键地位。《中华人民共和国密码法》则为人工智能时代加密保护数据和个人隐私奠定法律基础。随着人工智能的快速发展,应不断创新完善与数据安全相关的法律体系,使其在促进人工智能产业发展和保障安全中找到平衡点。


2024年9月9日,《人工智能安全治理框架》1.0版正式发布。

二是持续完善科技伦理审查规范中对数据安全的要求。2023年10月8日,科技部、教育部、工业和信息化部等十部门联合印发《科技伦理审查办法(试行)》,第四条规定“高等学校、科研机构、医疗卫生机构、企业等是本单位科技伦理审查管理的责任主体”;第九条规定“开展科技活动应进行科技伦理风险评估”。而对人类主观行为、心理情绪和生命健康等具有较强影响的人机融合系统的研发,具有舆论社会动员能力和社会意识引导能力的算法模型、应用程序及系统的研发和面向存在安全、人身健康风险等场景的具有高度自主能力的自动化决策系统的研发也应纳入伦理审查范围。

三是人工智能企业积极承担保障数据安全的社会责任。具体包括完善数据治理框架,建立健全管理体系和工作机制,落实数据安全管理责任,积极研发应用差分隐私、同态加密和隐私计算等数据安全技术。针对客户的个性化需求,企业需开发适应不同行业与区域需求的AI模型和数据安全方案。例如,为医疗行业提供高隐私性的分布式数据分析工具,为金融行业设计实时加密的交易监控系统,为跨境电商企业优化数据传输合规方案。在满足客户需求的同时,企业也能通过市场反馈优化技术与服务,形成良性发展循环。人工智能企业应遵循科技向善的技术伦理,严格落实伦理审查要求,科学合理地进行数据安全风险分级,并采取相对应的安全措施。

四是以密码技术推动数据安全发展。密码在数据安全中发挥着至关重要的作用,不仅为数据安全提供了强大的技术保障,还帮助企业实现隐私保护与数据利用之间的平衡。通过密码技术的应用,人工智能系统可以在安全基础上更广泛地获取和利用数据资源;企业可以在数据收集、存储、传输等各个环节实现加密保护,降低因数据泄露导致的法律风险。在面临监管审查或法律诉讼时,企业也可以将密码技术的应用作为其合规性的有力证明。例如,当监管机构对企业数据保护措施进行审查时,企业可以展示其采用的加密算法、密钥管理机制等,证明其已经采取了符合法律法规要求的技术措施来保护个人隐私、数据安全等。

五是持续推动数据安全治理国际合作。政府、企业和学术界需要形成更加紧密的合作,推动智能时代全球数据安全规则的对接与优化,通过积极参与数据安全的政策讨论和国际规则的制定,共同制定技术标准与行业规范,推动数据安全政策的协调与落地。在跨境数据流动、人工智能解密能力规范化等关键领域,应鼓励企业发挥桥梁作用,通过技术提案和标准化实践,助力数据安全方面的国际规则出台。

人工智能“智慧”的本质是人类集体思维的镜像,当我们分析数据安全的挑战时,也是在重新审视自身对秩序、风险与信任的认知范式。当前,人工智能与数据安全的共同发展仍面临双重挑战:技术层面需突破隐私计算效率瓶颈与对抗攻防的动态博弈;制度层面则要构建兼容技术创新与权利保护的治理体系。未来,以“安全增强型AI”(Security-Enhanced AI)为核心的技术路径或将重塑数据安全与人工智能发展的共生边界。(作者:西安交通大学科教院网络安全法治研究所所长 朱莉欣;中国航天标准化研究所工程师 汪丽)

IE版本小于9,为了不影响您的浏览效果,请升级IE版本! x