您现在的位置:首页 > 社会 > 正文

“助手”还是“陷阱”?AI安全风险需警惕

2025-07-17 10:09:53

作者:焦小超

  □焦小超

“助手”还是“陷阱”?AI安全风险需警惕

黎青 作

  数字化时代,人工智能(AI)正逐渐渗透到千行百业和日常生活中,推动经济社会高质量发展。值得注意的是,AI工具若被不法分子利用,会对关键数据、基础设施、社会秩序造成损害,成为威胁国家安全的“隐形武器”。(7月16日国家安全部微信公众号)

  当前,人工智能正以前所未有的速度重塑人类社会。从智能客服到精准医疗,从自动驾驶到智能安防,AI的身影无处不在,为我们的生活带来了前所未有的便利与创新。然而,正如硬币有两面,AI在蓬勃发展的同时,也隐藏着不容忽视的“阴暗面”——虚假信息“投毒”、关键信息“窃密”、意识形态“挑拨”,对国家安全构成潜在威胁。

  当“深度伪造”技术被境外反华势力用来炮制虚假视频,其以假乱真的“障眼法”便不再是影视特效的法宝,而成了误导舆论、制造恐慌的利刃。生成式AI强大的学习与创作能力背后,对海量数据的渴求可能因开源库故障或恶意设计,让用户隐私乃至涉密信息暴露于不法分子的觊觎之下。更隐蔽的是对意识形态领域的无声侵蚀——AI算法若被有偏见的数据“喂养”和重构,便可能成为输出特定意识形态的“传声筒”。某些势力正利用性别对立、劳资纠纷等社会热点,通过AI批量操控账号、煽动情绪,妄图撕裂社会共识、动摇稳定根基。

  面对AI时代的挑战,我们并非无计可施,关键在明辨风险、前瞻治理。近年来,我国已迈出坚实步伐——《生成式人工智能服务管理暂行办法》等部门规章的出台,《人工智能安全治理框架》等文件的发布,初步构建了在法治轨道上引导AI健康发展的治理体系。这为技术发展划定了清晰的安全红线,也为后续更精准的法规配套奠定了基石。

  法律是社会的底线伦理,科技向善则是引领技术创新的价值航标。科技向善应成为AI研发的底层逻辑,需构建覆盖数据采集、模型训练、应用落地的伦理审查体系,禁止将种族、性别等敏感数据纳入训练集;开发可解释性AI工具,确保算法决策透明可追溯;建立“技术-社会”影响评估机制,将就业替代、文化冲击等纳入风险评估指标。

  国家安全从来不只是政府的责任,更需要全民参与。公民需主动学习相关法律知识,自觉遵守技术标准和行业规范。同时,提升对信息的辨识能力与批判性思维,提高警惕,绷紧防范之弦。在使用AI工具时,必须提高个人信息保护意识——不轻易上传隐私信息、重要成果或涉密文件,严格限制非必要应用权限,将安全风险拒于门外。鼓励公众通过12339举报平台参与治理,形成“人人都是防线”的社会氛围。

  人工智能的浪潮不可逆转,但技术的航向必须由人类掌控。唯有将安全基因植入AI发展的血脉,方能让科技更好地服务人民,为新时代国家安全构筑坚不可摧的数字长城。舜网-济南日报

声明:本文仅代表作者个人观点,不代表舜网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。