随着人工智能(AI)技术的安全迅猛发展,企业首席信息安全官(CISOs)正面临前所未有的头等大单挑战,既要满足企业业务快速迈向智能化的事建需求,同时又要防御爆炸式增长的产清AI安全威胁。 风靡全球的安全DeepSeek只是AI工具潮的一朵浪花,未来还将有更多类似工具快速涌现
。头等大单这些未经授权的事建(消费级)AI应用如同一颗颗定时炸弹,潜伏在企业内部,产清威胁着数据安全与合规性。高防服务器安全那么 ,头等大单如何应对这一危机 ?事建答案的起点在于建立一个全面的AI资产清单。 AI资产清单的建立不仅是必要的,而且正成为强制性要求。安全没有这一清单 ,头等大单企业如同盲人摸象 ,事建无法准确识别AI使用带来的敏感数据暴露风险,也无法应对日益严格的合规性要求
。模板下载 欧盟《AI法案》(EU AI Act)、ISO 42001标准以及美国国家标准与技术研究院(NIST)的AI风险管理框架(AI RMF)等监管框架已明确将AI资产清单视为治理AI的基础性步骤。 例如
,欧盟《AI法案》于2024年8月正式生效,其覆盖范围极为广泛,几乎囊括了所有AI系统 ,要求企业对其使用的AI技术进行全面登记和风险评估。ISO 42001则为企业提供了一个AI管理系统标准
,强调通过清单化管理确保AI的透明性和责任性。而NIST AI RMF虽然是自愿性框架 ,但其“MAP”功能明确要求企业绘制AI使用图谱,服务器租用识别潜在风险。 这些框架共同表明,AI资产清单不仅是合规的起点,更是安全治理的核心
。 然而,定义“AI资产”本身就是一大难题。欧盟《AI法案》采取广义方法,将几乎所有AI增强功能纳入监管范围;而企业则需自行判断是否应监控每一项AI特性,还是聚焦于生成式AI 、建站模板大语言模型(LLM)和内容创建系统等高风险领域。专家建议
,缩小关注范围至特定AI类别可显著降低清单编制的复杂性,使其更具可操作性。 除了监管压力,第三方供应商评估也日益要求企业提供AI资产清单,常称之为“审计”或“服务目录”。但合规只是表象,真正的挑战在于识别“影子AI”——那些未获正式批准却已被员工融入日常工作的AI工具 。据网络安全公司ZScaler的2024年报告,香港云服务器企业中超过60%的员工承认使用过未经授权的AI工具 ,其中许多工具通过个人账户或免费版本接入,绕过了IT部门的监控。 影子AI的泛滥使得传统IT治理工具捉襟见肘
。员工可能在不知情的情况下将敏感数据暴露给第三方模型,而这些工具的风险往往瞬息万变——一款昨天看似安全的工具 ,可能因新增AI功能而在一夜之间变成高危对象
。例如 ,DeepSeek的云计算快速流行就暴露了企业对新兴工具的反应滞后
,其数据存储政策引发了广泛争议 。 目前,企业采用的AI资产清单编制方法主要有以下六种,每种方法各有优劣: 这些方法虽能提供一定可见性,却普遍依赖手动操作,效率低下且难以应对动态风险。网络安全专家指出
,AI资产清单不仅是列出工具清单,更需评估其风险:这些工具是否从员工输入中学习?其数据保留政策如何?是否符合GDPR、HIPAA等隐私法规
? 为应对上述挑战 ,业界正转向更自动化、可重复的AI资产追踪工具。这些工具通过持续监控检测AI使用,包括个人和免费账户
,并识别哪些应用在训练企业数据。例如 ,2025年初推出的Darktrace AI Guardian能够实时扫描网络流量,标记未经批准的AI工具
,并生成动态资产清单
。此类工具还支持企业制定防护策略,防止员工无意中泄露机密信息。 此外,自动化工具还推动了员工教育。例如
,微软在2024年为其企业客户推出了AI使用仪表板,显示员工使用的AI工具并标注其安全性,帮助员工分辨哪些工具获批使用。这种透明性不仅降低风险,还增强了员工对合规工具的信任 。 AI治理不应仅被视为风险管理任务,更是一个抓住创新机会的窗口 。领先建立AI资产清单的企业能够主动接触员工,了解其真实需求和用例,引导他们转向安全 、批准的AI解决方案。安全领导者通过与AI委员会和高层分享这些数据 ,可提供基于现实的洞察,超越理论政策讨论。 例如,谷歌在其2024年AI安全报告中提到,通过资产清单识别员工对生成式AI的高需求后,该公司迅速部署了内部批准的生成工具,不仅提升了生产力
,还降低了外部工具带来的风险。这种做法表明 ,AI资产清单不仅是防御性措施
,更是推动企业安全使用AI
,在这场人工智能革命中取得竞争优势的的战略举措
。