据BleepingComputer消息 ,微软云安全公司 Wiz 近期披露,人工微软人工智能研究部门在向公共 GitHub 存储库贡献开源人工智能学习模型时意外泄露了38 TB 的团队敏感数据。 Wiz 的意外安全研究人员发现
,一名微软员工无意中共享了因配置错误而泄露敏感信息的泄露 Azure Blob 存储桶URL
。 微软认为这是敏感由于使用过于宽松的免费模板共享访问签名(SAS)令牌,该令牌能对共享文件进行完全的数据控制,进而能以不可监控和撤销的微软方式进行数据共享 。Wiz的人工研究人员警告称,由于缺乏监控和治理,团队SAS 令牌存在安全风险,云计算意外应尽可能限制其使用
,泄露由于微软没有提供在 Azure中集中管理的敏感方式
,这些令牌非常难以跟踪。数据 Wiz发现,微软泄露的信息包括属于微软员工的个人信息备份、微软服务密码以及来自 359 名 微软员工共计 3万多条内部 Microsoft Teams 消息的服务器租用存档。 在9月18日发布的一份通报中
,微软安全响应中心(MSRC)团队表示没有客户数据被泄露,也没有其他内部服务因此次事件而面临危险。 Wiz 于 2023 年 6 月 22 日向 MSRC 报告了该事件,MSRC 撤销了 SAS 令牌以阻止对 Azure 存储帐户的所有外部访问,从而于 2023 年 6 月 24 日缓解了该问题。模板下载 Wiz 首席技术官兼联合创始人 Ami Luttwak 向BleepingComputer表示,人工智能为科技公司释放了巨大的潜力。然而,随着数据科学家和工程师竞相将新的人工智能解决方案投入生产,他们处理的大量数据需要额外的安全检查和保障措施。源码下载 就在1年前,2022 年 9 月,威胁情报公司 SOCRadar发现了另一个微软配置错误的 Azure Blob 存储桶,其中包含存储在 2017 年至 2022 年 8 月文件中的敏感数据
,这些数据与来自全球 111 个国家和地区的 65000 多个实体存在关联。