根据思科2024年数据隐私基准研究,超分成式超过四分之一(27%)的企止员智组织出于隐私和数据安全风险的考虑
,暂时禁止在员工中使用生成式人工智能
。业禁用生 大多数组织还对此类工具实施了控制。工使近三分之二(63%)的人工受访者对可以输入的数据进行了限制
,61%的模板下载超分成式受访者对员工可以使用哪些GenAI工具进行了限制
。 尽管有这些限制,企止员智许多组织承认已经将敏感数据输入到生成人工智能应用程序中 。业禁用生其中包括内部流程的工使信息(62%)、员工姓名或信息(45%)
、人工有关公司的超分成式非公开信息(42%)以及客户名称或信息(38%) 。 大多数受访者(92%)认为生成式人工智能是高防服务器企止员智一种全新的技术,带来新的业禁用生挑战
,需要采用新技术来管理数据和风险 。工使 受访者对人工智能技术最大的人工担忧是
: 员工的人工智能账户泄漏和滥用也是企业面临的重大风险
。根据卡巴斯基的调查
,云计算大量被盗ChatGPT账户在暗网热销 ,对用户和公司构成重大威胁。 此外,ChatGPT等流行大语言模型的训练数据和生成数据还可能存在违反GDPR等数据保护法规的风险。 91%的安全和隐私专业人士承认,他们需要采取更多措施,建站模板让客户放心使用人工智能的数据。 然而
,思科的调研显示 ,下列帮助建立AI信任的工作中没有任何一项获得超过50%的受访者的采用: 思科首席法务官DevStahlkopf评论道:“超过90%的免费模板受访者认为人工智能需要新技术来管理数据和风险 。AI安全治理对建立客户信任至关重要。”