保密AI的支持与隐私安全
关键要点
Opaque Systems推出新功能,以保护组织数据的机密性,适用于大语言模型LLM使用。在Microsoft Azure的保密计算环境中,机构可以安全分析其机密数据,而无需暴露底层原始数据。保护敏感数据的机密性对企业使用LLM至关重要,避免安全和隐私风险。梯子免费加速图片来源 Cryteria / Insspirito
Opaque Systems宣布在其保密计算平台中推出新功能,以保护组织在使用大语言模型LLM时的数据机密性。通过新的隐私保护生成AI和为Microsoft Azure保密计算优化的零信任数据清洁房DCR,Opaque表示,组织现在能够安全分析其组合的机密数据,而无需共享或揭示底层原始数据。同时,保密AI用例的更广泛支持为机器学习和AI模型在受信执行环境TEE中使用加密数据提供了保障,防止未授权方的接触,根据Opaque的说法。
LLM使用带来的安全与隐私风险
与生成AI算法共享敏感业务信息的潜在风险早已被充分记录,影响LLM应用的漏洞也同样明显。尽管一些生成AI LLM模型,如ChatGPT,是基于公共数据进行训练的,但如果在组织的机密数据上进行训练,其有效性将大幅上升。然而,如果LLM提供商能够看到用户设定的查询,就可能使非常敏感的查询例如专有代码暴露出来,从而引发重大安全和隐私问题。Opaque Systems的产品副总裁Jay Harel向CSO表示,保护个人可识别信息PII和内部数据如销售数字的机密性对于在企业环境中扩展LLM的使用至关重要。
“Harel表示:“组织希望根据公司数据来微调他们的模型,但为此,他们必须将数据提供给LLM提供商或允许提供商在客户组织内部署专有模型。”此外,在训练AI模型时,无论数据的机密性或敏感性如何,训练数据都会被保留。如果主机系统的安全性受到威胁,可能导致数据泄露或落入不当之手。”
Opaque平台为敏感数据提供多层保护
通过在Opaque的保密计算平台上运行LLM模型,客户可以确保他们的查询和数据保持私密和保护永远不会被模型/服务提供商曝光或以未授权的方式使用,并且仅对授权方可访问,Opaque表示。“Opaque平台利用隐私保护技术来保障LLM的安全,结合多层保护措施抵御潜在的网络攻击和数据泄露,通过安全硬件区域和加密防护的强大组合,”Harel说。

例如,该解决方案允许生成AI模型在保密虚拟机CVM内部进行推理。他补充道:“这使得创建符合监管合规要求的安全聊天机器人成为可能。”