是一家多云公司的联合创始人兼首席执行官 保密计算平台。
生成式人工智能有可能改变一切。它可以为新产品、新公司、新行业甚至新经济提供信息。但它与“传统”人工智能的不同之处,也可能使它变得危险。
它独特的创造能力引发了一系列全新的安全和隐私问题。
企业突然不得不问自己新的问题:我是否有权使用培训数据?对模特来说?输出?系统本身对未来创建的数据有权利吗?该系统的权利如何受到保护?我如何使用生成式人工智能来管理模型中的数据隐私?这样的例子不胜枚举。
毫不奇怪,许多企业都在轻举妄动。明显的安全和隐私漏洞,再加上依赖现有的权宜之计解决方案的犹豫,迫使许多人这样做。但还是有希望的。
机密计算——一种数据安全的新方法,在使用时保护数据并确保代码完整性——是大型语言模型(llm)更复杂和更严重的安全问题的答案。它准备帮助企业在不影响安全的情况下充分利用生成式人工智能。在我解释之前,让我们先看看是什么让生成人工智能变得特别脆弱。
生成式人工智能有能力将整个公司的数据,甚至是一个知识丰富的子集,纳入一个可查询的智能模型,从而随时提供全新的想法。这具有巨大的吸引力,但它也使企业很难保持对其专有数据的控制,并保持符合不断变化的监管要求。
这种知识的集中和随后的生成结果,如果没有足够的数据安全和信任控制,可能会无意中使生成人工智能成为滥用、盗窃和非法使用的武器。
事实上,越来越多的员工将机密商业文件、客户数据、源代码和其他受监管的信息提交给llm。由于这些模型部分是根据新的输入进行训练的,这可能会导致知识产权的重大泄露。如果模特本身受到损害,公司在法律上或合同上有义务保护的任何内容也可能泄露。在最坏的情况下,窃取模型及其数据将允许竞争对手或民族国家行为者复制所有内容并窃取数据。
这些都是高风险。Gartner表示,41%的组织经历过人工智能隐私泄露或安全事件,其中一半以上是内部方数据泄露的结果。生成式人工智能的出现必然会增加这些数字。
另外,企业在投资生成式人工智能时也需要跟上不断变化的隐私法规。各行各业都有责任和动机遵守数据要求。例如,在医疗保健领域,人工智能驱动的个性化医疗在改善患者治疗效果和整体效率方面具有巨大潜力。但医疗服务提供者和研究人员将需要访问和处理大量敏感的患者数据,同时还要保持合规,这带来了一个新的困境。
为了应对这些挑战,以及其他将不可避免地出现的挑战,生成式人工智能需要一个新的安全基础。保护训练数据和模型必须成为重中之重;加密数据库中的字段或表单上的行已经不够了。
在生成人工智能结果用于重要决策的场景中,代码和数据的完整性以及它所传达的信任的证据对于合规性和潜在的法律责任管理都是绝对关键的。必须有一种方法为整个计算及其运行状态提供严密的保护。
“机密”生成人工智能的出现
机密计算提供了一种简单而强大的方法来解决看似棘手的问题。使用机密计算,数据和IP与基础设施所有者完全隔离,并且只能由运行在可信cpu上的可信应用程序访问。通过加密确保数据隐私,即使在执行过程中也是如此。
数据安全和隐私成为云计算的固有属性,以至于即使恶意攻击者破坏了基础设施数据,IP和代码也完全不可见。这对于生成式人工智能来说是完美的,可以降低其安全性、隐私性和攻击风险。
作为安全游戏规则的改变者,机密计算越来越受到关注。每个主要的云提供商和芯片制造商都在投资它,AWS和GCP都宣称它的功效。现在,同样的技术,即使是最坚定的云计算反对者也可以成为帮助生成人工智能安全起飞的解决方案。领导者必须开始认真对待它,并理解它的深远影响。
通过保密计算,企业可以确保生成式人工智能模型只学习他们打算使用的数据,而不是其他数据。跨云可信源网络的私有数据集训练提供了完全的控制和安心。所有的信息,无论是输入的还是输出的,都是完全受保护的,都在公司自己的四面墙后面。