owasp发布大型语言模型漏洞威胁top10,请登录后台后到seo选项里设置网页标题-尊龙在线登录

发表时间: 2023-06-12 16:01:45

作者: 天津恒御科技有限公司

浏览:


基于大型语言模型(llm)的生成式ai技术应用已经成为当前全球企业普遍关注的热点。作为一种创新技术,企业组织在未来数字化发展中有很多机会应用chatgpt或类似ai工具。因此,ciso们需要提前做好准备,以避免可能出现的安全隐患和隐私泄露风险。


日前,owasp(全球开放应用软件安全项目组织)发布了llm应用风险草案清单,并梳理总结了最严重的10大lmm应用安全漏洞类型,包括提示注入、数据泄漏、不充分的沙箱机制和未经授权的代码执行等。owasp研究人员表示,这份清单旨在让llm应用的开发者、设计者、架构师和管理者,更好地了解在部署和管理llm应用过程中可能存在的潜在风险,并提高漏洞防范认识,从而改善llm未来应用中的安全态势。


01

提示注入(llm01:2023)


提示注入是指通过精心制作的提示绕过内容监管过滤,使其忽略先前的指令或执行非法的操作。这类漏洞可能导致意想不到的后果,包括数据泄露、未经授权的访问或其他安全隐患。常见的提示注入漏洞包括:通过使用特定的语言模式或token绕过过滤器或限制,利用llm的文本分词或编码机制中的弱点,以及通过提供欺骗性上下文误导llm执行意外操作。


防护建议


针对该类型漏洞的预防措施包括:


  • 对用户提供的提示执行严格的输入验证和净化。
  • 使用上下文感知过滤和输出编码来防止提示操纵。
  • 定期更新和微调llm,以提高理解恶意输入和极端情况的能力。


02

数据泄漏(llm02:2023)


当llm通过其响应意外泄露敏感信息、专有算法或其他机密资料时,就会发生数据泄漏。这可能导致未经授权访问敏感数据、侵犯个人隐私及其他安全隐患。


常见的数据泄露漏洞包括:对llm响应中的敏感信息过滤不完整或不恰当,记忆llm训练过程中的敏感数据,以及因llm算法错误而导致机密信息的意外泄露。攻击者可以通过精心设计的提示来故意探测llm,试图提取llm凭训练数据所记忆的敏感信息,或者合法用户无意中向llm提出的包含机密信息的提问。


防护建议


针对该类型漏洞的预防措施包括:


  • 实施严格的输出过滤和上下文感知机制,以防止llm泄露敏感信息。
  • 在llm训练过程中使用差分隐私技术或其他数据匿名化方法,以减小过拟合或记忆的风险。
  • 定期审计和审查llm的响应,以确保敏感信息不会无意中泄露。


03

不充分的沙箱机制(llm03:2023)


如果llm在访问外部资源或敏感系统时未加适当隔离,不充分的沙箱机制就会导致潜在的漏洞、未经授权的访问或llm违规操作。和不充分的沙箱机制相关的常见漏洞包括:llm环境与其他关键系统的数据存储区隔离不足,不充分的限制任由llm访问敏感资源,以及llm执行系统级操作/与其他进程交互。


防护建议


针对该类型漏洞的预防措施包括:


  • 将llm环境与其他关键系统和资源隔离开来。
  • 限制llm对敏感资源的访问,并将访问功能限制在最低限度。
  • 定期审计和审查llm的环境和访问控制,以确保保持适当的隔离。


04

未经授权执行代码(llm04:2023)


当攻击者通过自然语言提示利用llm在底层系统上执行恶意代码、命令或操作时,就会发生未经授权的代码执行。典型的攻击类型包括:攻击者设计提示以指令llm执行命令,该命令在底层系统上启动反向shell,从而授予攻击者未经授权的访问权限;llm无意中被允许与系统级api进行交互,攻击者操纵该api在系统上执行未经授权的操作。


防护建议


针对该类型漏洞的预防措施包括:


  • 实施严格的输入验证和净化流程,以防止llm处理恶意或意外的提示。
  • 确保适当的沙箱机制,并限制llm的功能,以限制其与底层系统交互的能力。


05

服务器请求伪造(llm05:2023)


当攻击者利用llm执行意外请求或访问受限制的资源(比如内部服务、api或数据存储)时,就会出现服务器请求伪造(ssrf)漏洞。常见的ssrf漏洞包括:输入验证不足,允许攻击者操纵llm提示发起未经授权的请求,以及网络或应用安全设置中的错误配置将内部资源暴露给llm。为了执行攻击,攻击者还可以设计提示,指令llm向内部服务发出请求,绕过访问控制,并获得对敏感信息未经授权的访问。


防护建议


针对该类型漏洞的预防措施包括:


  • 实施严格的输入验证和净化策略,防止通过恶意输入发起未经授权的请求。
  • 定期审计和审查网络/应用软件安全设置,以确保内部资源不会无意中暴露给llm。


06

过度依赖模型生成的内容(llm06:2023)


过度依赖llm生成的内容是指组织和用户未经验证就信任llm生成的内容,从而导致不正确的误导信息大量传播,降低人在决策中的参与度,并弱化批判性思考。与过度依赖llm生成的内容相关的常见问题包括:未经验证就接受llm生成的内容,以为llm生成的内容没有偏误或错误信息,以及在没有人参与或监督的情况下依赖llm生成的内容用于关键决策。


如果一家公司依赖llm生成安全报告和分析,而llm生成的报告含有大量的不正确数据,那么如果企业依赖这份由llm生成的内容进行关键决策,就可能会酿成重大后果。网络安全分析师称这种现象为llm幻觉。


防护建议


针对该类型漏洞的预防措施包括:


  • 对llm生成的内容进行充分验证;
  • 严格限制使用那些未经验证的llm生成内容;
  • 定期开展llm生成内容的安全风险审计。


07

对llm目标和行为对齐不足(llm07:2023)


当企业的llm应用行为与预期中的应用目标不一致时,就会导致不良的应用后果或安全漏洞,这种漏洞被称为ai应用对齐不足。常见问题包括:定义不明确的目标导致llm优先考虑了那些不良或有害的行为,不一致的奖励机制引发意想不到的模型行为,以及对llm行为测试和验证不足。如果旨在协助系统管理任务的llm出现未对齐漏洞,就可能会执行有害的命令或降低系统的安全防护级别。


防护建议


针对该类型漏洞的预防措施包括: 


  • 在设计和开发过程中明确定义llm的目标和预期行为。
  • 确保奖励机制和训练数据与预期结果相一致,不鼓励任何有害的违规行为。
  • 定期测试和验证llm在众多场景、输入和上下文中的行为,以识别和解决对齐问题。


08

不完善的访问控制(llm08:2023)


这种漏洞是指llm在应用中未正确实施访问控制或身份验证,允许未经授权的用户与 llm 进行交互,从而产生可被利用的安全漏洞。常见例子包括:未对访问llm执行严格的身份验证要求,基于角色的访问控制(rbac)实施不充分,允许用户执行超出预期权限的操作,以及未为llm生成的内容和操作提供适当的访问控制。


防护建议


针对该类型漏洞的防护措施包括:


  • 实施强身份验证机制,比如多因素身份验证(mfa);
  • 应确保只有授权用户才能访问llm;
  • 对llm生成的内容和操作实施适当的访问控制,以防止未经授权的操作。


09

不恰当的错误处置(llm09:2023)


错误处置漏洞主要指由于lmm的错误处置或调试信息被公开暴露,从而导致了向威胁分子泄露敏感信息、系统资料或潜在攻击途径。常见的错误处置漏洞包括:通过错误消息暴露敏感信息或系统资料,泄露可能帮助攻击者识别潜在漏洞或攻击途径的调试信息,以及未能有效处理应用中的错误,从而可能导致意外行为或系统崩溃。


防护建议


针对该类型漏洞的预防措施包括:


  • 实施适当的错误处理机制,以确保错误被及时地获取、记录和处理。
  • 确保错误消息和调试信息中不包含敏感信息或系统资料,同时考虑使用通用的错误消息,为开发者和管理员记录详细的错误数据。


10

训练数据中毒(llm10:2023)


训练数据中毒是指攻击者操纵llm的训练数据或微调程序,以引入漏洞、后门或偏误,从而危害模型的安全性、有效性或道德。常见的训练数据中毒问题包括:通过恶意操纵训练数据向llm引入后门或漏洞,以及向llm注入诱导数据,导致llm生成有偏差或不适当的响应。


防护建议


针对该类型漏洞的防护措施包括: 


  • 从可信来源获取训练数据并验证其质量,确保训练数据的完整性。
  • 实施可靠的数据净化和预处理技术,以消除训练数据中的潜在漏洞或欺骗内容。
  • 使用监测和警报机制来检测llm中的异常行为或安全问题,这些问题可能会帮助企业及时发现训练数据中毒。


owasp发布大型语言模型漏洞威胁top10
基于大型语言模型(llm)的生成式ai技术应用已经成为当前全球企业普遍关注的热点。作为一种创新技术,企业组织在未来数字化发展中有很多机会应用chatgpt或类似
长按图片保存/分享
0

客户服务热线

022-23709999

 

©2021 尊龙登录的版权天津恒御科技有限公司所有  备案号:

电话:022-2370 9999        传真:022-8782 0620

公司地址:天津市和平区张自忠路240号港湾中心1201室     

 

服务号

订阅号

添加微信好友,详细了解产品
使用企业微信
“扫一扫”加入群聊
复制成功
添加微信好友,详细了解产品
网站地图