各类组织正越来越多地采用 AI,以提升其为利益相关方创造积极影响的速度与规模。虽然 AI 的使用是有益的,但它也开辟了一个新的攻击面,而传统的安全系统在设计上无法评估或防范新发现的威胁载体。
在开发这些 AI 系统的过程中,对其漏洞进行主动评估是一种更高效、更具成本效益的方法,可帮助开发人员构建最具影响力的 AI 应用程序,并在行业中获得显著的竞争优势。
Prisma® AIRS™AI Red Teaming 针对这些漏洞对特定 LLM 或基于 LLM 的应用程序进行推理测试。它可以测试应用程序是否正在生成非合规输出,或者智能体是否正在执行其设计意图之外的任务。