Prisma AIRS iconPrisma AIRS

AI Model Security

通过在选择或部署前对第三方模型和专有模型进行扫描,验证其供应链安全性,从而在保障知识产权的同时,不拖慢交付进度,实现对第三方模型和专有模型的评估与加固。


prisma airs
隆重推出 Prisma AIRS 3.0

Prisma® AIRS3.0 为确保企业人工智能整个生命周期的安全提供了全面的解决方案,并为安全部署自主代理提供了可视性、保证和运行时管理。

阻止隐藏的人工智能威胁

人工智能模型正在成为企业网络的新核心基础设施,但许多都是作为“黑盒”运行的。开源模式的快速采用带来了后门和中毒代码等隐藏威胁。而导出专有数据供外部扫描则会带来新的风险。安全团队要么通过人工审核阻碍创新,要么将未经验证的模型部署到生产中。

模型完全可见。全面的人工智能安全。

AI Model Security 可直接扫描环境中的模型,揭露恶意代码、后门和隐藏的风险。它可直接集成到您的 CI/CD 和 MLOps 工作流中,自动进行深度模型分析,让您从开发到部署都充满信心。

消除模型中的盲区

揭示第三方和专有模型中隐藏的威胁,包括恶意代码、后门和不安全的依赖关系。

保护人工智能供应链的安全

利用全球威胁情报验证模型来源和组件,以降低来自受损或篡改来源的风险。

执行一致的模型标准

不论是内部模型或第三方模型,在每个模型应用基于风险的策略,确保只有可信、合规的模型才能进入下一发展阶段。

将黑盒模型转化为值得信赖的资产

Prisma AIRS AI Model Security 会检查人工智能模型的每一层,这包括架构、权重、
操作人员和嵌入式代码,以发现隐藏的漏洞、恶意有效载荷
以及传统扫描仪无法发现的结构弱点。

深度威胁检测

针对超过 25 种威胁类别(包括嵌入式恶意代码、后门及其他结构性风险),深入分析超过 35 种模型文件格式(涵盖 PyTorch、ONNX 和 TensorFlow 等),从而让模型不再是安全盲区。

全球威胁情报

利用 Palo Alto Networks Advanced WildFire® 以及来自 Huntr Ethical Hacker Community 的见解,在数百万扫描模型中针对已知和新兴威胁来验证模型。验证结果将被记录和保留下来,以便为审计和合规工作流程提供支持。

现场模型扫描

在环境中保留专有模型和数据,同时还能获得全面的安全分析,有助于降低知识产权暴露的风险,并简化合规性。

无缝集成 MLOps

采用以 API 优先的集成方式,将模型扫描嵌入到构建、测试和部署的工作流中,这样既能实现持续的防护和统一的执行标准,又能免去安全团队与数据科学团队之间繁琐的人工工单流转。

最新产品更新

我们正在以人工智能的速度进行创新。查看 Prisma AIRS AI Model Security 的最新功能和更新。


其他模型来源

扫描 Artifactory 和 GitLab 中的模型

2026 年 1 月

自定义标签

为扫描应用自定义标签

2026 年 1 月

从云扫描

直接从云存储扫描模型

2026 年 1 月

自定义安全组

扩展模型违规可见性和配置

2025 年 12 月

联系我们的人工智能安全专家。

索取世界上最全面的人工智能安全平台的第一手演示。