Prisma® AIRS™3.0 为确保企业人工智能整个生命周期的安全提供了全面的解决方案,并为安全部署自主代理提供了可视性、保证和运行时管理。
AI Model Security 可直接扫描环境中的模型,揭露恶意代码、后门和隐藏的风险。它可直接集成到您的 CI/CD 和 MLOps 工作流中,自动进行深度模型分析,让您从开发到部署都充满信心。
揭示第三方和专有模型中隐藏的威胁,包括恶意代码、后门和不安全的依赖关系。
利用全球威胁情报验证模型来源和组件,以降低来自受损或篡改来源的风险。
不论是内部模型或第三方模型,在每个模型应用基于风险的策略,确保只有可信、合规的模型才能进入下一发展阶段。
针对超过 25 种威胁类别(包括嵌入式恶意代码、后门及其他结构性风险),深入分析超过 35 种模型文件格式(涵盖 PyTorch、ONNX 和 TensorFlow 等),从而让模型不再是安全盲区。
利用 Palo Alto Networks Advanced WildFire® 以及来自 Huntr Ethical Hacker Community 的见解,在数百万扫描模型中针对已知和新兴威胁来验证模型。验证结果将被记录和保留下来,以便为审计和合规工作流程提供支持。
在环境中保留专有模型和数据,同时还能获得全面的安全分析,有助于降低知识产权暴露的风险,并简化合规性。
采用以 API 优先的集成方式,将模型扫描嵌入到构建、测试和部署的工作流中,这样既能实现持续的防护和统一的执行标准,又能免去安全团队与数据科学团队之间繁琐的人工工单流转。
我们正在以人工智能的速度进行创新。查看 Prisma AIRS AI Model Security 的最新功能和更新。
扫描 Artifactory 和 GitLab 中的模型 2026 年 1 月
为扫描应用自定义标签 2026 年 1 月
直接从云存储扫描模型 2026 年 1 月
扩展模型违规可见性和配置 2025 年 12 月
索取世界上最全面的人工智能安全平台的第一手演示。
提交此表格,即表示我了解我的个人数据将按照 Palo Alto Networks 隐私政策和使用条款进行处理。
Palo Alto Networks 专家将很快与您联系。期待尽快与您交流!