人工智能安全态势管理 (AI-SPM)

获得对模型、GenAI 和人工智能供应链的可视性和控制。在新的攻击载体现身之前就加以阻止。
AI Security Posture Management
Adoption of artificial intelligence (AI)
重要意义

人工智能/机器学习的快速采用导致模型损坏、人工智能模型滥用和不必要的数据暴露。


阅读了解我们的人工智能安全方法。 阅读博客

  • 新的人工智能攻击载体

    实施新的管道和基础设施,再加上缺乏统一的可视性,使企业很容易受到新的攻击。

  • 应对模型泛滥问题

    缺乏人工智能盘点会导致影子人工智能模型、违反合规性以及人工智能应用程序产生的数据外泄。

  • 缺乏监管

    以人工智能为重点的新立法要求对人工智能的使用和输入到人工智能应用程序中的客户数据进行严格控制。

深层优势

保护和控制人工智能基础设施、使用和数据

最大限度发挥人工智能和大型语言模型 (LLM) 的变革性优势,同时避免给您的企业带来风险。Prisma® Cloud AI 安全态势管理 (AI-SPM) 可让您了解并控制人工智能安全的三个关键组成部分 — 用于训练或推理的数据、人工智能模型的完整性以及对已部署模型的访问

  • 检测不安全或未经授权的模型使用。
  • 降低人工智能系统暴露数据的风险。
  • 确保遵守当前和即将出台的法规。

    Protect and control AI infrastructure, usage and data

    信息图:人工智能风险分析

    • 训练数据分类
    • 模型访问监管
    • 实时模型盘点
    • 防止滥用人工智能
    • 人工智能攻击路径分析

    我们的 AI 安全方法

    Prisma Cloud 解决方案

    人工智能应用生态系统的可视性

    发现所有人工智能应用、模型和相关资源。识别并追踪应用程序中使用的人工智能组件来源。

    • 发现人工智能应用堆栈

      发现所有人工智能应用、模型和相关资源。

    • 人工智能溯源

      识别并追踪应用程序中使用的人工智能组件和数据源的来源。

    • 模型盘点

      对部署的人工智能模型进行编目并识别更新。

    Discover, protect and govern AI and data
    AI Model Risk Analysis

    人工智能模型风险分析

    识别人工智能供应链中的漏洞,发现可能导致操纵、滥用和盗窃的错误配置模型和相关云资源。

    • 防止模型受损和被盗

      通过识别对手的风险来创造同等功能。

    • 查找错误配置

      通过减少权限过高的计算实例和模型。

    • 避免不安全的插件设计

      通过识别权限过高和易受攻击的代理/工作负载。

    跨模型资源的数据安全

    操纵模型数据会带来漏洞和偏差,暴露数据,并导致数据隐私侵犯、合规性风险和安全风险。

    • 对人工智能堆栈进行分类

      识别为人工智能模型提供支持的训练数据和参考数据、库、API 以及数据管道中存在的敏感数据。

    • 监控敏感数据

      监控和管理数据暴露、中毒风险、隐私侵犯和安全漏洞。

    • 确定漏洞的优先次序

      在托管着访问敏感数据的人工智能的基础设施中。

    Real-time detection and response

    深受全球创新者信赖

    了解这些客户如何利用 Prisma Cloud 强化数据安全

    向人工智能专家申请演示。

    您最感兴趣的功能是什么?

    请填写验证码以提交表单。
    提交此表单即表示您同意我们的条款。查看我们的隐私声明。

    资料来源

    Data Security Tip Sheet, Palo Alto Networks, 2023 年 8 月; Palo Alto Networks Prisma Cloud 的总体经济影响™, Forrester Consulting, 2023 年 11 月。