什么是大型语言模型 (LLM)?

大型语言模型 (LLM) 是一种前沿的自然语言处理 (NLP) 开发成果,旨在理解和生成人类语言。LLM 是在大量文本数据基础上训练出来的高级人工智能模型,使其能够识别语言模式、理解上下文,并做出连贯且与上下文相关的回应。NLP 为机器处理语言提供了基础技术,而 LLM 则代表了一种专门的方法,大大增强了机器模拟人类语言理解和生成的能力。

 

目前有哪些 LLM?

LLM 代表了自然语言处理的前沿领域,目前有几种模型在该领域占据主导地位,包括谷歌的双子座、Meta 的 Galactica 和 Llama、OpenAI 的 GPT 系列,以及 Falcon 40B 和 Phi-1 等其他模型。通过不同的架构和参数大小,这些模型在回答查询、生成连贯且与上下文相关的长篇文本等任务中表现出色。

谷歌推出的 BERT凭借其基于变压器的架构奠定了基础。另一方面,新近加入的《Meta's Galactica》明确将矛头指向科学界,并因产生可能对科学领域产生深远影响的误导性 "幻觉 "而受到审查。与此同时,OpenAI 的 GPT 系列,尤其是 GPT-3 和 GPT-4 的能力也具有突破性,据传后者包含超过 170 万亿个参数,并具备处理文本和图像的能力。这一模型的卓越性能引发了人们对人工通用智能(AGI)的猜测,AGI 是一种理论上可以与人类智能相媲美甚至超越人类智能的机器能力。

然而,挑战依然存在。这些模型的大规模和复杂性可能导致无法预测的输出结果,其巨大的培训要求也引发了人们对环境可持续性和结果偏差的担忧。

不过,尽管存在担忧,LLM 的发展有望推动各行各业的进步--从改进网络搜索等普通任务到医学研究和网络安全等关键领域。随着该领域的发展,潜力与谨慎之间的平衡仍然至关重要。

 

LLM 如何工作

为了出色地理解和生成类人语言,LLM 结合使用了神经网络、庞大的训练数据集和一种名为转换器的架构。

神经网络

大型语言模型的核心是具有多层的神经网络,即深度学习模型。这些网络由相互连接的节点或神经元组成,它们在训练阶段学习识别输入数据中的模式。LLM 在大量文本(包括网站、书籍和文章等不同来源)中接受训练,从而学习语法、句法、语义和上下文信息。

神经网络以旨在识别模式的算法为基础,通过一种 机器感知、标记或对原始输入进行聚类的方式来解释感官数据。神经网络的架构从简单的前馈网络(节点之间的连接不会形成循环),到复杂的结构(具有复杂的层级和多个反馈回路),不一而足。

  • 卷积神经网络(CNN):这对于处理网格状拓扑结构的数据尤为有效。例如,图像数据可以看作是由像素组成的二维网格。

  • 递归神经网络(RNN):它们适用于文本和语音等顺序数据。每一步的输出都取决于之前的计算结果,以及对目前已处理内容的某种记忆。

Transformer 架构

Transformer 架构是 LLM 的重要组成部分,由 Vaswani 等人于 2017 年提出。。Transformer 解决了早期序列模型(如 RNN 和 LSTM)的局限性,这些模型在长程依赖性和并行化方面存在困难。。Transformer 采用了一种称为 "自我关注"(self-attention)的机制,使模型能够权衡输入上下文中不同词语的重要性,并捕捉它们之间的关系,而不管它们在序列中的距离有多远。

标记化

标记化是使用 LLM 处理文本的第一步。输入文本被分解成称为词块的较小单元,然后转换成神经网络可以处理的数字表示(向量)。在训练过程中,该模型学会根据输入词组及其关系生成与上下文相符的输出词组。

训练过程包括通过一种名为反向传播的技术来调整神经网络连接的权重。通过最小化模型预测与训练数据中实际目标词块之间的差异,模型学会生成更准确、更连贯的语言。

大型语言模型经过训练后,可在特定任务或领域(如情感分析、总结或问题解答)中进行微调,方法是在较小的、特定任务的数据集上对模型进行短期训练。这一过程使 LLM 能够根据目标任务的细微差别和要求调整其广义语言理解。

相关文章 人工智能解析

 

LLM 的优势

大型语言模型具有多种优势,包括

  1. 高级自然语言理解:LLM 可以理解语言的上下文和细微差别,使他们的回答更贴切、更像人。
  2. 多功能性:LLM 可应用于各种任务,如文本生成、摘要、翻译和问题解答,而不需要特定任务的训练。
  3. 翻译:接受过多种语言培训的 LLM 可以有效地在不同语言之间进行翻译。一些理论认为,它们甚至可以根据模式从未知或失传的语言中推导出含义。
  4. 日常任务自动化:LLM 可以执行与文本相关的任务,如摘要、重新措辞和生成内容,这对企业和内容创作者尤其有用。
  5. 新兴能力:由于 LLM 接受了大量数据的训练,因此它们可以表现出意想不到但又令人印象深刻的能力,例如多步运算、回答复杂问题和生成思维链提示。
  6. 调试和编码:在网络安全领域,与传统方法相比,LLM 可以更快地协助编写和调试代码。
  7. 威胁模式分析:在网络安全方面,LLM 可以识别与高级持续威胁相关的模式,帮助事件归因和实时缓解。
  8. 响应自动化:在安全运营中心,LLM 可以自动响应、生成脚本和工具,并协助撰写报告,从而减少安全专业人员在日常任务上花费的时间。

尽管有这些好处,但必须记住,LLM 也有缺点和道德方面的考虑,必须加以控制。

 

LLM 面临的挑战

虽然人们很容易被 LLM 令人印象深刻的语言能力所带来的好处所吸引,但组织也必须意识到并准备好应对随之而来的潜在挑战。

业务挑战

  1. 幻觉:LLM 有时会产生奇怪的、不真实的输出,或者给人一种有知觉的印象。这些输出并非基于模型的训练数据,被称为 "幻觉"。
  2. 偏见:如果 LLM 是在有偏见的数据基础上训练出来的,那么它的输出结果可能会对某些群体、种族或阶层产生歧视或偏见。即使在培训后,偏差也会根据用户的互动而发生变化。微软的 Tay 就是一个臭名昭著的例子,它说明了偏见是如何表现和升级的。
  3. 突变代币或对抗性实例:这些特定的输入会使模型产生错误或误导性的输出结果,实际上导致模型 "失灵"。
  4. 缺乏可解释性:要了解 LLM 如何做出特定决策或产生特定输出可能很有难度,因此很难排除故障或改进它们。
  5. 过度依赖:随着 LLM 越来越多地融入各行各业,存在过度依赖的风险,有可能使人类的专业知识和直觉靠边站。

 

LLM 使用案例和部署选项

LLM 为组织提供了许多可选的实施模式,每种模式都依赖于不同的工具集和相关的安全影响。  

使用预先训练的 LLM

OpenAI 和 Anthropic 等云提供商提供 API 访问功能强大的 LLM,并由它们进行管理和保护。组织可以利用这些应用程序接口将 LLM 功能纳入其应用程序,而无需管理底层基础设施。 

另外,开源 LLM(如 Meta 的 LLaMa)可以在组织自己的基础设施上运行,提供更多的控制和定制选项。缺点是,开源 LLM 需要大量计算资源和人工智能专业知识才能安全实施和维护。

LLMs 部署模式

  • 基于应用程序接口的 SaaS:基础设施由 LLM 开发者(如 OpenAI)提供和管理,并通过公共 API 进行配置。
  • 由 CSP 管理:LLM 部署在云超标提供商提供的基础设施上,可以在 Azure、OpenAI 和 Amazon Bedrock 等私有云或公有云中运行。
  • 自我管理:LLM 部署在公司自己的基础设施上,这只与开源或自制模式有关。

经过预先训练的 LLM 可提供各种功能--内容生成、聊天机器人、情感分析、语言翻译和代码助手。电子商务公司可以使用 LLM 生成产品描述,而软件开发公司则可以利用 LLM 驱动的编码助手来提高程序员的工作效率。

与预训练 LLM 有关的安全问题

便捷的云应用程序接口和开源模型的出现,大大降低了为应用程序添加高级人工智能语言功能的门槛。现在,开发人员无需具备人工智能和 ML 方面的深厚专业知识,就能将 LLM 插入其软件中。这在加速创新的同时,也增加了缺乏适当安全和合规性监督的影子人工智能项目的风险。与此同时,开发团队可能会在未充分考虑数据隐私、 模型管理和输出控制问题的情况下尝试使用 LLM。 

微调和检索增强生成(RAG)

为了针对特定应用定制 LLM,组织可以在与所需任务相关的较小数据集上对其进行微调,或者实施 RAG,这涉及将 LLM 与知识库整合,以进行问题解答和内容摘要。 

这些用例包括可访问内部数据的专门人工智能助手(如用于客户支持、人力资源或 IT 服务台)和问答应用程序(如用于文档、代码存储库或培训材料)。例如,电信公司的客户服务聊天机器人可以根据产品文档、常见问题或过去的支持互动进行微调,以更好地帮助客户解决技术问题和进行账户管理。

与微调和 RAG 有关的安全影响

微调和 RAG 使组织能够根据其特定领域和数据调整 LLM,从而实现更有针对性和更准确的产出。不过,这种定制过程往往会在训练过程中暴露模型的敏感内部信息。要求采取强有力的数据管理措施,以确保只有经授权的数据才能用于微调,并确保由此产生的模型是安全的。

模型培训

一些大型科技公司和研究机构选择投资培养自己的 LLM。虽然这是一个高度资源密集型的过程,需要庞大的计算能力和数据集,但它使组织能够完全控制模型架构、训练数据和优化过程。此外,该组织对由此产生的模型拥有完全的知识产权。

通过模型训练,可以实现药物发现、材料科学或自主系统等高级应用。例如,医疗保健组织可以开发一个模型,帮助从医疗记录和成像数据中诊断疾病。

与模型培训有关的安全问题

在处理复杂的黑箱模型时,如何保持模型行为的可问责性和可审计性?培训过程本身需要消耗大量的计算资源,因此需要对培训环境进行严格的隔离和访问控制,以防止滥用或干扰。首先,组织必须建立高性能计算基础设施,并对海量数据集进行精心整理,这可能会带来新的安全挑战。

 

‍LLM 安全问题

在企业环境中部署大型语言模型的一个主要顾虑是,在训练过程中可能会包含敏感数据。一旦数据被纳入这些模型,要准确辨别哪些信息被输入了这些模型就变得非常困难。考虑到用于培训的数据来源众多,而且有不同的人可以访问这些数据,这种缺乏可见性的情况可能会造成问题。

确保数据源的可视性,并严格控制谁可以访问这些数据源,对于防止机密信息的无意泄露防护至关重要。

另一个令人担忧的问题是,在网络攻击中可能会滥用 LLM。恶意行为者可以利用 LLM 制作有说服力的网络钓鱼电子邮件,欺骗个人并在未经授权的情况下访问敏感数据。这种方法被称为社会工程学,有可能创造出引人入胜的欺骗性内容,使数据保护面临的挑战升级。

如果没有严格的访问控制和保障措施,发生重大 数据泄露 的风险就会增加,恶意行为者就有能力轻而易举地传播错误信息、宣传或其他有害内容。

虽然 LLM 有着近乎无限的积极应用,但它们也蕴藏着创建恶意代码的潜力,绕过了防止此类行为的传统过滤器。这种易受攻击性可能会导致一个新的网络威胁时代的到来,在这个时代, 数据泄露 不仅仅是窃取信息,而是生成危险的内容和代码。

例如,如果受到操纵,LLM 可以生成恶意软件、脚本或工具,从而危及整个系统。它们 "悬赏黑客 "的潜力引起了网络安全领域的警觉,这表明可能会发现实现其目标的意外方法,从而导致意外访问或获取 敏感数据

随着我们越来越依赖于乐虎国际手机版下载应用,组织和个人必须对这些新出现的威胁保持警惕,做好随时保护数据的准备。

确保法律硕士远离 OWASP 的顶级安全风险
图 1:确保 LLM 远离 OWASP 的顶级安全风险

 

OWASP 十佳:LLM 的安全风险

传统的应用程序漏洞给 LLM 带来了新的安全风险。但是,OWASP 一如既往,及时发布了 OWASP 十大 LLM 安全风险 ,提醒开发人员注意新的机制,并需要针对使用 LLM 的应用程序调整传统的补救策略。

LLM01:及时注射

提示注入可以通过狡猾的输入操纵大型语言模型,使 LLM 执行攻击者的意图。通过直接注入,坏人会覆盖系统提示。通过间接提示注入,攻击者可以操纵来自外部的输入。这两种方法都可能导致 数据外泄、社交工程和其他问题。

LLM02:不安全的输出处理

不安全的输出处理是一个漏洞,当 LLM 输出未经审查就被接受时,就会暴露后端系统。当下游组件未经有效审查就盲目接受 LLM 输出时,就会出现这种情况。滥用会导致网络浏览器中的跨站点脚本 (XSS) 和跨站点请求伪造 (CSRF),以及后端系统上的服务器端请求伪造 (SSRF)、权限升级和远程代码执行。

LLM03:训练数据中毒

当通过 Common Crawl、WebText、OpenWebText、书籍和其他来源篡改 LLM 训练数据时,就会出现训练数据中毒现象。这种操纵会引入后门、漏洞或偏差,从而危及 LLM 的安全性,导致性能下降、下游软件被利用以及声誉受损。

LLM04:拒绝服务模型

当攻击者利用 LLM 触发资源密集型操作,导致服务质量下降和成本增加时,就会发生模型拒绝服务。由于 LLM 的高要求和用户输入的不可预测性,这种脆弱性更加严重。在拒绝服务模型场景中,攻击者以要求过多资源的方式与 LLM 交战,导致攻击者和其他用户的服务质量下降,同时可能产生大量资源支出。

LLM05:供应链脆弱性

LLM 的供应链漏洞会危及训练数据、ML 模型和部署平台,造成安全漏洞或系统全面瘫痪。易受攻击的组件或服务可能来自中毒的训练数据、不安全的插件、过时的软件或易受影响的预训练模型。

LLM06:敏感信息披露

LLM 应用程序可能会暴露敏感数据、机密信息和专有算法,导致未经授权的访问、知识产权盗窃和 数据泄露。为降低这些风险,LLM 应用程序应采用数据净化、实施适当严格的用户策略,并限制 LLM 返回的数据类型。

LLM07:不安全的插件设计

插件可能由不安全的输入和不充分的 访问控制组成,使其容易受到恶意请求,从而导致 数据外渗、远程代码执行和权限升级。开发人员必须遵守严格的参数化输入和安全访问控制准则,以防止被利用。

LLM08:机构过多

过度代理是指基于 LLM 的系统采取的行动会导致非故意的后果。这种脆弱性源于赋予 LLM 过多的自主权、过强的功能性或过多的权限。开发人员应将插件功能限制在绝对必要的范围内。它们还应跟踪用户授权情况,要求所有操作都必须经过人工批准,并在下游系统中实施授权。

LLM09:过度依赖

如果人类用户或系统过度依赖本地语言管理器,而又没有提供适当的监督,本地语言管理器就会产生不恰当的内容。LLM09 的潜在后果包括错误信息、安全漏洞和法律问题。

LLM10:盗窃模型

LLM 模型盗窃涉及未经授权访问、复制或外泄专有 LLM。模型失窃会造成经济损失和竞争优势的丢失,还会造成声誉受损和敏感数据的未经授权访问。各组织必须执行严格的安全措施,以保护其专有的 LLM。

 

大语言模型常见问题

要保护 LLM 的安全,需要实施多方面的安全措施,包括强大的访问控制、通过网络分段和安全沙箱限制网络资源访问、持续的资源监控以及对日志和 LLM 相关活动的例行审计。
LLM 模型结构以转换器架构为基础,利用自我关注机制处理和生成数据序列。
在构建大型语言模型的初始阶段,需要收集大量文本数据进行训练,并将其分割成较小的数据单元(称为标记),以便于更顺利地处理和学习。

NLP 是人工智能和语言学的一个子领域,主要研究如何让计算机理解、解释和生成人类语言。NLP 包括情感分析、机器翻译、文本摘要和命名实体识别等多种任务。NLP 技术通常涉及计算算法、统计建模和机器学习,以处理和分析文本数据。

LLM 是一种深度学习模型,具体来说是一种神经网络,旨在大规模处理 NLP 任务。GPT-3 和 BERT 等 LLM 在大量文本数据的基础上进行训练,以学习复杂的语言模式、语法和语义。这些模型利用一种称为转换器架构的技术,能够捕捉语言中的长距离依赖关系和上下文信息。

NLP 与 LLM 的主要区别在于,NLP 是一个更广泛的领域,包含处理人类语言的各种技术和方法,而 LLM 则是一种特定类型的神经网络模型,专为高级 NLP 任务而设计。与传统的 NLP 方法相比,LLM 在理解和生成类人语言方面具有更高的性能和能力,是 NLP 领域中最先进的方法。

机器学习中的训练模型指的是开发一种数学表示法的过程,这种表示法可以根据输入数据做出预测或决策。通过向模型提供标注的训练数据,模型可以学会识别模式、关系和特征,从而对以前未见过的数据进行归纳并做出准确的推断。训练过程包括反复调整模型参数,以尽量减少误差并提高性能。一旦模型达到令人满意的准确度和泛化能力,就可以部署它来解决现实世界中的问题,如图像识别、自然语言处理或客户行为预测。
人工智能(AI)是计算机科学的一个分支,主要研究如何创建能够模拟人类认知能力(如解决问题、模式识别和决策)的智能系统。通过利用算法、数据和计算能力,人工智能系统可以从经验中学习,适应新信息,并执行通常需要人类智能的任务。这些系统应用于各行各业,包括医疗保健、金融和制造业,实现了自动化,提高了生产率,并提供了创新的解决方案。
机器学习(ML)是人工智能的一个子领域,它涉及开发算法,使计算机能够在没有明确编程的情况下学习和改进特定任务的性能。通过处理和分析大型数据集,ML 模型可以识别模式、进行预测并提出见解,随着时间的推移,这些模型在接收到更多数据后会变得更加准确和高效。监督学习、无监督学习和强化学习等 ML 技术应用广泛,包括自然语言处理、图像识别和推荐系统。
生成式人工智能是人工智能的一个子集,侧重于通过从现有实例中学习来创建新的内容、数据或模式。这种形式的人工智能利用先进的机器学习技术,如生成式对抗网络(GAN)和变异自动编码器(VAE),生成与输入数据相似的、以前从未见过的输出结果。生成式人工智能的应用包括图像合成、文本生成和数据增强,可在艺术、设计、娱乐和数据科学等领域实现创新解决方案。

生成式对抗网络(GAN)是一类机器学习模型,旨在生成与给定数据集相似的新数据样本。GAN 由两个神经网络(生成器和鉴别器)组成,它们以竞争的方式同时接受训练。生成器创建合成样本,而鉴别器则对生成的样本进行评估,并将其与真实数据区分开来。

生成器通过试图欺骗鉴别器来持续改进其数据生成能力,而鉴别器则反过来改进其识别真实样本和生成样本的能力。这种对抗过程持续进行,直到生成的样本与真实数据几乎无差别,这使得 GAN 在图像合成、数据增强和风格转换等应用中特别有用。

变异自动编码器(VAE)是一种生成模型,它通过将输入数据编码到低维潜在空间,然后根据压缩表示重建数据,从而学会表示复杂的数据分布。VAE 由两个神经网络组成:一个编码器将输入数据映射到潜空间中的概率分布,另一个解码器从该分布中的采样点重建数据。

VAE 模型的训练目的是最小化重建误差和正则化项,正则化项鼓励学习到的分布与预定义的先验分布保持一致。VAE 能够通过解码从潜在空间采样的随机点生成新的数据样本,因此适用于图像生成、数据去噪和表示学习等应用。