从大语言模型到幻觉现象,AI常用术语简明指南

人工智能是一个深奥而复杂的领域。该领域的科学家们经常使用专业术语和行话来解释他们的研究工作。因此,我们在报道人工智能行业时也不得不使用这些技术术语。这就是为什么我们认为整理一份词汇表会很有帮助,为我们文章中使用的一些最重要的词汇和短语提供定义。

随着研究人员不断发现推动人工智能前沿的新方法,同时识别新出现的安全风险,我们将定期更新此词汇表以添加新条目。

AGI(通用人工智能)

通用人工智能(AGI)是一个模糊的概念。但它通常指在许多(如果不是大多数)任务上比普通人更有能力的AI。OpenAI首席执行官山姆·奥特曼最近将AGI描述为”相当于你可以雇佣作为同事的普通人”。与此同时,OpenAI的章程将AGI定义为”在大多数经济价值工作上超越人类的高度自主系统”。谷歌DeepMind的理解与这两个定义略有不同;该实验室将AGI视为”在大多数认知任务上至少与人类一样有能力的AI”。困惑了?别担心——处于AI研究前沿的专家们也是如此。

AI智能体

AI智能体是指使用AI技术代表您执行一系列任务的工具——超越了基本AI聊天机器人所能做的——比如整理费用、订票或餐厅预订,甚至编写和维护代码。然而,正如我们之前解释的,这个新兴领域有很多变动的部分,所以”AI智能体”对不同的人可能意味着不同的东西。基础设施仍在建设中,以实现其设想的能力。但基本概念意味着一个可能利用多个AI系统来执行多步骤任务的自主系统。

思维链

面对一个简单的问题,人脑可以不用过多思考就能回答——比如”长颈鹿和猫哪个更高?”但在许多情况下,你经常需要纸笔才能得出正确答案,因为有中间步骤。例如,如果一个农民有鸡和牛,它们总共有40个头和120条腿,你可能需要写下一个简单的方程式才能得出答案(20只鸡和20头牛)。

在AI语境中,大语言模型的思维链推理意味着将问题分解为更小的中间步骤,以提高最终结果的质量。通常需要更长时间才能得到答案,但答案更可能是正确的,特别是在逻辑或编程语境中。推理模型是从传统大语言模型发展而来,通过强化学习针对思维链思维进行优化。

这种推理能力在ChatShare平台支持的多种AI模型中都有体现,包括最新的Claude 4 Sonnet和GPT-o3等,用户可以在该平台上直接体验这些前沿模型的思维链推理能力。

(参见:大语言模型)

深度学习

深度学习是自我改进机器学习的一个子集,其中AI算法设计为多层人工神经网络(ANN)结构。这使它们能够进行比简单机器学习系统(如线性模型或决策树)更复杂的关联。深度学习算法的结构从人脑神经元的相互连接通路中汲取灵感。

深度学习AI模型能够自己识别数据中的重要特征,而不需要人类工程师定义这些特征。该结构还支持能够从错误中学习的算法,通过重复和调整的过程,改进它们自己的输出。然而,深度学习系统需要大量数据点才能产生好的结果(数百万或更多)。与简单的机器学习算法相比,它们通常也需要更长的训练时间——因此开发成本往往更高。

(参见:神经网络)

扩散

扩散是许多艺术、音乐和文本生成AI模型核心的技术。受物理学启发,扩散系统通过添加噪声慢慢”破坏”数据的结构——例如照片、歌曲等——直到什么都不剩。在物理学中,扩散是自发和不可逆的——扩散在咖啡中的糖不能恢复成方块形式。但AI中的扩散系统旨在学习一种”反向扩散”过程来恢复被破坏的数据,获得从噪声中恢复数据的能力。

蒸馏

蒸馏是一种使用”师生模型”从大型AI模型中提取知识的技术。开发者向教师模型发送请求并记录输出。有时将答案与数据集进行比较以查看准确性。然后使用这些输出来训练学生模型,该模型被训练来近似教师的行为。

蒸馏可以用来基于更大的模型创建更小、更高效的模型,蒸馏损失最小。这很可能是OpenAI开发GPT-4 Turbo(GPT-4的更快版本)的方式。

虽然所有AI公司都在内部使用蒸馏,但一些AI公司也可能使用它来追赶前沿模型。来源于竞争对手的蒸馏通常违反AI API和聊天助手的服务条款。

微调

这指的是对AI模型进行进一步训练,以优化在比之前训练重点更具体的任务或领域的性能——通常通过输入新的、专门的(即面向任务的)数据。

许多AI初创公司将大语言模型作为构建商业产品的起点,但他们争相通过基于自己的领域特定知识和专业技能的微调来补充早期训练周期,以提高目标部门或任务的实用性。

(参见:大语言模型[LLM])

GAN(生成对抗网络)

GAN,或生成对抗网络,是一种机器学习框架,它支撑着生成AI在产生真实数据方面的一些重要发展——包括(但不仅限于)深度伪造工具。GAN涉及使用一对神经网络,其中一个利用其训练数据生成输出,传递给另一个模型进行评估。这第二个判别器模型因此在生成器的输出上扮演分类器的角色——使其能够随时间改进。

GAN结构设置为竞争(因此称为”对抗”)——两个模型基本上被编程为试图超越彼此:生成器试图让其输出通过判别器,而判别器正在努力识别人工生成的数据。这种结构化竞赛可以优化AI输出以更加真实,无需额外的人工干预。尽管GAN最适合较窄的应用(如产生真实的照片或视频),而不是通用AI。

幻觉现象

幻觉是AI行业对AI模型编造信息的首选术语——字面意思是生成不正确的信息。显然,这对AI质量来说是一个巨大问题。

幻觉产生的生成AI输出可能误导人,甚至可能导致现实生活中的风险——具有潜在的危险后果(想想返回有害医疗建议的健康查询)。这就是为什么大多数生成AI工具的小字现在警告用户验证AI生成的答案,尽管这些免责声明通常远不如工具在触摸按钮时分发的信息显著。

AI捏造信息的问题被认为是训练数据缺口的结果。对于通用生成AI——有时也称为基础模型——这看起来很难解决。根本没有足够的数据来训练AI模型全面解决我们可能问的所有问题。简而言之:我们还没有发明上帝(还没有)。

在多种AI模型对比测试中,ChatShare平台提供了包括GPT-4o、Claude 4 Sonnet、Deepseek R1等模型的统一访问体验,便于用户比较不同模型在处理幻觉问题上的表现差异。

幻觉正在推动对日益专业化和/或垂直AI模型的推动——即需要更窄专业知识的特定领域AI——作为减少知识缺口可能性和缩小错误信息风险的方法。

推理

推理是运行AI模型的过程。它让模型自由地从先前看到的数据中做出预测或得出结论。需要明确的是,推理不能在没有训练的情况下发生;模型必须在一组数据中学习模式,然后才能有效地从这些训练数据中进行推断。

许多类型的硬件都可以执行推理,从智能手机处理器到强大的GPU到定制设计的AI加速器。但不是所有硬件都能同样好地运行模型。非常大的模型在笔记本电脑上做出预测需要很长时间,而在配备高端AI芯片的云服务器上则不会。

[参见:训练]

大语言模型(LLM)

大语言模型或LLM是流行AI助手使用的AI模型,例如ChatGPT、Claude、谷歌的Gemini、Meta的AI Llama、Microsoft Copilot或Mistral的Le Chat。当您与AI助手聊天时,您与一个大语言模型交互,该模型直接处理您的请求或在不同可用工具(如网页浏览或代码解释器)的帮助下处理。

AI助手和LLM可以有不同的名称。例如,GPT是OpenAI的大语言模型,ChatGPT是AI助手产品。

LLM是由数十亿个数值参数(或权重,见下文)组成的深度神经网络,它们学习单词和短语之间的关系,并创建语言的表示,一种单词的多维地图。

这些模型是通过编码它们在数十亿本书籍、文章和转录本中发现的模式而创建的。当您提示LLM时,模型生成最符合提示的最可能模式。然后它根据之前所说的内容评估最后一个词后最可能的下一个词。重复,重复,再重复。

(参见:神经网络)

神经网络

神经网络是指支撑深度学习的多层算法结构——更广泛地说,是大语言模型出现后生成AI工具整个繁荣的基础。

尽管从人脑密集相互连接通路中汲取灵感作为数据处理算法设计结构的想法可以追溯到1940年代,但真正释放这一理论力量的是最近图形处理硬件(GPU)的兴起——通过视频游戏行业。这些芯片被证明非常适合训练比早期时代可能的层数多得多的算法——使基于神经网络的AI系统在许多领域实现了更好的性能,包括语音识别、自主导航和药物发现。

(参见:大语言模型[LLM])

训练

开发机器学习AI涉及使用大量数据来教算法识别模式和做出预测。这个过程被称为训练。在训练期间,模型学习调整其内部参数以最小化错误并提高准确性。

训练需要大量的计算资源和时间,特别是对于复杂的模型如大语言模型。一旦训练完成,模型就可以用于推理——即对新的、未见过的数据做出预测。