3.智能体通识

当前位置: 首页 >> 使用指南 >> 3.智能体通识

3.1.1 大语言模型

⼤语⾔模型(Large Language Model)是指具有⼤量参数和复杂结构的深度学习模型,利⽤深度神经⽹络的强⼤能⼒,通过在海量数据上进⾏训练,学习到数据中的复杂模式和特征,从⽽在诸如语⾔理解、预测分析等多种任务中表现出⾊。⼤模型的核⼼原理是基于统计学习理论,通过优化⽬标函数来调整模型参数,使得模型能够准确地泛化到新的、未⻅过的数据上。

通俗解释:LLM是预测下⼀个字是什么的⽂本⽣成模型。

//todo,放一张大模型的图

常见大模型:

DeepSeek

豆包

通义千问

......

主要特点:

一般来说,参数量越大,能力越强。

具有上下文窗口限制,即:一次性能处理的最长字符数有限制。

不通模型擅长的任务可能有所区别。

3.1.2 提示词

提⽰词(Prompt)是⽤⼾与⽣成式⼈⼯智能模型交互的指令或输⼊,⽤于引导模型⽣成符合预期的输出。提⽰词可以是问题、命令、场景描述或⽰例,帮助模型理解任务意图。设计优质的提⽰词是提升大模型性能和⽣成结果质量的关键,涉及语⾔清晰、上下⽂相关、意图明确等策略。

3.1.3 插件

智能体获取外部信息、与外界交互的方法,比如:查询论文、联网搜索等API,即可做成插件让智能体调用。

3.1.4 词向量

词向量是计算机可以理解的、在统⼀标准下表⽰任意物体的⼀个数组。

例如:

“国王”的词向量可能是[0.2, -0.1, 0.5,...]

“王后”的词向量可能是[0.1, 0.3, 0.4,...]

这里仅是示意,实际向量维度可能更高。

3.1.5 Embedding模型

如何将⽂本转换为向量?⽤Embedding模型。 Embedding是⼀种将⾼维的离散数据(如⽂字)映射到低维稠密向量空间的技术,每个Embedding模型有⾃⼰的转换标准,只有在同⼀个Embedding模型标准下的词向量才能够相互匹配与计算。不同Embedding模型降维的维数不同。

例如:

熊猫这个词embedding之后的向量与埃菲尔铁塔embedding之后的向量的相似度是较⼩的 ,可能在0.2-0.3;

埃菲尔铁塔和巴黎铁塔这两个词embedding之后,相似度就很⾼,可能在0.8-0.9。

国王与王后这两个向量之间的距离 ,跟男⼈与⼥⼈之间的距离是很接近的。

3.1.6 RAG

RAG(检索增强⽣成)是⼀种结合检索和⽣成的⼤模型技术。它在⽣成内容前,先通过检索模块从外部知识库中获取相关信息,然后将检索结果与⽤户输⼊⼀起作为⽣成模型的输⼊,以⽣成更加准确和知识丰富的回答。这种⽅法能够显著提升模型的知识覆盖⾯和回答精准度,常⽤于问答系统、⽂档摘要和内容⽣成等场景。