顾文强
顾文强
Published on 2025-01-23 / 4 Visits
0
0

LlameIndex 介绍

LlamaIndex(GPT Index)是您的LLM(大型语言模型)应用的数据框架。使用LlamaIndex进行构建通常涉及与LlamaIndex核心以及所选的一组集成(或插件)一起工作。在Python中,有两种方法可以开始使用LlamaIndex进行构建。

Starter(初学者包):llama-index。这是一个Python初学者包,包含了LlamaIndex核心以及一系列精选的集成。

Customized(自定义):llama-index-core。安装LlamaIndex核心,并在LlamaHub上添加您的应用程序所需的LlamaIndex集成包。有300多个LlamaIndex集成包可以与核心无缝协作,让您能够使用您首选的LLM(大型语言模型)、嵌入和向量存储提供商进行构建。

LlamaIndex Python库的命名空间设计是这样的:包含core的导入语句意味着正在使用核心包,而那些不包含core的导入语句则意味着正在使用某个集成包。

# typical pattern
from llama_index.core.xxx import ClassABC  # core submodule xxx
from llama_index.xxx.yyy import (
    SubclassABC,
)  # integration yyy for submodule xxx

# concrete example
from llama_index.core.llms import LLM
from llama_index.llms.openai import OpenAI

什么是代理(Agents)?
代理是由大型语言模型(LLM)驱动的知识助手,它们使用工具来执行任务,如研究、数据提取等。代理的功能范围广泛,从简单的问答到能够感知、决策和采取行动以完成任务。LlamaIndex提供了一个构建代理的框架,包括使用检索增强生成(RAG)管道作为完成任务的众多工具之一的能力。

什么是工作流(Workflows)?
工作流是结合一个或多个代理、数据连接器和其他工具来完成任务的多步骤过程。它们是事件驱动的软件,允许您结合RAG数据源和多个代理来创建一个能够执行各种任务的复杂应用程序,这些任务具有反思、错误修正和其他高级LLM应用程序的标志。然后,您可以将这些代理工作流部署为生产微服务。

什么是上下文增强(Context Augmentation)?
大型语言模型(LLM)为人类和数据之间提供了自然语言接口。LLM在大量公开可用的数据上进行预训练,但它们并没有在您的数据上进行训练。您的数据可能是私有的,或者特定于您正在尝试解决的问题。它隐藏在API后面、SQL数据库中,或者被困在PDF和幻灯片演示文稿中。上下文增强使您的数据可供LLM使用,以解决当前的问题。LlamaIndex提供了构建任何上下文增强用例的工具,从原型到生产。我们的工具允许您摄入、解析、索引和处理您的数据,并快速实现结合数据访问和LLM提示的复杂查询工作流。上下文增强的最流行示例是检索增强生成(RAG),它在推理时将上下文与LLM相结合。


Comment