Vertex AI
Bundles 包含支持与 Langflow 特定第三方集成的自定义组件。
本页面描述了 Vertex AI bundle 中可用的组件。
有关 Vertex AI 组件使用的 Vertex AI 功能和功能的更多信息,请参阅 Vertex AI 文档。
有关其他 Google 组件,请参阅 Google bundle。
Vertex AI 文本生成
Vertex AI 组件使用 Google Vertex AI 模型生成文本。
它可以输出 模型响应 (Message
) 或 语言模型 (LanguageModel
)。
当您想将 Vertex AI 模型用作另一个 LLM 驱动组件(如 Agent 或 Smart Function 组件)的 LLM 时,请使用 语言模型 输出。
有关更多信息,请参阅 语言模型 组件。
Vertex AI 文本生成参数
在可视化编辑器中,部分参数默认情况下是隐藏的。 您可以通过组件的头部菜单中的 控件 来修改所有参数。
名称 | 类型 | 描述 |
---|---|---|
credentials | File | 输入参数。JSON 凭据文件。留空则回退到环境变量。文件类型:JSON。有关更多信息,请参阅 为 Vertex AI 身份验证创建服务账户。 |
model_name | String | 输入参数。要使用的 Vertex AI 模型的名称。默认值:"gemini-1.5-pro"。 |
project | String | 输入参数。项目 ID(高级)。 |
location | String | 输入参数。Vertex AI API 的位置。默认值:"us-central1"(高级)。 |
max_output_tokens | Integer | 输入参数。要生成的最大令牌数(高级)。 |
max_retries | Integer | 输入参数。API 调用的最大重试次数。默认值:1(高级)。 |
temperature | Float | 输入参数。控制输出中的随机性。默认值:0.0。 |
top_k | Integer | 输入参数。为 top-k 过滤保留的最高概率词汇令牌数量(高级)。 |
top_p | Float | 输入参数。为 nucleus 采样保留的所有最高概率词汇令牌的累积概率。默认值:0.95(高级)。 |
verbose | Boolean | 输入参数。是否打印详细输出。默认值:False(高级)。 |
有关 Vertex AI 文本生成参数的更多信息,请参阅 Vertex AI 内容生成参数文档。
Vertex AI 嵌入
Vertex AI Embeddings 组件是围绕 Google Vertex AI Embeddings API 的包装器,用于嵌入生成。
有关在流程中使用嵌入模型组件的更多信息,请 参阅 嵌入模型 组件。
Vertex AI 嵌入参数
在可视化编辑器中,部分参数默认情况下是隐藏的。 您可以通过组件的头部菜单中的 控件 来修改所有参数。
名称 | 类型 | 描述 |
---|---|---|
credentials | Credentials | 输入参数。JSON 凭据文件。留空则回退到环境变量。文件类型:JSON。有关更多信息,请参阅 为 Vertex AI 身份验证创建服务账户。 |
location | String | 输入参数。进行 API 调用时使用的默认位置。默认值:us-central1 。 |
max_output_tokens | Integer | 输入参数。令牌限制决定了从一个提示中输出的最大文本量。默认值:128 。 |
model_name | String | 输入参数。Vertex AI 大型语言模型的名称。默认值:text-bison 。 |
project | String | 输入参数。进行 Vertex API 调用时使用的默认 GCP 项目。 |
request_parallelism | Integer | 输入参数。允许对 Vertex AI 模型发出的请求的并行度。默认值:5 。 |
temperature | Float | 输入参数。调整文本生成中的随机程度。应为非负值。默认值:0 。 |
top_k | Integer | 输入参数。模型如何选择输出令牌。下一个令牌从前 k 个令牌中选择。默认值:40 。 |
top_p | Float | 输入参数。令牌按概率从高到低选择,直到它们的概率总和超过 top p 值。默认值:0.95 。 |
tuned_model_name | String | 输入参数。微调模型的名称。如果提供,则忽略 model_name 。 |
verbose | Boolean | 输入参数。此参数控制输出中的详细程度。设置为 true 时,它会打印链的内部状态以帮助调试。默认值:false。 |
embeddings | Embeddings | 输出参数。使用 Vertex AI 生成嵌入的实例。 |
为 Vertex AI 身份验证创建服务账号
Vertex AI Embeddings 和 Vertex AI 组件使用服务账号 JSON 文件向 Google Vertex AI API 进行身份验证。
这些组件要求您在 Credentials 参数 (credentials
) 中提供服务账号 JSON 文件。
您可以直接在组件设置中提供该文件,或者使用 GOOGLE_APPLICATION_CREDENTIALS
环境变量 来引用您的 JSON 文件路径。
以下步骤说明如何为 Langflow 创建服务账号、创建服务账号 JSON 密钥文件,然后在 Langflow 中使用该 JSON 密钥文件:
-
如果您尚未完成此操作,请在您的 Google Cloud 项目中启用 Vertex AI API。
-
在您的 Google Cloud 项目中创建一个服务账号。
建议您为 Vertex AI 创建自定义服务账号,因为 Langflow 使用此账号来访问 Vertex AI API。
-
为服务账号分配 Vertex AI Service Agent 角色。
此角色允许 Langflow 访问 Vertex AI 资源。 有关更多信息,请参阅使用 IAM 进行 Vertex AI 访问控制。
-
为您的 Langflow Vertex AI 服务账号创建一个 JSON 格式的服务账号密钥。
当您点击 Create 时,JSON 密钥文件将被下载。
-
在 Langflow 中,创建或打开一个包含 Vertex AI 或 Vertex AI Embeddings 组件的流程。
-
在组件的 Credentials 字段中,执行以下操作之一:
-
直接选择您的服务账号 JSON 文件。
-
如果您想从环境变量 中提取密钥文件,请将 Credentials 字段留空。 然后,您必须在某个相对于您的 Langflow 实例的位置设置的
GOOGLE_APPLICATION_CREDENTIALS
环境变量中提供您的 JSON 文件路径。 例如,您可以在终端、Langflow.env
文件中设置环境变量,或者在您的 Langflow 服务器或应用程序运行的环境中设置。
-
-
运行您的流程以验证 Langflow 是否可以成功使用服务账号凭据。
例如,在包含 Chat Input、Chat Output 和 Vertex AI 组件的流程中,您可以打开 Playground 并尝试与 LLM 聊天。 如果 LLM 响应,则凭据配置正确。