Skip to main content

Blaflow 中的嵌入模型

嵌入模型将文本转换为数值向量。这些嵌入捕捉输入文本的语义含义,使 LLM 能够理解上下文。

有关参数的更多信息,请参阅特定组件的文档。

在流程中使用嵌入模型组件

在这个文档摄取管道的示例中,OpenAI嵌入模型连接到向量数据库。该组件将文本块转换为向量并存储在向量数据库中。向量化数据可用于通知 AI 工作负载,如聊天机器人、相似性搜索和智能体。

此嵌入组件使用 OpenAI API 密钥进行身份验证。有关身份验证的更多信息,请参阅特定嵌入组件的文档。

数据摄取管道中的URL组件

AI/ML

此组件使用AI/ML API生成嵌入。

输入

名称类型描述
model_name字符串要使用的 AI/ML 嵌入模型名称
aiml_api_key秘密字符串用于与 AI/ML 服务进行身份验证的 API 密钥

输出

名称类型描述
embeddings嵌入用于生成嵌入的 AIML 嵌入 Impl 实例

Amazon Bedrock 嵌入

此组件用于从Amazon Bedrock加载嵌入模型。

输入

名称类型描述
credentials_profile_name字符串/.aws/credentials 或/.aws/config 中具有访问密钥或角色信息的 AWS 凭据配置文件名称
model_id字符串要调用的模型 ID,例如amazon.titan-embed-text-v1。这等同于list-foundation-models API 中的modelId属性
endpoint_url字符串设置特定服务端点的 URL,而非默认的 AWS 端点
region_name字符串要使用的 AWS 区域,例如us-west-2。如果未提供,则回退到AWS_DEFAULT_REGION环境变量或~/.aws/config 中指定的区域

输出

名称类型描述
embeddings嵌入使用 Amazon Bedrock 生成嵌入的实例

Astra DB 向量化

important

自 Blaflow 1.1.2 版本起,此组件已弃用。 请改用Astra DB 向量存储组件

将此组件连接到Astra DB 向量存储组件嵌入端口以生成嵌入。

此组件要求您的 Astra DB 数据库具有使用向量化嵌入提供程序集成的集合。 有关更多信息和说明,请参阅嵌入生成

输入

名称显示名称信息
provider嵌入提供程序要使用的嵌入提供程序
model_name模型名称要使用的嵌入模型
authentication身份验证Astra 中存储向量化嵌入提供程序凭据的 API 密钥名称。(如果使用Astra 托管的嵌入提供程序,则不需要。)
provider_api_key提供程序 API 密钥作为authentication的替代方案,直接提供您的嵌入提供程序凭据。
model_parameters模型参数额外的模型参数

输出

| 名称 | 类型 | 描述 | | ---------- | ---- | ------------------------------- | --- | --- | | embeddings | 嵌入 | 使用 Astra 向量化生成嵌入的实例 | | |

Azure OpenAI 嵌入

此组件使用 Azure OpenAI 模型生成嵌入。

输入

名称类型描述
模式 l字符串要使用的模型名称(默认:text-embedding-3-small)
Azure Endpoint字符串您的 Azure 端点,包括资源。示例:https://example-resource.azure.openai.com/
Deployment Name字符串部署名称
API Version字符串要使用的 API 版本,选项包括各种日期
API Key字符串访问 Azure OpenAI 服务的 API 密钥

输出

名称类型描述
embeddings嵌入使用 Azure OpenAI 生成嵌入的实例

Cloudflare Workers AI 嵌入

此组件使用Cloudflare Workers AI 模型生成嵌入。

输入

名称显示名称信息
account_idCloudflare 账户 ID查找您的 Cloudflare 账户 ID
api_tokenCloudflare API 令牌创建 API 令牌
model_name模型名称支持的模型列表
strip_new_lines去除换行符是否从输入文本中去除换行符
batch_size批量大小每批中要嵌入的文本数量
api_base_urlCloudflare API 基础 URLCloudflare API 的基础 URL
headers请求头额外的请求头

输出

名称显示名称信息
embeddings嵌入使用 Cloudflare Workers 生成嵌入的实例

Cohere 嵌入

此组件用于从Cohere加载嵌入模型。

输入

名称类型描述
cohere_api_key字符串与 Cohere 服务进行身份验证所需的 API 密钥
model字符串用于嵌入文本文档和执行查询的语言模型(默认:embed-english-v2.0)
truncate布尔值是否截断输入文本以适应模型的约束(默认:False)

输出

名称类型描述
embeddings嵌入使用 Cohere 生成嵌入的实例

嵌入相似度

此组件计算两个嵌入向量之间选定形式的相似度。

输入

名称显示名称信息
embedding_vectors嵌入向量包含要比较的两个嵌入向量的数据对象的列表。
similarity_metric相似度度量选择要使用的相似度度量。选项:"余弦相似度"、"欧几里得距离"、"曼哈顿距离"。

输出

名称显示名称信息
similarity_data相似度数据包含计算的相似度分数和附加信息的数据对象。

Google 生成式 AI 嵌入

此组件使用langchain-google-genai包中的 GoogleGenerativeAI 嵌入类连接到 Google 的生成式 AI 嵌入服务。

输入

名称显示名称信息
api_keyAPI 密钥访问 Google 生成式 AI 服务的秘密 API 密钥(必需)
model_name模型名称要使用的嵌入模型名称(默认:"models/text-embedding-004")

输出

名称显示名称信息
embeddings嵌入构建的 GoogleGenerativeAI 嵌入对象

Hugging Face 嵌入

note

自 Blaflow 1.0.18 版本起,此组件已弃用。 请改用Hugging Face 嵌入推理组件

此组件从 HuggingFace 加载嵌入模型。

使用此组件使用本地下载的 Hugging Face 模型生成嵌入。确保您有足够的计算资源来运行这些模型。

输入

名称显示名称信息
Cache Folder缓存文件夹缓存 HuggingFace 模型的文件夹路径
Encode Kwargs编码参数编码过程的额外参数
模式 l Kwargs模型参数模型的额外参数
模式 l Name模型名称要使用的 HuggingFace 模型名称
Multi Process多进程是否使用多个进程

输出

名称显示名称信息
embeddings嵌入生成的嵌入

Hugging Face 嵌入推理

此组件使用Hugging Face 推理 API 模型生成嵌入,并需要Hugging Face API 令牌进行身份验证。本地推理模型不需要 API 密钥。

使用此组件创建 Hugging Face 托管模型的嵌入,或连接到您自己本地托管的模型。

输入

名称显示名称信息
API KeyAPI 密钥访问 Hugging Face 推理 API 的 API 密钥。
API URLAPI URLHugging Face 推理 API 的 URL。
模式 l Name模型名称用于嵌入的模型名称。
Cache Folder缓存文件夹缓存 Hugging Face 模型的文件夹路径。
Encode Kwargs编码参数编码过程的额外参数。
模式 l Kwargs模型参数模型的额外参数。
Multi Process多进程是否使用多个进程。

输出

名称显示名称信息
embeddings嵌入生成的嵌入。

将 Hugging Face 组件连接到本地嵌入模型

要本地运行嵌入推理,请参阅HuggingFace 文档

要将本地 Hugging Face 模型连接到Hugging Face 嵌入推理组件并在流程中使用它,请按照以下步骤操作:

  1. 创建一个向量存储 RAG 流程。 在此流程中有两个嵌入模型,您可以用Hugging Face嵌入推理组件替换它们。
  2. 将两个OpenAI嵌入模型组件替换为Hugging Face模型组件。
  3. 将两个Hugging Face组件连接到Astra DB 向量存储组件的嵌入端口。
  4. Hugging Face组件中,将Inference Endpoint字段设置为本地推理模型的 URL。本地推理不需要API Key字段。
  5. 运行流程。本地推理模型为输入文本生成嵌入。

LM Studio 嵌入

此组件使用LM Studio模型生成嵌入。

输入

名称显示名称信息
model模型用于生成嵌入的 LM Studio 模型
base_urlLM Studio 基础 URLLM Studio API 的基础 URL
api_keyLM Studio API 密钥用于与 LM Studio 进行身份验证的 API 密钥
temperature模型温度模型的温度设置

输出

名称显示名称信息
embeddings嵌入生成的嵌入

MistralAI

此组件使用MistralAI模型生成嵌入。

输入

名称类型描述
model字符串要使用的 MistralAI 模型(默认:"mistral-embed")
mistral_api_key秘密字符串与 MistralAI 进行身份验证的 API 密钥
max_concurrent_requests整数并发 API 请求的最大数量(默认:64)
max_retries整数失败请求的最大重试尝试次数(默认:5)
timeout整数请求超时时间(秒)(默认:120)
endpoint字符串自定义 API 端点 URL(默认:https://api.mistral.ai/v1/)

输出

名称类型描述
embeddings嵌入用于生成嵌入的 MistralAI 嵌入实例

NVIDIA

此组件使用NVIDIA 模型生成嵌入。

输入

名称类型描述
model字符串用于嵌入的 NVIDIA 模型(例如nvidia/nv-embed-v1)
base_url字符串NVIDIA API 的基础 URL(默认:https://integrate.api.nvidia.com/v1)
nvidia_api_key秘密字符串与 NVIDIA 服务进行身份验证的 API 密钥
temperature浮点数嵌入生成的模型温度(默认:0.1)

输出

名称类型描述
embeddings嵌入用于生成嵌入的 NVIDIA 嵌入实例

Ollama 嵌入

此组件使用Ollama 模型生成嵌入。

输入

名称类型描述
Ollama 模式 l字符串要使用的 Ollama 模型名称(默认:llama2)
Ollama Base URL字符串Ollama API 的基础 URL(默认:http://localhost:11434)
模式 l Temperature浮点数模型的温度参数。调整生成嵌入中的随机性

输出

名称类型描述
embeddings嵌入使用 Ollama 生成嵌入的实例

OpenAI 嵌入

此组件用于从OpenAI加载嵌入模型。

输入

名称类型描述
OpenAI API Key字符串用于访问 OpenAI API 的 API 密钥
Default Headers字典HTTP 请求的默认请求头
Default Query嵌套字典HTTP 请求的默认查询参数
Allowed Special列表允许处理的特殊令牌(默认:[])
Disallowed Special列表不允许处理的特殊令牌(默认:["all"])
Chunk Size整数处理的块大小(默认:1000)
Client任意用于发出请求的 HTTP 客户端
Deployment字符串模型的部署名称(默认:text-embedding-3-small)
Embedding Context Length整数嵌入上下文长度(默认:8191)
Max Retries整数失败请求的最大重试次数(默认:6)
模式 l字符串要使用的模型名称(默认:text-embedding-3-small)
模式 l Kwargs嵌套字典模型的额外关键字参数
OpenAI API Base字符串OpenAI API 的基础 URL
OpenAI API Type字符串OpenAI API 的类型
OpenAI API Version字符串OpenAI API 的版本
OpenAI Organization字符串与 API 密钥关联的组织
OpenAI Proxy字符串请求的智能体服务器
Request Timeout浮点数HTTP 请求的超时时间
Show Progress Bar布尔值是否显示处理进度条(默认:False)
Skip Empty布尔值是否跳过空输入(默认:False)
TikToken Enable布尔值是否启用 TikToken(默认:True)
TikToken 模式 l Name字符串TikToken 模型的名称

输出

名称类型描述
embeddings嵌入使用 OpenAI 生成嵌入的实例

文本嵌入器

此组件使用指定的嵌入模型为给定消息生成嵌入。

输入

名称显示名称信息
embedding_model嵌入模型用于生成嵌入的嵌入模型。
message消息要为其生成嵌入的消息。

输出

名称显示名称信息
embeddings嵌入数据包含原始文本及其嵌入向量的数据对象。

VertexAI 嵌入

此组件是Google Vertex AI 嵌入 API的包装器。

输入

名称类型描述
credentials凭据要使用的默认自定义凭据
location字符串发出 API 调用时使用的默认位置(默认:us-central1)
max_output_tokens整数令牌限制确定从一个提示输出的最大文本量(默认:128)
model_name字符串Vertex AI 大型语言模型的名称(默认:text-bison)
project字符串发出 Vertex API 调用时使用的默认 GCP 项目
request_parallelism整数对 VertexAI 模型发出的请求允许的并行量(默认:5)
temperature浮点数调整文本生成中的随机程度。应为非负值(默认:0)
top_k整数模型如何为输出选择令牌,下一个令牌从顶部k个令牌中选择(默认:40)
top_p浮点数从最可能到最不可能选择令牌,直到它们的概率总和超过顶部p值(默认:0.95)
tuned_model_name字符串调优模型的名称。如果提供,则忽略model_name
verbose布尔值此参数控制输出的详细程度。设置为True时,打印链的内部状态以帮助调试(默认:False)

输出

名称类型描述
embeddings嵌入使用 VertexAI 生成嵌入的实例