接口方法
这里介绍供应商和各模型类型需要实现的接口方法和参数说明。
供应商
继承 __base.model_provider.ModelProvider
基类,实现以下接口:
-
credentials
(object) 凭据信息凭据信息的参数由供应商 YAML 配置文件的
provider_credential_schema
定义,传入如:api_key
等。
验证失败请抛出 errors.validate.CredentialsValidateFailedError
错误。
注:预定义模型需完整实现该接口,自定义模型供应商只需要如下简单实现即可
模型
模型分为 5 种不同的模型类型,不同模型类型继承的基类不同,需要实现的方法也不同。
通用接口
所有模型均需要统一实现下面 2 个方法:
-
模型凭据校验
与供应商凭据校验类似,这里针对单个模型进行校验。
参数:
-
model
(string) 模型名称 -
credentials
(object) 凭据信息凭据信息的参数由供应商 YAML 配置文件的
provider_credential_schema
或model_credential_schema
定义,传入如:api_key
等。
验证失败请抛出
errors.validate.CredentialsValidateFailedError
错误。 -
-
调用异常错误映射表
当模型调用异常时需要映射到 Runtime 指定的
InvokeError
类型,方便 Dify 针对不同错误做不同后续处理。Runtime Errors:
InvokeConnectionError
调用连接错误InvokeServerUnavailableError
调用服务方不可用InvokeRateLimitError
调用达到限额InvokeAuthorizationError
调用鉴权失败InvokeBadRequestError
调用传参有误
也可以直接抛出对应 Errors,并做如下定义,这样在之后的调用中可以直接抛出
InvokeConnectionError
等异常。
可参考 OpenAI _invoke_error_mapping
。
LLM
继承 __base.large_language_model.LargeLanguageModel
基类,实现以下接口:
-
LLM 调用
实现 LLM 调用的核心方法,可同时支持流式和同步返回。
-
参数:
-
model
(string) 模型名称 -
credentials
(object) 凭据信息凭据信息的参数由供应商 YAML 配置文件的
provider_credential_schema
或model_credential_schema
定义,传入如:api_key
等。 -
prompt_messages
(array[PromptMessage]) Prompt 列表若模型为
Completion
类型,则列表只需要传入一个 UserPromptMessage 元素即可;若模型为
Chat
类型,需要根据消息不同传入 SystemPromptMessage, UserPromptMessage, AssistantPromptMessage, ToolPromptMessage 元素列表 -
model_parameters
(object) 模型参数模型参数由模型 YAML 配置的
parameter_rules
定义。 -
tools
(array[PromptMessageTool]) [optional] 工具列表,等同于function calling
中的function
。即传入 tool calling 的工具列表。
-
stop
(array[string]) [optional] 停止序列模型返回将在停止序列定义的字符串之前停止输出。
-
stream
(bool) 是否流式输出,默认 True流式输出返回 Generator[LLMResultChunk],非流式输出返回 LLMResult。
-
user
(string) [optional] 用户的唯一标识符可以帮助供应商监控和检测滥用行为。
-
-
返回
流式输出返回 Generator[LLMResultChunk],非流式输出返回 LLMResult。
-
-
预计算输入 tokens
若模型未提供预计算 tokens 接口,可直接返回 0。
参数说明见上述
LLM 调用
。该接口需要根据对应
model
选择合适的tokenizer
进行计算,如果对应模型没有提供tokenizer
,可以使用AIModel
基类中的_get_num_tokens_by_gpt2(text: str)
方法进行计算。 -
获取自定义模型规则 [可选]
当供应商支持增加自定义 LLM 时,可实现此方法让自定义模型可获取模型规则,默认返回 None。
对于OpenAI
供应商下的大部分微调模型,可以通过其微调模型名称获取到其基类模型,如gpt-3.5-turbo-1106
,然后返回基类模型的预定义参数规则,参考openai
的具体实现
TextEmbedding
继承 __base.text_embedding_model.TextEmbeddingModel
基类,实现以下接口:
-
Embedding 调用
-
参数:
-
model
(string) 模型名称 -
credentials
(object) 凭据信息凭据信息的参数由供应商 YAML 配置文件的
provider_credential_schema
或model_credential_schema
定义,传入如:api_key
等。 -
texts
(array[string]) 文本列表,可批量处理 -
user
(string) [optional] 用户的唯一标识符可以帮助供应商监控和检测滥用行为。
-
-
返回:
-
-
预计算 tokens
参数说明见上述
Embedding 调用
。同上述
LargeLanguageModel
,该接口需要根据对应model
选择合适的tokenizer
进行计算,如果对应模型没有提供tokenizer
,可以使用AIModel
基类中的_get_num_tokens_by_gpt2(text: str)
方法进行计算。
Rerank
继承 __base.rerank_model.RerankModel
基类,实现以下接口:
-
rerank 调用
-
参数:
-
model
(string) 模型名称 -
credentials
(object) 凭据信息凭据信息的参数由供应商 YAML 配置文件的
provider_credential_schema
或model_credential_schema
定义,传入如:api_key
等。 -
query
(string) 查询请求内容 -
docs
(array[string]) 需要重排的分段列表 -
score_threshold
(float) [optional] Score 阈值 -
top_n
(int) [optional] 取前 n 个分段 -
user
(string) [optional] 用户的唯一标识符可以帮助供应商监控和检测滥用行为。
-
-
返回:
RerankResult 实体。
-
Speech2text
继承 __base.speech2text_model.Speech2TextModel
基类,实现以下接口:
-
Invoke 调用
-
参数:
-
model
(string) 模型名称 -
credentials
(object) 凭据信息凭据信息的参数由供应商 YAML 配置文件的
provider_credential_schema
或model_credential_schema
定义,传入如:api_key
等。 -
file
(File) 文件流 -
user
(string) [optional] 用户的唯一标识符可以帮助供应商监控和检测滥用行为。
-
-
返回:
语音转换后的字符串。
-
Text2speech
继承 __base.text2speech_model.Text2SpeechModel
基类,实现以下接口:
-
Invoke 调用
-
参数:
-
model
(string) 模型名称 -
credentials
(object) 凭据信息凭据信息的参数由供应商 YAML 配置文件的
provider_credential_schema
或model_credential_schema
定义,传入如:api_key
等。 -
content_text
(string) 需要转换的文本内容 -
streaming
(bool) 是否进行流式输出 -
user
(string) [optional] 用户的唯一标识符可以帮助供应商监控和检测滥用行为。
-
-
返回:
文本转换后的语音流。
-
Moderation
继承 __base.moderation_model.ModerationModel
基类,实现以下接口:
-
Invoke 调用
-
参数:
-
model
(string) 模型名称 -
credentials
(object) 凭据信息凭据信息的参数由供应商 YAML 配置文件的
provider_credential_schema
或model_credential_schema
定义,传入如:api_key
等。 -
text
(string) 文本内容 -
user
(string) [optional] 用户的唯一标识符可以帮助供应商监控和检测滥用行为。
-
-
返回:
False 代表传入的文本安全,True 则反之。
-
实体
PromptMessageRole
消息角色
PromptMessageContentType
消息内容类型,分为纯文本和图片。
PromptMessageContent
消息内容基类,仅作为参数声明用,不可初始化。
当前支持文本和图片两种类型,可支持同时传入文本和多图。
需要分别初始化 TextPromptMessageContent
和 ImagePromptMessageContent
传入。
TextPromptMessageContent
若传入图文,其中文字需要构造此实体作为 content
列表中的一部分。
ImagePromptMessageContent
若传入图文,其中图片需要构造此实体作为 content
列表中的一部分
data
可以为 url
或者图片 base64
加密后的字符串。
PromptMessage
所有 Role 消息体的基类,仅作为参数声明用,不可初始化。
UserPromptMessage
UserMessage 消息体,代表用户消息。
AssistantPromptMessage
代表模型返回消息,通常用于 few-shots
或聊天历史传入。
其中 tool_calls
为调用模型传入 tools
后,由模型返回的 tool call
列表。
SystemPromptMessage
代表系统消息,通常用于设定给模型的系统指令。
ToolPromptMessage
代表工具消息,用于工具执行后将结果交给模型进行下一步计划。
基类的 content
传入工具执行结果。
PromptMessageTool
LLMResult
LLMResultChunkDelta
流式返回中每个迭代内部 delta
实体
LLMResultChunk
流式返回中每个迭代实体