基于 APIs 开发
Dify 基于“后端即服务”理念为所有应用提供了 API,为 AI 应用开发者带来了诸多便利。通过这一理念,开发者可以直接在前端应用中获取大型语言模型的强大能力,而无需关注复杂的后端架构和部署过程。
使用 Dify API 的好处
- 让前端应用直接安全地调用 LLM 能力,省去后端服务的开发过程
- 在可视化的界面中设计应用,并在所有客户端中实时生效
- 对 LLM 供应商的基础能力进行了良好封装
- 随时切换 LLM 供应商,并对 LLM 的密钥进行集中管理
- 在可视化的界面中运营你的应用,例如分析日志、标注及观察用户活跃
- 持续为应用提供更多工具能力、插件能力和数据集
如何使用
选择一个应用,在应用(Apps)左侧导航中可以找到访问 API(API Access)。在该页面中你可以查看 Dify 提供的 API 文档,并管理可访问 API 的凭据。
例如你是一个咨询公司的开发部分,你可以基于公司的私有数据库提供 AI 能力给终端用户或开发者,但开发者无法掌握你的数据和 AI 逻辑设计,从而使得服务可以安全、可持续的交付并满足商业目的。
在最佳实践中,API 密钥应通过后端调用,而不是直接以明文暴露在前端代码或请求中,这样可以防止你的应用被滥用或攻击。
你可以为一个应用创建多个访问凭据,以实现交付给不同的用户或开发者。这意味着 API 的使用者虽然使用了应用开发者提供的 AI 能力,但背后的 Promp 工程、数据集和工具能力是经封装的。
文本生成型应用
可用于生成高质量文本的应用,例如生成文章、摘要、翻译等,通过调用 completion-messages 接口,发送用户输入得到生成文本结果。用于生成文本的模型参数和提示词模版取决于开发者在 Dify 提示词编排页的设置。
你可以在应用 -> 访问 API 中找到该应用的 API 文档与范例请求。
例如,创建文本补全信息的 API 的调用示例:
对话型应用
可用于大部分场景的对话型应用,采用一问一答模式与用户持续对话。要开始一个对话请调用 chat-messages
接口,每次对话开始都会产生出新的 conversation\_id
,通过该conversation\_id
传回接口就可继续保持该会话。
conversation_id
的注意事项:
- 生成
conversation_id
: 开始新对话时,请将conversation_id
字段留空。系统将生成并返回一个新的conversation_id
,未来的交互中会使用该conversation_id
继续对话。 - 处理现有会话中的
conversation_id
: 生成conversation_id
后,对 API 的未来调用应包含此conversation_id
,以确保与 Dify 机器人的对话连续性。传递上一个conversation_id
时,将忽略任何新的inputs
,仅处理正在进行的对话的query
。 - 管理动态变量: 如果在会话期间需要修改逻辑或变量,您可以使用会话变量(特定于会话的变量)来调整bot的行为或回应。
你可以在应用 -> 访问 API 中找到该应用的 API 文档与范例请求。
例如,发送对话信息的 chat-messages
API的调用示例: