Dify Enterprise Docs home page
3.3.x
简体中文
搜索...
⌘K
Support
搜索...
Navigation
应用工具箱
敏感内容审查
简介
欢迎使用 Dify Enterprise
部署手册
部署准备
资源清单
环境部署
激活许可证
验证 Dify 服务状态
高级配置
云基础设施
管理员手册
工作区管理
成员管理
插件
身份认证
企业级 APIs
审计日志
品牌设置
系统设置
常见问题
用户手册
接入大模型
构建应用
构建应用
创建应用
聊天助手
Agent
应用工具箱
应用工具箱
敏感内容审查
工作流
知识库
工具
发布
标注
监测
管理
插件开发
欢迎开始 Dify 插件开发
概念与入门
初始化开发工具
开发实践
插件隐私政策准则
贡献与发布
开发 Slack Bot 插件
实践案例与示例
Bundle 插件包
反向调用
通用规范定义
Reference & Specifications
在此页面
功能一:调用 OpenAI Moderation API
功能二:自定义关键词
功能三: 敏感词审查 Moderation 扩展
应用工具箱
敏感内容审查
我们在与 AI 应用交互的过程中,往往在内容安全性,用户体验,法律法规等方面有较为苛刻的要求,此时我们需要“敏感词审查”功能,来为终端用户创造一个更好的交互环境。 在提示词编排页面,点击“添加功能”,找到底部的工具箱“内容审核”:
功能一:调用 OpenAI Moderation API
OpenAI 和大多数 LLM 公司提供的模型,都带有内容审查功能,确保不会输出包含有争议的内容,比如暴力,性和非法行为,并且 OpenAI 还开放了这种内容审查能力,具体可以参考
platform.openai.com
。现在你也可以直接在 Dify 上调用 OpenAI Moderation API,你可以审核输入内容或输出内容,只要输入对应的“预设回复”即可。
功能二:自定义关键词
开发者可以自定义需要审查的敏感词,比如把“kill”作为关键词,在用户输入的时候作审核动作,要求预设回复内容为“The content is violating usage policies.”可以预见的结果是当用户在终端输入包含“kill”的语料片段,就会触发敏感词审查工具,返回预设回复内容。
功能三: 敏感词审查 Moderation 扩展
不同的企业内部往往有着不同的敏感词审查机制,企业在开发自己的 AI 应用如企业内部知识库 ChatBot,需要对员工输入的查询内容作敏感词审查。为此,开发者可以根据自己企业内部的敏感词审查机制写一个 API 扩展,具体可参考
敏感内容审查
,从而在 Dify 上调用,实现敏感词审查的高度自定义和隐私保护。
比如我们在自己的本地服务中自定义敏感词审查规则:不能查询有关美国总统的名字的问题。当用户在
query
变量输入”Trump”,则在对话时会返回 “Your content violates our usage policy.” 测试效果如下:
编辑此页面
通过直接提交修改来帮助改进文档内容
提交问题
发现错误或有改进建议?请提交问题反馈
应用工具箱
工作流
助手
Responses are generated using AI and may contain mistakes.