Cleanlab
Cleanlab 为AI和RAG解决方案中的每个输入数据点和每个输出预测添加自动化和信任度。
使用Cleanlab组件将Cleanlab评估与Langflow集成,并通过Cleanlab的评估和修复套件解锁可信的智能体、RAG和LLM管道。
您可以使用这些组件为任何LLM响应的可信度打分(分数在0
到1
之间),并解释为什么某个响应可能好或坏。对于有上下文的RAG或智能体管道,您可以使用定量分数评估上下文充分性、响应基础性、有用性和查询清晰度。此外,您可以使用警告或备用答案来修复低可信度响应。
需要使用Cleanlab API密钥进行身份验证。
Cleanlab评估器
Cleanlab评估器组件使用Cleanlab评估和解释提示与响应对的可信度。有关评分工作原理的更多信息,请参阅Cleanlab文档。
Cleanlab评估器参数
在可视化编辑器中,部分参数默认情况下是隐藏的。 您可以通过组件的头部菜单中的 控件 来修改所有参数。
名称 | 类型 | 描述 |
---|---|---|
system_prompt | Message | 输入参数。添加到提示前的系统消息。可选。 |
prompt | Message | 输入参数。面向用户的LLM输入。 |
response | Message | 输入参数。要评估的模型响应。 |
cleanlab_api_key | Secret | 输入参数。您的Cleanlab API密钥。 |
cleanlab_evaluation_model | Dropdown | 输入参数。Cleanlab使用的评估模型,如GPT-4或Claude。这不需要与生成响应的模型相同。 |
quality_preset | Dropdown | 输入参数。评估速度与准确性之间的权衡。 |
Cleanlab评估器输出
Cleanlab评估器组件有三种可能的输出。
名称 | 类型 | 描述 |
---|---|---|
score | number, float | 显示0到1之间的可信度分数。 |
explanation | Message | 提供可信度分数的解释。 |
response | Message | 返回原始响应,以便轻松链接到Cleanlab修复器组件。 |
Cleanlab修复器
Cleanlab修复器组件使用来自Cleanlab评估器组件的可信度分数,决定是否显示、警告或替换LLM响应。
此组件包含分数阈值、警告文本和备用消息的参数,您可以根据需要进行自定义。
输出是修复后的响应(remediated_response
),这是一个Message
,包含应用修复逻辑后向用户显示的最终消息。
Cleanlab修复器参数
名称 | 类型 | 描述 |
---|---|---|
response | Message | 输入参数。可能需要修复的响应。 |
score | Number | 输入参数。来自CleanlabEvaluator 的可信度分数。 |
explanation | Message | 输入参数。如果显示警告,要附加的解释。可选。 |
threshold | Float | 输入参数。通过响应不变的最小可信度分数。 |
show_untrustworthy_response | Boolean | 输入参数。如果响应被判定为不可信,是否显示或隐藏带有警告的原始响应。 |
untrustworthy_warning_text | Prompt | 输入参数。不可信响应的警告文本。 |
fallback_text | Prompt | 输入参数。如果响应被隐藏时的备用消息。 |
Cleanlab RAG评估器
Cleanlab RAG评估器组件使用Cleanlab的评估指标评估RAG和LLM管道输出的可信度、上下文充分性、响应基础性、有用性和查询易用性。
您可以将此组件与Cleanlab修复器组件配对,以修复来自RAG管道的低可信度响应。