Skip to content
Cloudflare Docs
非官方翻译 - 此文档为非官方中文翻译版本,仅供参考。如有疑问请以 英文官方文档 为准。

使用 Worker 绑定添加人工反馈

本指南解释了如何使用 Worker 绑定为 AI 网关评估提供人工反馈。

1. 运行 AI 评估

首先通过您的 AI 网关向 AI 模型发送一个提示。

const resp = await env.AI.run(
"@cf/meta/llama-3.1-8b-instruct",
{
prompt: "tell me a joke",
},
{
gateway: {
id: "my-gateway",
},
},
);
const myLogId = env.AI.aiGatewayLogId;

让用户与 AI 响应互动或评估它。这种互动将为您发送回 AI 网关的反馈提供信息。

2. 发送人工反馈

使用 patchLog() 方法为 AI 评估提供反馈。

await env.AI.gateway("my-gateway").patchLog(myLogId, {
feedback: 1, // 所有字段都是可选的;设置适合您用例的值
score: 100,
metadata: {
user: "123", // 可选的元数据以提供额外的上下文
},
});

反馈参数解释

  • feedback: -1 表示负面,1 表示正面,0 被认为未评估。
  • score: 介于 0 和 100 之间的数字。
  • metadata: 包含额外上下文信息的对象。

patchLog: 发送反馈

patchLog 方法允许您为特定的日志 ID 发送反馈、分数和元数据。所有对象属性都是可选的,因此您可以包含参数的任意组合:

gateway.patchLog("my-log-id", {
feedback: 1,
score: 100,
metadata: {
user: "123",
},
});

返回:Promise<void> (确保 await 请求。)