本指南解释了如何使用 Worker 绑定为 AI 网关评估提供人工反馈。
首先通过您的 AI 网关向 AI 模型发送一个提示。
const resp = await env.AI.run( "@cf/meta/llama-3.1-8b-instruct", { prompt: "tell me a joke", }, { gateway: { id: "my-gateway", }, },);
const myLogId = env.AI.aiGatewayLogId;
让用户与 AI 响应互动或评估它。这种互动将为您发送回 AI 网关的反馈提供信息。
使用 patchLog()
方法为 AI 评估提供反馈。
await env.AI.gateway("my-gateway").patchLog(myLogId, { feedback: 1, // 所有字段都是可选的;设置适合您用例的值 score: 100, metadata: { user: "123", // 可选的元数据以提供额外的上下文 },});
feedback
:-1
表示负面,1
表示正面,0
被认为未评估。score
: 介于 0 和 100 之间的数字。metadata
: 包含额外上下文信息的对象。
patchLog
方法允许您为特定的日志 ID 发送反馈、分数和元数据。所有对象属性都是可选的,因此您可以包含参数的任意组合:
gateway.patchLog("my-log-id", { feedback: 1, score: 100, metadata: { user: "123", },});
返回:Promise<void>
(确保 await
请求。)
- @2025 Cloudflare Ubitools
- Cf Repo