# 变更日志
URL: https://developers.cloudflare.com/workers-ai/changelog/
import { ProductReleaseNotes } from "~/components";
{/* */}
使用 Cloudflare Workers AI 和代理构建能够代表您的用户执行复杂任务的 AI 助手。
其中 `json_schema` 必须是有效的 [JSON 模式](https://json-schema.org/) 声明。
## JSON 模式示例
使用 JSON 格式时,请将架构作为请求的一部分传递给 LLM,如下例所示。
LLM 将遵循该架构,并返回如下所示的响应:
如您所见,模型正在遵守请求中的 JSON 架构定义,并以经过验证的 JSON 对象进行响应。
## 支持的模型
以下是现在支持 JSON 模式的模型列表:
- [@cf/meta/llama-3.1-8b-instruct-fast](/workers-ai/models/llama-3.1-8b-instruct-fast/)
- [@cf/meta/llama-3.1-70b-instruct](/workers-ai/models/llama-3.1-70b-instruct/)
- [@cf/meta/llama-3.3-70b-instruct-fp8-fast](/workers-ai/models/llama-3.3-70b-instruct-fp8-fast/)
- [@cf/meta/llama-3-8b-instruct](/workers-ai/models/llama-3-8b-instruct/)
- [@cf/meta/llama-3.1-8b-instruct](/workers-ai/models/llama-3.1-8b-instruct/)
- [@cf/meta/llama-3.2-11b-vision-instruct](/workers-ai/models/llama-3.2-11b-vision-instruct/)
- [@hf/nousresearch/hermes-2-pro-mistral-7b](/workers-ai/models/hermes-2-pro-mistral-7b/)
- [@hf/thebloke/deepseek-coder-6.7b-instruct-awq](/workers-ai/models/deepseek-coder-6.7b-instruct-awq/)
- [@cf/deepseek-ai/deepseek-r1-distill-qwen-32b](/workers-ai/models/deepseek-r1-distill-qwen-32b/)
我们将继续扩展此列表,以跟上新的和被请求的模型。
请注意,Workers AI 不能保证模型会根据请求的 JSON 模式进行响应。根据任务的复杂性和 JSON 模式的充分性,模型在极端情况下可能无法满足请求。如果出现这种情况,则会返回错误 `JSON 模式无法满足`,并且必须进行处理。
JSON 模式目前不支持流式传输。
---
# 提示
URL: https://developers.cloudflare.com/workers-ai/features/prompting/
import { Code } from "~/components";
export const scopedExampleOne = `{
messages: [
{ role: "system", content: "你是一个非常有趣的喜剧演员,你喜欢表情符号" },
{ role: "user", content: "给我讲个关于 Cloudflare 的笑话" },
],
};`;
export const scopedExampleTwo = `{
messages: [
{ role: "system", content: "你是一个专业的计算机科学助理" },
{ role: "user", content: "WASM 是什么?" },
{ role: "assistant", content: "WASM (WebAssembly) 是一种二进制指令格式,旨在成为一个平台无关的格式" },
{ role: "user", content: "Python 能编译成 WASM 吗?" },
{ role: "assistant", content: "不,Python 不能直接编译成 WebAssembly" },
{ role: "user", content: "Rust 呢?" },
],
};`;
export const unscopedExampleOne = `{
prompt: "给我讲个关于 Cloudflare 的笑话";
}`;
export const unscopedExampleTwo = `{
prompt: "
以下是在用户和助手之间进行多次迭代的聊天会话的更好示例。
请注意,不同的 LLM 使用不同的模板针对不同的用例进行训练。虽然 Workers AI 尽力通过统一的 API 向开发人员抽象每个 LLM 模板的细节,但您应始终参考模型文档以获取详细信息(我们在上表中提供了链接)。例如,像 Codellama 这样的指令模型经过微调以响应用户提供的指令,而聊天模型则期望以对话片段作为输入。
### 无范围的提示
您可以使用无范围的提示向模型发送单个问题,而无需担心提供任何上下文。Workers AI 会自动将您的 `prompt` 输入转换为合理的默认有范围提示,以便您获得最佳的预测结果。
您还可以使用无范围的提示来手动构建模型聊天模板。在这种情况下,您可以使用 raw 参数。以下是 [Mistral](https://docs.mistral.ai/models/#chat-template) 聊天模板提示的输入示例:
---
# Markdown 转换
URL: https://developers.cloudflare.com/workers-ai/features/markdown-conversion/
import { Code, Type, MetaInfo, Details, Render } from "~/components";
[Markdown](https://en.wikipedia.org/wiki/Markdown) 对于训练和推理中的文本生成和大型语言模型 (LLM)至关重要,因为它可以提供结构化、语义化、人类和机器可读的输入。同样,Markdown 有助于对输入数据进行分块和结构化,以便在 RAG 的上下文中更好地检索和综合,其简单性和易于解析和呈现的特点使其成为 AI 代理的理想选择。
由于这些原因,文档转换在设计和开发 AI 应用程序时扮演着重要角色。Workers AI 提供了 `toMarkdown` 实用方法,开发人员可以从 [`env.AI`](/workers-ai/configuration/bindings/) 绑定或 REST API 中使用该方法,以便快速、轻松、方便地将多种格式的文档转换为 Markdown 语言并进行摘要。
## 方法和定义
### async env.AI.toMarkdown()
获取不同格式的文档列表并将其转换为 Markdown。
#### 参数
- documents
: results
: Get started by creating your first note
Configure post-processing of recording transcriptions with AI models.
Settings changes are auto-saved locally.