本指南将指导您设置和部署您的第一个 Workers AI 项目。您将使用 Workers、一个 Workers AI 绑定和一个大型语言模型 (LLM) 来在 Cloudflare 全球网络上部署您的第一个由 AI 驱动的应用程序。
- Sign up for a Cloudflare account ↗.
- Install
Node.js
↗.
Node.js version manager
Use a Node version manager like Volta ↗ or nvm ↗ to avoid permission issues and change Node.js versions. Wrangler, discussed later in this guide, requires a Node version of 16.17.0
or later.
您将使用 create-cloudflare
CLI (C3) 创建一个新的 Worker 项目。C3 ↗ 是一个命令行工具,旨在帮助您设置和部署新的应用程序到 Cloudflare。
通过运行以下命令创建一个名为 hello-ai
的新项目:
npm create cloudflare@latest -- hello-ai
yarn create cloudflare hello-ai
pnpm create cloudflare@latest hello-ai
运行 npm create cloudflare@latest
将提示您安装 create-cloudflare
包 ↗,并引导您完成设置。C3 还将安装 Wrangler,即 Cloudflare 开发者平台 CLI。
For setup, select the following options:
- For What would you like to start with?, choose
Hello World example
. - For Which template would you like to use?, choose
Worker only
. - For Which language do you want to use?, choose
TypeScript
. - For Do you want to use git for version control?, choose
Yes
. - For Do you want to deploy your application?, choose
No
(we will be making some changes before deploying).
这将创建一个新的 hello-ai
目录。您的新 hello-ai
目录将包括:
- 一个位于
src/index.ts
的"Hello World"
Worker。 - 一个
wrangler.jsonc
配置文件。
进入您的应用程序目录:
cd hello-ai
您必须为您的 Worker 创建一个 AI 绑定以连接到 Workers AI。绑定允许您的 Worker 与 Cloudflare 开发者平台上的资源(如 Workers AI)进行交互。
要将 Workers AI 绑定到您的 Worker,请将以下内容添加到您的 Wrangler 文件的末尾:
{ "ai": { "binding": "AI" }}
[ai]binding = "AI"
您的绑定在您的 Worker 代码中通过 env.AI
可用。
您还可以将 Workers AI 绑定到 Pages 函数。有关更多信息,请参阅函数绑定。
您现在已准备好在您的 Worker 中运行推理任务。在这种情况下,您将使用一个 LLM,llama-3.1-8b-instruct
,来回答一个问题。
使用以下代码更新您的 hello-ai
应用程序目录中的 index.ts
文件:
export default { async fetch(request, env) { const response = await env.AI.run("@cf/meta/llama-3.1-8b-instruct", { prompt: "What is the origin of the phrase Hello, World", });
return new Response(JSON.stringify(response)); },};
export interface Env { // 如果您在 Wrangler 配置文件中为 'binding' 设置了另一个名称, // 请将 "AI" 替换为您定义的变量名。 AI: Ai;}
export default { async fetch(request, env): Promise<Response> { const response = await env.AI.run("@cf/meta/llama-3.1-8b-instruct", { prompt: "What is the origin of the phrase Hello, World", });
return new Response(JSON.stringify(response)); },} satisfies ExportedHandler<Env>;
至此,您已经为您的 Worker 创建了一个 AI 绑定,并配置了您的 Worker 以能够执行 Llama 3.1 模型。现在,您可以在全球部署之前在本地测试您的项目。
在您的项目目录中,通过运行 wrangler dev
在本地测试 Workers AI:
npx wrangler dev
运行 wrangler dev
后,系统会提示您登录。当您运行 npx wrangler dev
时,Wrangler 会给您一个 URL(很可能是 localhost:8787
)来审查您的 Worker。在您访问 Wrangler 提供的 URL 后,将呈现一条类似以下示例的消息:
{ "response": "Ah, a most excellent question, my dear human friend! *adjusts glasses*\n\nThe origin of the phrase \"Hello, World\" is a fascinating tale that spans several decades and multiple disciplines. It all began in the early days of computer programming, when a young man named Brian Kernighan was tasked with writing a simple program to demonstrate the basics of a new programming language called C.\nKernighan, a renowned computer scientist and author, was working at Bell Labs in the late 1970s when he created the program. He wanted to showcase the language's simplicity and versatility, so he wrote a basic \"Hello, World!\" program that printed the familiar greeting to the console.\nThe program was included in Kernighan and Ritchie's influential book \"The C Programming Language,\" published in 1978. The book became a standard reference for C programmers, and the \"Hello, World!\" program became a sort of \"Hello, World!\" for the programming community.\nOver time, the phrase \"Hello, World!\" became a shorthand for any simple program that demonstrated the basics"}
在将您的 AI Worker 全球部署之前,请通过运行以下命令使用您的 Cloudflare 帐户登录:
npx wrangler login
您将被引导到一个网页,要求您登录 Cloudflare 仪表板。登录后,系统会询问您是否允许 Wrangler 对您的 Cloudflare 帐户进行更改。向下滚动并选择 允许 以继续。
最后,部署您的 Worker,使您的项目可以在互联网上访问。要部署您的 Worker,请运行:
npx wrangler deploy
https://hello-ai.<YOUR_SUBDOMAIN>.workers.dev
您的 Worker 将被部署到您的自定义 workers.dev
子域。您现在可以访问该 URL 来运行您的 AI Worker。
完成本教程后,您创建了一个 Worker,通过 AI 绑定将其连接到 Workers AI,并从 Llama 3 模型运行了一个推理任务。
- Discord 上的 Cloudflare 开发者社区 ↗ - 通过加入 Cloudflare Discord 服务器,直接向 Cloudflare 团队提交功能请求、报告错误并分享您的反馈。
- 模型 - 浏览 Workers AI 模型目录。
- AI SDK - 了解如何与 AI 模型集成。
- @2025 Cloudflare Ubitools
- Cf Repo