Skip to content
Cloudflare Docs
非官方翻译 - 此文档为非官方中文翻译版本,仅供参考。如有疑问请以 英文官方文档 为准。

Workers 绑定

本指南将指导您设置和部署您的第一个 Workers AI 项目。您将使用 Workers、一个 Workers AI 绑定和一个大型语言模型 (LLM) 来在 Cloudflare 全球网络上部署您的第一个由 AI 驱动的应用程序。

  1. Sign up for a Cloudflare account.
  2. Install Node.js.

Node.js version manager

Use a Node version manager like Volta or nvm to avoid permission issues and change Node.js versions. Wrangler, discussed later in this guide, requires a Node version of 16.17.0 or later.

1. 创建一个 Worker 项目

您将使用 create-cloudflare CLI (C3) 创建一个新的 Worker 项目。C3 是一个命令行工具,旨在帮助您设置和部署新的应用程序到 Cloudflare。

通过运行以下命令创建一个名为 hello-ai 的新项目:

Terminal window
npm create cloudflare@latest -- hello-ai

运行 npm create cloudflare@latest 将提示您安装 create-cloudflare,并引导您完成设置。C3 还将安装 Wrangler,即 Cloudflare 开发者平台 CLI。

For setup, select the following options:

  • For What would you like to start with?, choose Hello World example.
  • For Which template would you like to use?, choose Worker only.
  • For Which language do you want to use?, choose TypeScript.
  • For Do you want to use git for version control?, choose Yes.
  • For Do you want to deploy your application?, choose No (we will be making some changes before deploying).

这将创建一个新的 hello-ai 目录。您的新 hello-ai 目录将包括:

进入您的应用程序目录:

Terminal window
cd hello-ai

2. 将您的 Worker 连接到 Workers AI

您必须为您的 Worker 创建一个 AI 绑定以连接到 Workers AI。绑定允许您的 Worker 与 Cloudflare 开发者平台上的资源(如 Workers AI)进行交互。

要将 Workers AI 绑定到您的 Worker,请将以下内容添加到您的 Wrangler 文件的末尾:

{
"ai": {
"binding": "AI"
}
}

您的绑定在您的 Worker 代码中通过 env.AI 可用。

您还可以将 Workers AI 绑定到 Pages 函数。有关更多信息,请参阅函数绑定

3. 在您的 Worker 中运行推理任务

您现在已准备好在您的 Worker 中运行推理任务。在这种情况下,您将使用一个 LLM,llama-3.1-8b-instruct,来回答一个问题。

使用以下代码更新您的 hello-ai 应用程序目录中的 index.ts 文件:

index.js
export default {
async fetch(request, env) {
const response = await env.AI.run("@cf/meta/llama-3.1-8b-instruct", {
prompt: "What is the origin of the phrase Hello, World",
});
return new Response(JSON.stringify(response));
},
};

至此,您已经为您的 Worker 创建了一个 AI 绑定,并配置了您的 Worker 以能够执行 Llama 3.1 模型。现在,您可以在全球部署之前在本地测试您的项目。

4. 使用 Wrangler 进行本地开发

在您的项目目录中,通过运行 wrangler dev 在本地测试 Workers AI:

Terminal window
npx wrangler dev

运行 wrangler dev 后,系统会提示您登录。当您运行 npx wrangler dev 时,Wrangler 会给您一个 URL(很可能是 localhost:8787)来审查您的 Worker。在您访问 Wrangler 提供的 URL 后,将呈现一条类似以下示例的消息:

{
"response": "Ah, a most excellent question, my dear human friend! *adjusts glasses*\n\nThe origin of the phrase \"Hello, World\" is a fascinating tale that spans several decades and multiple disciplines. It all began in the early days of computer programming, when a young man named Brian Kernighan was tasked with writing a simple program to demonstrate the basics of a new programming language called C.\nKernighan, a renowned computer scientist and author, was working at Bell Labs in the late 1970s when he created the program. He wanted to showcase the language's simplicity and versatility, so he wrote a basic \"Hello, World!\" program that printed the familiar greeting to the console.\nThe program was included in Kernighan and Ritchie's influential book \"The C Programming Language,\" published in 1978. The book became a standard reference for C programmers, and the \"Hello, World!\" program became a sort of \"Hello, World!\" for the programming community.\nOver time, the phrase \"Hello, World!\" became a shorthand for any simple program that demonstrated the basics"
}

5. 部署您的 AI Worker

在将您的 AI Worker 全球部署之前,请通过运行以下命令使用您的 Cloudflare 帐户登录:

Terminal window
npx wrangler login

您将被引导到一个网页,要求您登录 Cloudflare 仪表板。登录后,系统会询问您是否允许 Wrangler 对您的 Cloudflare 帐户进行更改。向下滚动并选择 允许 以继续。

最后,部署您的 Worker,使您的项目可以在互联网上访问。要部署您的 Worker,请运行:

Terminal window
npx wrangler deploy
https://hello-ai.<YOUR_SUBDOMAIN>.workers.dev

您的 Worker 将被部署到您的自定义 workers.dev 子域。您现在可以访问该 URL 来运行您的 AI Worker。

完成本教程后,您创建了一个 Worker,通过 AI 绑定将其连接到 Workers AI,并从 Llama 3 模型运行了一个推理任务。

相关资源