Skip to main content

Beam(波束)

本页面介绍如何在 LangChain 中使用 Beam。 它分为两部分:安装和设置,以及对特定 Beam 包装的参考。

安装和设置

  • 创建账户
  • 使用 curl https://raw.githubusercontent.com/slai-labs/get-beam/main/get-beam.sh -sSfL | sh 安装 Beam CLI
  • 使用 beam configure 注册 API 密钥
  • 设置环境变量 (BEAM_CLIENT_ID) 和 (BEAM_CLIENT_SECRET)
  • 使用 pip install beam-sdk 安装 Beam SDK

包装器

LLM

有一个名为 Beam LLM 的包装器,您可以通过以下方式访问

from langchain.llms.beam import Beam

定义您的 Beam 应用程序

这是您在开始应用程序后将要开发的环境 它还用于定义模型的最大响应长度

llm = Beam(model_name="gpt2",
name="langchain-gpt2-test",
cpu=8,
memory="32Gi",
gpu="A10G",
python_version="python3.8",
python_packages=[
"diffusers[torch]>=0.10",
"transformers",
"torch",
"pillow",
"accelerate",
"safetensors",
"xformers",],
max_length="50",
verbose=False)

部署您的 Beam 应用程序

一旦定义,您可以通过调用模型的 _deploy() 方法来部署您的 Beam 应用程序

llm._deploy()

调用您的 Beam 应用程序

一旦部署了 Beam 模型,可以通过调用模型的 _call() 方法来调用它 这将返回 GPT2 对您的提示的文本响应

response = llm._call("Running machine learning on a remote GPU")

部署模型并调用它的示例脚本如下:

from langchain.llms.beam import Beam
import time

llm = Beam(model_name="gpt2",
name="langchain-gpt2-test",
cpu=8,
memory="32Gi",
gpu="A10G",
python_version="python3.8",
python_packages=[
"diffusers[torch]>=0.10",
"transformers",
"torch",
"pillow",
"accelerate",
"safetensors",
"xformers",],
max_length="50",
verbose=False)

llm._deploy()

response = llm._call("Running machine learning on a remote GPU")

print(response)