sql-llamacpp
这个模板使用户能够使用自然语言与SQL数据库进行交互。
它使用Mistral-7b通过llama.cpp在Mac笔记本上本地运行推理。
环境设置
要设置环境,请按照以下步骤进行操作:
wget https://github.com/conda-forge/miniforge/releases/latest/download/Miniforge3-MacOSX-arm64.sh
bash Miniforge3-MacOSX-arm64.sh
conda create -n llama python=3.9.16
conda activate /Users/rlm/miniforge3/envs/llama
CMAKE_ARGS="-DLLAMA_METAL=on" FORCE_CMAKE=1 pip install -U llama-cpp-python --no-cache-dir
使用方法
要使用此包,您首先应该安装LangChain CLI:
pip install -U langchain-cli
要创建一个新的LangChain项目并将其安装为唯一的包,可以执行以下操作:
langchain app new my-app --package sql-llamacpp
如果要将其添加到现有项目中,只需运行:
langchain app add sql-llamacpp
并将以下代码添加到您的server.py
文件中:
from sql_llamacpp import chain as sql_llamacpp_chain
add_routes(app, sql_llamacpp_chain, path="/sql-llamacpp")
该包将从此处下载Mistral-7b模型。您可以选择其他文件并指定其下载路径(浏览此处)。
此包包含一个2023年NBA名单的示例数据库。您可以在此处查看构建此数据库的说明。
(可选)配置LangSmith以跟踪、监视和调试LangChain应用程序。LangSmith目前处于私有测试版,您可以在此处注册。如果您没有访问权限,可以跳过此部分。
export LANGCHAIN_TRACING_V2=true
export LANGCHAIN_API_KEY=<your-api-key>
export LANGCHAIN_PROJECT=<your-project> # 如果未指定,默认为"default"
如果您在此目录中,则可以直接启动LangServe实例:
langchain serve
这将在本地启动一个运行在http://localhost:8000的FastAPI应用程序的服务器。
您可以在http://127.0.0.1:8000/docs上查看所有模板。 您可以在http://127.0.0.1:8000/sql-llamacpp/playground上访问playground。
您可以通过以下代码访问模板:
from langserve.client import RemoteRunnable
runnable = RemoteRunnable("http://localhost:8000/sql-llamacpp")
=======