Skip to main content

C Transformers(C 变压器)

本页面介绍如何在 LangChain 中使用 C Transformers(C 变压器) 库。 它分为两个部分:安装和设置,以及具体的 C Transformers(C 变压器)包装器的参考。

安装和设置

包装器

LLM

存在一个 CTransformers LLM 包装器,可以通过以下方式访问:

from langchain.llms import CTransformers

它为所有模型提供了统一的接口:

llm = CTransformers(model='/path/to/ggml-gpt-2.bin', model_type='gpt2')

print(llm('AI is going to'))

如果出现 illegal instruction 错误,请尝试使用 lib='avx'lib='basic'

llm = CTransformers(model='/path/to/ggml-gpt-2.bin', model_type='gpt2', lib='avx')

它可以与在 Hugging Face Hub 上托管的模型一起使用:

llm = CTransformers(model='marella/gpt-2-ggml')

如果模型仓库有多个模型文件(.bin 文件),请使用以下方式指定模型文件:

llm = CTransformers(model='marella/gpt-2-ggml', model_file='ggml-model.bin')

可以使用 config 参数传递其他参数:

config = {'max_new_tokens': 256, 'repetition_penalty': 1.1}

llm = CTransformers(model='marella/gpt-2-ggml', config=config)

有关可用参数的列表,请参见 文档

有关更详细的步骤说明,请参见 此笔记本