指南 ( Guides )安全性安全性使用LLMs的关键问题之一是它们可能会生成有害或不道德的文本。这是该领域的一个活跃研究领域。在这里,我们提供了一些受这项研究启发的内置链,旨在使LLMs的输出更安全。亚马逊理解审查链:使用亚马逊理解来检测和处理个人身份信息(PII)和毒性。宪法链:用一套应指导模型行为的原则提示模型。Hugging Face提示注入识别:检测并处理提示注入攻击。逻辑谬误链:检查模型输出是否存在逻辑谬误,以纠正任何偏差。审查链:检查任何输出文本是否有害并标记它。