主题
LLM节点
LLM 是构建 AI 应用的核心。我们相信,大型语言模型(LLM)将改变软件的使用方式和我们的工作方式。有了 BetterYeah AI,使用 LLM 变得非常简单。 与 LLM 的通信是通过自然语言和书面形式进行的。用于向 LLM 提供信息和指令的文本称为 "提示(Prompt)"。 每次使用 LLM 时,您只需要:写好提示和选择合适的模型。
如何使用
点击 「+」按钮,选择 LLM 节点;
配置节点内容。
配置
模型
我提供市面上几乎所有的主流 LLM模型,你可以根据你的需求,选择合适的模型。
模型分类 | 供应商 | 名称 |
---|---|---|
Anthropic Claude 系列模型 | Anthropic | anthropic.claude-v1 |
Anthropic Claude 系列模型 | Anthropic | anthropic.claude-v2 |
Anthropic Claude 系列模型 | Anthropic | anthropic.claude-3-haiku |
Anthropic Claude 系列模型 | Anthropic | anthropic.claude-3-sonnet |
Anthropic Claude 系列模型 | Anthropic | anthropic.claude-instant-v1 |
Azure Open AI 系列模型 | Azure | gpt-4-turbo(Azure) |
ChatGLM3 | ChatGLM3 | ChatGLM3-6B |
ChatGLM3 | ChatGLM3 | ChatGLM3-6B-32K |
ChatGLM3 | ChatGLM3 | ChatGLM3-6B-Base |
Moonshot 系列模型 | Moonshot | moonshot-v1-8k |
Moonshot 系列模型 | Moonshot | moonshot-v1-32k |
Moonshot 系列模型 | Moonshot | moonshot-v1-128k |
OpenAI ChatGPT 系列模型 | OpenAI | gpt-4 |
OpenAI ChatGPT 系列模型 | OpenAI | dall-e-3 |
OpenAI ChatGPT 系列模型 | OpenAI | gpt-4-turbo |
OpenAI ChatGPT 系列模型 | OpenAI | gpt-3.5-turbo |
OpenAI ChatGPT 系列模型 | OpenAI | gpt-3.5-turbo-16k |
OpenAI ChatGPT 系列模型 | OpenAI | gpt-4-vision-preview |
百度千帆大模型 | 百度 | BLOOMZ-7B |
百度千帆大模型 | 百度 | ERNIE-Bot |
百度千帆大模型 | 百度 | ERNIE-Bot-4 |
百度千帆大模型 | 百度 | AquilaChat-7B |
百度千帆大模型 | 百度 | ChatGLM2-6B-32K |
百度千帆大模型 | 百度 | ERNIE-Bot-turbo |
百度千帆大模型 | 百度 | Llama-2-7b-chat |
百度千帆大模型 | 百度 | Llama-2-70b-chat |
百度千帆大模型 | 百度 | Qianfan-Chinese-Llama-2-7B |
智谱 ChatGLM 系列模型 | 智谱 | GLM-4 |
智谱 ChatGLM 系列模型 | 智谱 | GLM-3-Turbo |
智谱 ChatGLM 系列模型 | 智谱 | chatglm_pro |
智谱 ChatGLM 系列模型 | 智谱 | chatglm_std |
智谱 ChatGLM 系列模型 | 智谱 | chatglm_lite |
智谱 ChatGLM 系列模型 | 智谱 | chatglm_lite_32k |
讯飞星火认知大模型 | 讯飞 | general |
讯飞星火认知大模型 | 讯飞 | generalv2 |
腾讯混元大模型 | 腾讯 | HuanYuan |
阿里通义千问系列模型 | 阿里 | qwen-plus |
阿里通义千问系列模型 | 阿里 | qwen-turbo |
创造性
当配置的创造性值较大时,模型输出的概率分布更平均,这意味着您将获得更多样化的回答。
当配置的创造性值较大时,模型输出的概率分布更平均,这意味着您将获得更多样化的回答。
提示词
提示词是一种书面文字,其中包括您要提供给语言模型的信息以及指令和期望。清晰明确的提示词,是完成需求的关键。有关提示语工程的说明和最佳实践,可以参阅提示工程指南。也可以在全屏调试中,使用我们的优化建议。文本框中可以使用{{}}
语法 引入其他节点的输出或变量例如,获取start节点的content值,可以使用 start.content
将其包含在提示词中。
更详细的变量使用指南可以使用参考 Flow中的变量和数据流转。
上下文
可创建或读取上下文故事线,让AI更准确的理解意图并处理
- 通过变量:
你可以使用 JSON格式来传递上下文:
json
[
{
"role": "user",
"content": "你好"
},
{
"role": "assistant",
"content": "你好,有什么可以帮助您?"
},
{
"role": "user",
"content": "北京奥运会时间"
}
]
- 手动输入
在文本框中输入上下文
- 输出格式(OpenAI 模型)
- 文本:直接输出文本
- JSON:输出 JSON 文本,更加结构化,易于与其他模块连接。
- 文本:直接输出文本