分享
BishengLLM
输入“/”快速插入内容
BishengLLM
用户639
用户639
用户1272
用户1272
2024年11月19日修改
💡
BishengLLM 组件提供快速选择
模型管理
中已接入的本地或在线 LLM,无需重复填写模型地址和 key。
上游触点
无
下游触点
可以与[工作链/Chains]中的LLMChain组件、CombineDocsChain组件、[代理/Agents]中的ZeroShotAgent组件、[工具箱/Tools]中的Calculator组件连接
参数设置
注意事项:点击右上角设置按钮可设置所有参数以及是否展示在主面板中。
•
Temperature:可以控制生成文本的随机性和创造性,是0.0 到 1.0 之间的值,默认值为0.7,数值越低,生成的答案越保守、固定,数值越高,生成的答案越随机、多样。
•
cache:缓存开关,默认开启缓存,遇到重复问题时不调用LLM、直接返回缓存回复。
•
streaming:控制是否流式输出。
•
top-p:累计概率。模型在生成输出时会从概率最高的词汇开始选择,直到这些词汇的总概率累积达到Top p值。