模型配置
Last updated
Was this helpful?
Last updated
Was this helpful?
目前平台已默认内置了部分模型提供商,仅需要填入模型提供商对应的密钥即可:
ollama
Ollama
http://127.0.0.1:11434/api
openai
OpenAI
https://api.openai.com/v1/
siliconcloud
硅基流动
https://api.ap.siliconflow.com/v1/
deepseek
DeepSeek
https://api.deepseek.com/v1/
302ai
302.AI
https://api.302.ai/v1/
zhipu
智谱AI
https://open.bigmodel.cn/api/paas/v4/
Doubao
火山引擎
https://ark.cn-beijing.volces.com/api/v3/
groq
Groq
https://api.groq.com/openai
grok
Grok
https://api.x.ai
openRouter
OpenRouter
https://openrouter.ai/api/v1/
alibailian
阿里云百炼
https://dashscope.aliyuncs.com/compatible-mode/v1
注意:不在以上列表的模型提供商也是支持配置的,模型提供商、API 接口地址、API Key、模型名称这些信息都是支持自定义输入的,只要是符合 OPEN AI 格式的 API,平台均可兼容。
点击刷新模型列表,可查看该提供商提供的所有模型(这里也可以手动输入模型名称):
支持配置语言模型(用于完成文本生成任务)和视觉模型(用于完成视觉分析任务):
另外也支持配置模型的温度和最大输出 Token:
Temperature:控制生成文本的随机性,温度越高,结果越随机多样,反之越稳定保守。
Max Token:限制模型生成文本的长度,以 Token 为单位,防止输出过长。
支持 Ollama ,可自动拉取本地已经部署的模型列表:
支持配置多个模型,可通过右上角模型下拉框切换模型: