+
+
+
大模型接口配置
+
+
+
+
+
+
+ + + LLM服务的API endpoint +
+
+ + + 如果不需要可留空 +
+
+ + + 使用的模型ID +
+
+
+
+ + + 每次翻译最大输出长度 +
+
+ + + PDF文本分块大小 +
+
+ + + API请求超时时间 +
+
+
+ +
+ + + +
+
+ + +
+
+ +
+
常用模型配置参考
+
+ + + + + + + + + + + +
服务商API地址模型示例
本地LM Studiohttp://localhost:1234/v1根据加载的模型
OpenAIhttps://api.openai.com/v1gpt-4, gpt-3.5-turbo
DeepSeekhttps://api.deepseek.com/v1deepseek-chat
阿里百炼https://dashscope.aliyuncs.com/compatible-mode/v1qwen-turbo, qwen-plus
SiliconFlowhttps://api.siliconflow.cn/v1Qwen/Qwen2.5-72B-Instruct
+
+
+