Here123 commited on
Commit
665b7fa
1 Parent(s): c634a3e

Upload config_private.py

Browse files
Files changed (1) hide show
  1. config_private.py +58 -0
config_private.py ADDED
@@ -0,0 +1,58 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # [step 1]>> 例如: API_KEY = "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" (此key无效)
2
+ API_KEY = "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" # 可同时填写多个API-KEY,用英文逗号分割,例如API_KEY = "sk-openaikey1,sk-openaikey2,fkxxxx-api2dkey1,fkxxxx-api2dkey2"
3
+
4
+ # [step 2]>> 改为True应用代理,如果直接在海外服务器部署,此处不修改
5
+ USE_PROXY = False
6
+ if USE_PROXY:
7
+ # 填写格式是 [协议]:// [地址] :[端口],填写之前不要忘记把USE_PROXY改成True,如果直接在海外服务器部署,此处不修改
8
+ # 例如 "socks5h://localhost:11284"
9
+ # [协议] 常见协议无非socks5h/http; 例如 v2**y 和 ss* 的默认本地协议是socks5h; 而cl**h 的默认本地协议是http
10
+ # [地址] 懂的都懂,不懂就填localhost或者127.0.0.1肯定错不了(localhost意思是代理软件安装在本机上)
11
+ # [端口] 在代理软件的设置里找。虽然不同的代理软件界面不一样,但端口号都应该在最显眼的位置上
12
+
13
+ # 代理网络的地址,打开你的科学上网软件查看代理的协议(socks5/http)、地址(localhost)和端口(11284)
14
+ proxies = {
15
+ # [协议]:// [地址] :[端口]
16
+ "http": "socks5h://127.0.0.1:7890",
17
+ "https": "socks5h://127.0.0.1:7890",
18
+ }
19
+ else:
20
+ proxies = None
21
+
22
+ # [step 3]>> 多线程函数插件中,默认允许多少路线程同时访问OpenAI。Free trial users的限制是每分钟3次,Pay-as-you-go users的限制是每分钟3500次
23
+ # 一言以蔽之:免费用户填3,OpenAI绑了信用卡的用户可以填 16 或者更高。提高限制请查询:https://platform.openai.com/docs/guides/rate-limits/overview
24
+ DEFAULT_WORKER_NUM = 3
25
+
26
+
27
+ # [step 4]>> 以下配置可以优化体验,但大部分场合下并不需要修改
28
+ # 对话窗的高度
29
+ CHATBOT_HEIGHT = 1115
30
+
31
+ # 代码高亮
32
+ CODE_HIGHLIGHT = True
33
+
34
+ # 窗口布局
35
+ LAYOUT = "LEFT-RIGHT" # "LEFT-RIGHT"(左右布局) # "TOP-DOWN"(上下布局)
36
+
37
+ # 发送请求到OpenAI后,等待多久判定为超时
38
+ TIMEOUT_SECONDS = 30
39
+
40
+ # 网页的端口, -1代表随机端口
41
+ WEB_PORT = -1
42
+
43
+ # 如果OpenAI不响应(网络卡顿、代理失败、KEY失效),重试的次数限制
44
+ MAX_RETRY = 2
45
+
46
+ # OpenAI模型选择是(gpt4现在只对申请成功的人开放,体验gpt-4可以试试api2d)
47
+ LLM_MODEL = "gpt-3.5-turbo" # 可选 ↓↓↓
48
+ AVAIL_LLM_MODELS = ["gpt-3.5-turbo", "api2d-gpt-3.5-turbo", "gpt-4", "api2d-gpt-4", "chatglm"]
49
+
50
+ # 本地LLM模型如ChatGLM的执行方式 CPU/GPU
51
+ LOCAL_MODEL_DEVICE = "cpu" # 可选 "cuda"
52
+
53
+ # 设置gradio的并行线程数(不需要修改)
54
+ CONCURRENT_COUNT = 100
55
+
56
+ # 设置用户名和密码(不需要修改)(相关功能不稳定,与gradio版本和网络都相关,如果本地使用不建议加这个)
57
+ # [("username", "password"), ("username2", "password2"), ...]
58
+ AUTHENTICATION = []