Spaces:
Runtime error
Runtime error
upda
Browse files
chat_history.db
CHANGED
@@ -1,3 +1,3 @@
|
|
1 |
version https://git-lfs.github.com/spec/v1
|
2 |
-
oid sha256:
|
3 |
size 1773568
|
|
|
1 |
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:693831206fd90abb67ca575c398a3d66139f1271c2ae85ace68e0bb62dd89c9e
|
3 |
size 1773568
|
mysite/interpreter/interpreter_config.py
CHANGED
@@ -23,8 +23,8 @@ interpreter.llm.model = "Llama3-70b-8192"
|
|
23 |
interpreter.llm.context_window = 4096 # 一般的なLLMのコンテキストウィンドウサイズ
|
24 |
interpreter.context_window = 4096 # 一般的なLLMのコンテキストウィンドウサイズ
|
25 |
|
26 |
-
interpreter.llm.max_tokens =
|
27 |
-
interpreter.max_tokens =
|
28 |
|
29 |
interpreter.llm.max_output = 20000 # 出力の最大トークン数
|
30 |
interpreter.max_output = 20000 # 出力の最大トークン数
|
|
|
23 |
interpreter.llm.context_window = 4096 # 一般的なLLMのコンテキストウィンドウサイズ
|
24 |
interpreter.context_window = 4096 # 一般的なLLMのコンテキストウィンドウサイズ
|
25 |
|
26 |
+
interpreter.llm.max_tokens = 8192 # 1回のリクエストで処理するトークンの最大数
|
27 |
+
interpreter.max_tokens = 8192 # 1回のリクエストで処理するトークンの最大数
|
28 |
|
29 |
interpreter.llm.max_output = 20000 # 出力の最大トークン数
|
30 |
interpreter.max_output = 20000 # 出力の最大トークン数
|