kenken999 commited on
Commit
4eaff9f
·
1 Parent(s): e729652
chat_history.db CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:1a829032e4e0b0d7923b4db19eedbae7432affd9303ba16050246f9465878c88
3
  size 1773568
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:693831206fd90abb67ca575c398a3d66139f1271c2ae85ace68e0bb62dd89c9e
3
  size 1773568
mysite/interpreter/interpreter_config.py CHANGED
@@ -23,8 +23,8 @@ interpreter.llm.model = "Llama3-70b-8192"
23
  interpreter.llm.context_window = 4096 # 一般的なLLMのコンテキストウィンドウサイズ
24
  interpreter.context_window = 4096 # 一般的なLLMのコンテキストウィンドウサイズ
25
 
26
- interpreter.llm.max_tokens = 10000 # 1回のリクエストで処理するトークンの最大数
27
- interpreter.max_tokens = 10000 # 1回のリクエストで処理するトークンの最大数
28
 
29
  interpreter.llm.max_output = 20000 # 出力の最大トークン数
30
  interpreter.max_output = 20000 # 出力の最大トークン数
 
23
  interpreter.llm.context_window = 4096 # 一般的なLLMのコンテキストウィンドウサイズ
24
  interpreter.context_window = 4096 # 一般的なLLMのコンテキストウィンドウサイズ
25
 
26
+ interpreter.llm.max_tokens = 8192 # 1回のリクエストで処理するトークンの最大数
27
+ interpreter.max_tokens = 8192 # 1回のリクエストで処理するトークンの最大数
28
 
29
  interpreter.llm.max_output = 20000 # 出力の最大トークン数
30
  interpreter.max_output = 20000 # 出力の最大トークン数