Cran-May commited on
Commit
672937e
1 Parent(s): 76a55b0

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +6 -3
app.py CHANGED
@@ -7,6 +7,9 @@ import requests
7
  import time
8
  import sys
9
 
 
 
 
10
  from huggingface_hub import snapshot_download
11
  from llama_cpp import Llama
12
 
@@ -42,8 +45,8 @@ def get_system_tokens(model):
42
  return get_message_tokens(model, **system_message)
43
 
44
 
45
- repo_name = "TheBloke/stable-vicuna-13B-GGUF"
46
- model_name = "stable-vicuna-13B.Q4_K_S.gguf"
47
 
48
  snapshot_download(repo_id=repo_name, local_dir=".", allow_patterns=model_name)
49
 
@@ -104,7 +107,7 @@ with gr.Blocks(
104
  ) as demo:
105
  gr.Markdown(f"""<h1><center>JWorld-Cecilia-人工智能助理</center></h1>""")
106
  gr.Markdown(value="""这儿是一个中文模型的部署。
107
- 这是量化版 Cecilia 的部署,具有 130亿 个参数,在 CPU 上运行。
108
  Cecilia 是一种会话语言模型,在多种类型的语料库上进行训练。
109
  本节目由上海师范大学附属外国语中学 & JWorld NLPark 赞助播出""")
110
 
 
7
  import time
8
  import sys
9
 
10
+ os.system("pip install --upgrade pip")
11
+ os.system('''CMAKE_ARGS="-DLLAMA_AVX512=ON -DLLAMA_AVX512_VBMI=ON -DLLAMA_AVX512_VNNI=ON -DLLAMA_FP16_VA=ON -DLLAMA_WASM_SIMD=ON" pip install llama-cpp-python''')
12
+
13
  from huggingface_hub import snapshot_download
14
  from llama_cpp import Llama
15
 
 
45
  return get_message_tokens(model, **system_message)
46
 
47
 
48
+ repo_name = "maddes8cht/mosaicml-mpt-30b-chat-gguf"
49
+ model_name = "mosaicml-mpt-30b-chat-Q4_K_S.gguf"
50
 
51
  snapshot_download(repo_id=repo_name, local_dir=".", allow_patterns=model_name)
52
 
 
107
  ) as demo:
108
  gr.Markdown(f"""<h1><center>JWorld-Cecilia-人工智能助理</center></h1>""")
109
  gr.Markdown(value="""这儿是一个中文模型的部署。
110
+ 这是量化版 Cecilia 的部署,具有 300亿 个参数,在 CPU 上运行。
111
  Cecilia 是一种会话语言模型,在多种类型的语料库上进行训练。
112
  本节目由上海师范大学附属外国语中学 & JWorld NLPark 赞助播出""")
113