Spaces:
Sleeping
Sleeping
Update app.py
Browse files
app.py
CHANGED
@@ -14,7 +14,7 @@ prompt_template = Template("Human: ${inst} </s> Assistant: ")
|
|
14 |
# ๋ชจ๋ธ๊ณผ ํ ํฌ๋์ด์ ๋ก๋
|
15 |
model_name = "meta-llama/Llama-3.2-3b-instruct" # ๋ชจ๋ธ ๊ฒฝ๋ก
|
16 |
tokenizer = AutoTokenizer.from_pretrained(model_name, use_fast=False)
|
17 |
-
model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype=torch.float16, device_map="
|
18 |
|
19 |
# ์์ฑ ์ค์ (Gradio UI์์ ์ ์ดํ ์ ์๋ ๋ณ์๋ค)
|
20 |
default_generation_config = GenerationConfig(
|
|
|
14 |
# ๋ชจ๋ธ๊ณผ ํ ํฌ๋์ด์ ๋ก๋
|
15 |
model_name = "meta-llama/Llama-3.2-3b-instruct" # ๋ชจ๋ธ ๊ฒฝ๋ก
|
16 |
tokenizer = AutoTokenizer.from_pretrained(model_name, use_fast=False)
|
17 |
+
model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype=torch.float16, device_map="cpu").eval()
|
18 |
|
19 |
# ์์ฑ ์ค์ (Gradio UI์์ ์ ์ดํ ์ ์๋ ๋ณ์๋ค)
|
20 |
default_generation_config = GenerationConfig(
|